Spaces:
Running
Running
| import sys | |
| import whisper | |
| import torch # <--- CORRECTION CRITIQUE : Import manquant pour la vérification CUDA | |
| # Le chemin du fichier audio est passé en argument de ligne de commande | |
| audio_file_path = sys.argv[1] | |
| # Charger le modèle (utiliser 'base.en' pour l'anglais ou 'base' pour multi-langue) | |
| # Le modèle 'base' est un bon compromis taille/performance | |
| # Utiliser le GPU si disponible | |
| model = whisper.load_model("base") | |
| # 1. Lancer la transcription | |
| # Cette ligne est maintenant correcte car 'torch' est importé | |
| result = model.transcribe(audio_file_path, fp16=torch.cuda.is_available()) | |
| # 2. Afficher la transcription | |
| print(result["text"]) |