import sys import whisper import torch # <--- CORRECTION CRITIQUE : Import manquant pour la vérification CUDA # Le chemin du fichier audio est passé en argument de ligne de commande audio_file_path = sys.argv[1] # Charger le modèle (utiliser 'base.en' pour l'anglais ou 'base' pour multi-langue) # Le modèle 'base' est un bon compromis taille/performance # Utiliser le GPU si disponible model = whisper.load_model("base") # 1. Lancer la transcription # Cette ligne est maintenant correcte car 'torch' est importé result = model.transcribe(audio_file_path, fp16=torch.cuda.is_available()) # 2. Afficher la transcription print(result["text"])