diff --git "a/subtitles/fr/tasks_14_\360\237\244\227-text-to-speech.srt" "b/subtitles/fr/tasks_14_\360\237\244\227-text-to-speech.srt" deleted file mode 100644 index 5add32b64..000000000 --- "a/subtitles/fr/tasks_14_\360\237\244\227-text-to-speech.srt" +++ /dev/null @@ -1,43 +0,0 @@ -1 -00:00:03,660 --> 00:00:13,200 -Bienvenue dans la série d'Hugging Face sur les tâches ! Dans cette vidéo, nous allons examiner la tâche de synthèse vocale. Aucune discussion sur les tâches audio ne serait complète   - -2 -00:00:13,200 --> 00:00:17,520 -sans parler de la synthèse vocale. Dans le cas de la synthèse vocale, la parole naturelle est   - -3 -00:00:17,520 --> 00:00:23,700 -générée par un modèle à partir d'un texte. Des bibliothèques telles que ESPNet et TensorFlowTTS   - -4 -00:00:23,700 --> 00:00:28,020 -vous permettent de charger facilement l'un des plus de 100 modèles pré-entraînés par la communauté.  - -5 -00:00:28,860 --> 00:00:32,340 -Ces modèles peuvent même être étendus à plusieurs locuteurs et à plusieurs langues !  - -6 -00:00:33,480 --> 00:00:36,900 -Il existe des métriques telles que le Log F0 qui nous permettent d'évaluer les   - -7 -00:00:36,900 --> 00:00:41,460 -en reflétant les similitudes de contenu. Mais il est très difficile de déterminer la   - -8 -00:00:41,460 --> 00:00:46,020 -qualité perceptuelle, c'est pourquoi il y a généralement des humains dans la boucle qui effectuent une évaluation qualitative.  - -9 -00:00:47,100 --> 00:00:49,920 -Vous pouvez l'essayer dès maintenant dans une démonstration sur Spaces. Ou   - -10 -00:00:49,920 --> 00:00:52,680 -en utilisant les widgets hébergés dans chacun des dépôts de modèles.  - -11 -00:00:53,400 --> 00:00:56,160 -Pour plus d'informations sur TTS, consultez la page consacrée aux tâches. \ No newline at end of file