Partie 1 : Découverte générale et fonctionnelle
Lien vers le projet GitHub : https://github.com/jasonppy
Objectif principal du projet
Le portefeuille GitHub de Puyuan Peng se concentre sur le développement de modèles d’apprentissage automatique open-source pour le traitement de la parole et de l’audio. L’objectif principal est de créer des outils performants pour la synthèse vocale, l’édition audio et la reconnaissance vocale. VoiceStar propose une synthèse vocale robuste avec contrôle de la durée et extrapolation, tandis que VoiceCraft excelle dans l’édition vocale sans réentraînement et la synthèse vocale en conditions variées. Ces projets visent à offrir des solutions de haute qualité pour la recherche et les applications non commerciales.
Fonctionnalités clés
- VoiceStar :
- Clonage vocal précis à partir d’échantillons audio courts.
- Contrôle de la durée pour ajuster la longueur des séquences vocales.
- Extrapolation pour générer des paroles plus longues que les données d’entraînement.
- Interface Gradio pour une utilisation simplifiée.
- Support multilingue via un phonémiseur (espeak-ng).
- VoiceCraft :
- Édition vocale zéro-shot (modification sans réentraînement).
- Synthèse vocale de haute fidélité, robuste aux accents et bruits de fond.
- Reconnaissance vocale audiovisuelle et support des langues mélangées.
- Démonstrations interactives via Jupyter Notebooks.
- Autres projets (PromptingWhisper, syllable-discovery) :
- Amélioration de la reconnaissance vocale et traduction (PromptingWhisper).
- Segmentation des syllabes dans des modèles vocaux auto-supervisés.
Public cible et cas d’usage
- Développeurs et chercheurs en IA : Pour explorer des modèles de synthèse et d’édition vocale.
- Créateurs de contenu : Podcasteurs ou vidéastes générant des narrations ou doublages personnalisés.
- Entreprises technologiques : Prototypage d’assistants vocaux ou applications audio.
- Éducateurs : Création de contenu audio pour l’enseignement à distance.
Utilisation et combinaison des fonctionnalités
- VoiceStar :
- Clonage vocal pour générer une voix synthétique à partir d’un texte.
- Ajustement de durée pour des formats spécifiques (publicités, livres audio).
- Extrapolation pour des narrations longues (discours, podcasts).
- Interface Gradio pour des démos interactives.
- VoiceCraft :
- Édition vocale pour corriger ou modifier des enregistrements existants.
- Synthèse vocale pour créer des dialogues réalistes.
- Intégration dans des pipelines de reconnaissance vocale ou traduction.
- Combinaison : Utiliser VoiceCraft pour éditer une voix, puis VoiceStar pour générer une version longue avec un contrôle précis de la durée.
Exemples concrets d’utilisation
- Podcast : Un créateur utilise VoiceStar pour cloner sa voix et générer un épisode à partir d’un script, économisant du temps.
- Doublage : Une équipe utilise VoiceCraft pour modifier des lignes de dialogue et VoiceStar pour ajouter des scènes longues.
- Assistant vocal : Une startup prototype un assistant avec VoiceStar pour une voix personnalisée.
- Éducation : Un enseignant génère des leçons audio avec VoiceCraft pour une voix naturelle et VoiceStar pour des durées adaptées.
Avantages par rapport aux solutions similaires
- Extrapolation (VoiceStar) : Génère des séquences longues, surpassant Coqui TTS ou ElevenLabs pour les narrations.
- Robustesse : Les modèles fonctionnent avec des enregistrements imparfaits, contrairement à certains concurrents.
- Open-source : Licence CC BY-NC-SA 4.0 (code) et Coqui Public Model License (poids) pour la recherche non commerciale, plus accessible que les solutions propriétaires comme ElevenLabs.
- Polyvalence : Combine synthèse, édition et reconnaissance, contrairement à des outils comme StyleTTS2 (axé sur la vitesse).

Partie 2 : Exploration technique et métriques clés
Structure générale du projet
Le profil GitHub de jasonppy comprend 16 dépôts, avec VoiceStar et VoiceCraft comme projets phares :
- VoiceStar :
- Scripts Python (ex.
inference_commandline.py
). - Modèles pré-entraînés sur Hugging Face (ex.
VoiceStar_840M_30s.pth
). - Dossiers :
pretrained/
,demo/
. - Interface Gradio.
- VoiceCraft :
- Jupyter Notebooks pour les démos (ex.
inference_speech_editing.ipynb
). - Scripts Python (ex.
main.py
,phonemize_encodec_encode_hf.py
). - Dossiers :
models/
,data/
. - Autres : Projets comme PromptingWhisper (Python) et syllable-discovery (Jupyter Notebooks).
Technologies et dépendances
- Langages : Python 3.10.
- Frameworks :
- PyTorch, Torchaudio (VoiceStar, VoiceCraft).
- Hugging Face (modèles, datasets).
- Gradio (interface VoiceStar).
- Jupyter (démos VoiceCraft).
- Outils audio :
- Encodec (compression audio).
- Phonemizer (espeak-ng).
- FFmpeg, Soundfile, openai-whisper.
- Autres : NumPy, tqdm, torchmetrics, einops, OmegaConf, wandb.
- Environnement : Conda, Docker (VoiceCraft).
Activité récente
- Contributeurs : Principalement Puyuan Peng, avec quelques contributeurs externes (ex. jstayco pour VoiceCraft).
- Mises à jour :
- VoiceStar : Lancé le 6 avril 2025, activité initiale limitée.
- VoiceCraft : Commits réguliers, dernière activité notable en avril 2025.
- Issues ouvertes :
- VoiceCraft : 12 issues ouvertes (ex. finetuning, installation).
- VoiceStar : Peu d’issues, projet récent.
- Fréquence : VoiceCraft est plus actif (issues fréquentes), VoiceStar en phase de démarrage.
Qualité de la documentation et installation
- VoiceStar :
- README détaillé : Instructions pour Conda, téléchargement des modèles, inférence.
- Installation : Complexe pour les débutants (dépendances multiples, ajustements manuels).
- Exemple :
python inference_commandline.py --reference_speech "demo/5895_34622_000026_000002.wav" --target_text "..."
. - VoiceCraft :
- Documentation : README et Jupyter Notebooks, mais certains utilisateurs signalent des incohérences.
- Installation : Supporte Docker, mais des problèmes d’importation ou de configuration (ex. Conda, CUDA).
- Général : La documentation est claire pour les experts, mais les débutants rencontrent des obstacles (ex. manque de
requirements.txt
précis).
Popularité
- VoiceCraft : 8.3k étoiles, 785 forks, signe d’une forte adoption.
- VoiceStar : Projet récent, popularité émergente (annoncé sur X par @PuyuanPeng, intérêt initial).
- Autres : PromptingWhisper (137 étoiles), syllable-discovery (moins populaire).
- Tendance : VoiceCraft bénéficie d’une communauté active, VoiceStar pourrait suivre.
Partie 3 : Recherche complémentaire et contexte externe
Avis, tutoriels, articles
- VoiceCraft :
- Post Reddit (1.3k votes) : Loué pour sa qualité audio (« indiscernable d’une vraie voix ») et sa robustesse par rapport à Coqui TTS.
- Issues GitHub : Retours positifs sur les démos, mais plaintes sur l’installation (ex. Jupyter complexe).
- VoiceStar :
- Annoncé sur X (6 avril 2025) comme un modèle de pointe pour le clonage vocal.
- Pas de tutoriels spécifiques, mais les guides VoiceCraft (ex. Docker) sont partiellement applicables.
- Site personnel : Puyuan Peng, doctorant à UT Austin, met en avant ses travaux sur l’audio et la parole.
Retours d’utilisateurs
- VoiceCraft : Qualité audio excellente (8s sur RTX 3080), mais installation difficile pour les non-experts (ex. erreurs Conda, dépendances manquantes).
- VoiceStar : Peu de retours (projet récent), mais l’interface Gradio est appréciée pour sa simplicité.
- Préoccupations éthiques : Une issue critique l’usage potentiel abusif de VoiceCraft (ex. deepfakes), avec une réponse soulignant la licence non commerciale et l’interdiction de modifier des voix sans consentement.
Projets et alternatives associés
- VoiceCraft : Prédécesseur de VoiceStar, axé sur l’édition zéro-shot.
- Coqui TTS : Moins robuste et plus lent que VoiceCraft/VoiceStar.
- ElevenLabs : Solution commerciale, mais VoiceStar est open-source.
- StyleTTS2 : Rapide, mais moins expressif.
- Real-Time Voice Cloning : Moins adapté aux longues séquences.
Roadmap et pistes d’évolution
- Améliorations :
- Simplifier l’installation (ex. Docker automatisé, requirements.txt clair).
- Ajouter des tutoriels (Colab, vidéos).
- Étendre le support multilingue et le finetuning.
- Communauté : Les issues VoiceCraft (ex. finetuning, Windows) indiquent des besoins similaires pour VoiceStar.
- Commercialisation : Une licence moins restrictive pourrait élargir l’adoption.
Partie 4 : Synthèse et recommandations
3 points clés innovants
- Extrapolation (VoiceStar) : Génère des séquences vocales longues, idéal pour les narrations.
- Édition zéro-shot (VoiceCraft) : Modifie la parole sans réentraînement, unique pour l’édition rapide.
- Robustesse : Performant avec des enregistrements imparfaits, surpassant Coqui TTS.
Cas d’usage typiques
- Création de podcasts ou livres audio automatisés.
- Prototypage d’assistants vocaux personnalisés.
- Recherche en IA pour tester des modèles vocaux avancés.
Pistes d’amélioration
- Simplifier l’installation avec des scripts automatisés.
- Enrichir la documentation avec des tutoriels accessibles.
- Clarifier les licences pour une adoption plus large.
- Optimiser la vitesse d’inférence pour concurrencer StyleTTS2.