Maison > Problème commun > L'avenir parle : agents vocaux IA en temps réel avec une latence ultra-faible

L'avenir parle : agents vocaux IA en temps réel avec une latence ultra-faible

James Robert Taylor
Libérer: 2024-09-24 16:41:31
original
613 Les gens l'ont consulté

Le mode vocal est rapidement devenu une fonctionnalité phare de l'IA conversationnelle, mettant les utilisateurs à l'aise et leur permettant d'interagir de la manière la plus naturelle possible : par la parole. OpenAI n'a cessé d'ouvrir la voie avec l'introduction d'agents vocaux IA en temps réel fonctionnant avec une latence inférieure à 500 ms. La technologie derrière cette réussite est désormais open source, donnant un accès inégalé aux outils permettant de créer des agents vocaux réactifs de qualité supérieure.

thumbnail (1).jpg

Le mode vocal a est rapidement devenue une fonctionnalité phare de l'IA conversationnelle, mettant les utilisateurs à l'aise et leur permettant d'interagir de la manière la plus naturelle possible : par la parole. OpenAI n'a cessé d'ouvrir la voie avec l'introduction d'agents vocaux IA en temps réel fonctionnant avec une latence inférieure à 500 ms. La technologie derrière cette réussite est désormais open source, offrant un accès inégalé aux outils permettant de créer des agents vocaux réactifs de qualité supérieure.

OpenAI n'a pas réussi à tirer son épingle du jeu. Lorsqu'ils ont développé les capacités vocales de ChatGPT, ils ont fait appel aux meilleurs talents pour le casting et la réalisation afin de garantir que les voix étaient immersives tout en leur donnant l'impression qu'elles appartenaient au groupe. Ce pool de 400 auditions a ensuite été réduit aux cinq disponibles aujourd'hui. Non pas que la navigation se soit déroulée sans heurts ; pas lorsque l'entreprise a dû mettre "Sky" de côté en raison de ses similitudes frappantes avec Scarlett Johansson.

Mais le véritable enthousiasme réside dans le dernier développement : la capacité d'exploiter cette technologie localement. Imaginez disposer d'un traitement parole-parole en temps réel avec une latence inférieure à 500 ms sur votre propre GPU. Ce n'est plus un rêve lointain : le système est désormais entièrement open source.

Comment ça marche ?

Pour atteindre une latence aussi minimale, le pipeline d'IA est divisé en composants distincts, chacun optimisé pour la rapidité et l'efficacité :

1. Détection d'activité vocale (VAD)

Le pipeline commence par le module Silero VAD v5, chargé de détecter le moment où l'utilisateur a fini de parler. C'est le « gardien » qui déclenche les prochaines étapes du traitement.

2. Transcription en temps réel (Speech-To-Text)

Cette partie du flux utilise certains des modèles les plus sophistiqués, tels que Whisper ou DeepSpeech, pour transcrire la parole de l'utilisateur en texte. Par exemple, Whisper fonctionne en temps réel, avec un facteur de 0,5 ; il peut donc traiter la parole à une vitesse deux fois supérieure à celle du temps réel et fournir des transcriptions précises en 100 millisecondes environ.

3. Génération de réponses 

Au fur et à mesure que la transcription est en cours, les grands modèles linguistiques (LLM) commencent à prédire simultanément les réponses possibles. En 200 millisecondes, le système peut générer une réponse textuelle pertinente.

4. Synthèse vocale (Text-To-Speech)

La réponse générée est immédiatement convertie en parole, à l'aide de synthétiseurs vocaux rapides, qui prennent encore 200 ms pour produire un son de haute qualité.

L'efficacité grâce au parallèle Traitement

Le secret de cette vitesse impressionnante réside dans le traitement parallèle. Contrairement à la gestion séquentielle des composants ou à la gestion d'une tâche à la fois, le système effectue simultanément la transcription, la génération de réponses et la synthèse vocale. Cette conception de bout en bout garantit que chaque partie du processus fonctionne de concert, réduisant considérablement le temps global nécessaire pour terminer l'interaction de l'utilisateur

Par exemple, lorsque le système détecte la fin du discours, le système démarre le processus de transcription. Une fois la transcription terminée, une réponse a été générée par le modèle linguistique et la synthèse vocale démarre immédiatement après. Un tel traitement parallèle des tâches garantit que l'interaction globale, de la parole de l'utilisateur à la réponse de l'IA, est terminée en moins de 500 millisecondes.

Conclusion : débloquer l'avenir de l'IA vocale 

Agents vocaux IA down à une latence de 500 ms pour l'interaction homme-machine constitue une avancée significative dans l'interaction homme-machine transparente. L'utilisation de cette technologie passe par la transcription en temps réel, la génération de réponses rapides et la synthèse vocale tout en offrant des expériences conversationnelles ultra-réactives.

Cela signifie qu'avec l'ensemble du pipeline open source, il devient possible d'intégrer ce technologie dans votre projet. Les développeurs peuvent affiner et personnaliser leurs agents vocaux pour une grande variété d'applications, y compris les assistants vocaux et même les avatars de jeu en temps réel.

Ce n'est pas seulement un pas en avant ; c'est une invitation à construire l'avenir de l'IA conversationnelle. Alors, qu'allez-vous créer avec ?


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dzone.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal