Soul App a fait une annonce marquante le 30 juillet 2025, en présentant un modèle de langage grand public (LLM) avec une technologie full-duplex lors de la WAIC 2025 à Shanghai. Cette technologie permet des interactions plus naturelles entre les humains et l’IA en éliminant le mécanisme de détection d’activité vocale (VAD) et la logique de contrôle de latence, brisant le mode de dialogue par tour de rôle. L’IA détermine autonomement les rythmes de conversation, facilitant un engagement social réciproque et une symbiose émotionnelle. Les applications incluent des appels en temps réel avec des humains virtuels, des assistances d’appariement dans des contextes individuels et de groupe, et la gestion de discussions vocales de groupe, comme dans des salles de discussion audio. Cette mise à jour, récemment améliorée, entrera bientôt en phase de test bêta et inclut des capacités multimodales, telles que des appels vidéo en temps réel combinant audio et génération vidéo, avec des recherches acceptées par CVPR 2025 pour la génération de portraits vidéo en temps réel.
Cette innovation pourrait révolutionner les applications sociales, en améliorant l’engagement et l’expérience utilisateur dans les interactions multi-utilisateurs, tout en analysant les défis sociaux et en fournissant un soutien émotionnel.
Source : Soul App Redefines Human-AI Interaction with Full-Duplex Technology at WAIC 2025