OpenAI vs Google : Gemini lance des live rolls pour rivaliser avec le mode vocal de ChatGPT – Un nouveau défi émerge

OpenAI contre Google : le géant de la technologie dévoile Gemini Live, une fonctionnalité de chat vocal pour son assistant IA Gemini, pour concurrencer le nouveau mode vocal avancé d’OpenAI pour ChatGPT. Révélée lors de l’événement Made by Google 2024, cette fonctionnalité innovante sera disponible pour les utilisateurs du package avancé, promettant une expérience d’interaction vocale transparente avec la technologie IA. Restez à l’écoute pour plus de mises à jour sur ce développement passionnant dans la course à l’IA entre Google et OpenAI.
- OpenAI contre Google : Gemini Live peut-il défier le mode vocal de ChatGPT ?
- Comment pouvons-nous améliorer l’interaction avec l’IA ?
- Comment OpenAI relève-t-il les défis avec son mode vocal avancé ?
OpenAI contre Google : Gemini Live peut-il défier le mode vocal de ChatGPT ?
Dans un fil de discussion sur X, la société a annoncé le lancement de Gemini Live, visant à rivaliser avec le mode vocal avancé récemment dévoilé par OpenAI pour ChatGPT. Cette nouvelle fonctionnalité, dévoilée lors de l’événement 2024, est désormais accessible aux utilisateurs de Gemini Advanced, améliorant les interactions de l’IA avec une approche plus naturelle et flexible. Les utilisateurs peuvent librement interrompre, changer de sujet ou poursuivre la conversation, reflétant la spontanéité d’un appel téléphonique. Gemini Live se distingue par son nouveau moteur vocal, présenté par Google comme offrant des dialogues multitours cohérents, chargés d’émotion et naturellement fluides. Offrant 10 voix au son naturel, il a même la capacité d’imiter la parole de l’utilisateur en temps réel, élevant ainsi l’expérience de l’IA à un nouveau niveau. De plus, ce mode mains libres fonctionne de manière transparente en arrière-plan ou lorsque le téléphone est verrouillé, garantissant des conversations ininterrompues pendant que les utilisateurs effectuent plusieurs tâches. Avec Gemini Live, l’entreprise fait un pas en avant significatif dans la course à l’IA, défiant OpenAI et façonnant l’avenir des interactions vocales avec l’IA. .
Comment pouvons-nous améliorer l’interaction avec l’IA ?
Par conséquent, les modèles Gemini 1.5 Pro et Gemini 1.5 Flash de l’assistant IA facilitent les conversations étendues et complexes, grâce à leur fenêtre contextuelle plus longue par rapport aux autres modèles d’IA génératifs. Cette avancée permet à Gemini Live de participer à des discussions plus longues tout en stockant les données plus efficacement. De plus, la société a annoncé que l’entrée multimodale, présentée pour la première fois lors de Google I/O 2024, sera intégrée à Gemini Live d’ici la fin de l’année, au-delà des simples commandes vocales. Cette intégration améliorera la compréhension et la réactivité de l’IA aux signaux visuels tels que les images et les vidéos, la rendant encore plus adaptable. Actuellement, cette mise à niveau est exclusive aux utilisateurs Android anglophones, mais la prise en charge de langues supplémentaires et d’appareils iOS est à venir.
Alors que la société lance sa dernière fonctionnalité, elle se prépare à de nouvelles intégrations et avancées. Dans les semaines à venir, Gemini devrait recevoir de nouvelles extensions compatibles avec les applications Google, notamment Calendrier, Keep, Tâches et YouTube Music. Ces intégrations promettent de rationaliser les routines quotidiennes des utilisateurs, en leur permettant de gérer efficacement les listes de lecture, les rappels et les plannings via de simples commandes vocales. De plus, les utilisateurs d’Android pourront bientôt activer Gemini sur n’importe quelle application via le bouton d’alimentation ou des invites vocales. Cette fonctionnalité innovante permettra aux utilisateurs d’interagir avec Gemini à travers diverses applications, en posant des questions ou en créant du contenu comme des images qui s’intègrent parfaitement dans leurs flux de travail.
Comment OpenAI relève-t-il les défis avec son mode vocal avancé ?
Dans la rivalité actuelle entre OpenAI et Google, l’introduction par Google du mode vocal avancé pour ChatGPT a rencontré plusieurs défis au cours de sa phase de test alpha initiale. Bien que ce mode vise à améliorer l’expérience utilisateur en offrant des interactions conversationnelles plus réalistes, il a suscité des critiques pour avoir potentiellement favorisé une dépendance excessive à l’IA en raison de ses échanges vocaux très réalistes. Récemment, OpenAI a soulevé des préoccupations en matière de sécurité concernant l’émergence de liens sociaux entre les utilisateurs et l’IA, qui pourraient potentiellement nuire aux relations interhumaines. Pour résoudre ces problèmes et affiner davantage ses capacités d’IA, la société a activement exploré les moyens de renforcer les compétences en ingénierie logicielle de ses modèles d’IA. Dans le cadre de ces efforts, OpenAI a publié un sous-ensemble évalué par des humains du benchmark SWE, conçu pour fournir une évaluation plus précise de la capacité des modèles d’IA à gérer les défis logiciels du monde réel. Ce dernier développement marque un engagement continu à garantir que les progrès de l’IA restent à la fois sûrs et pratiques pour une utilisation quotidienne.
Inscrivez-vous maintenant pour commencer votre expérience avec les cryptos
Téléchargez l'application de BTCC via l’App Store ou Google Play
Suivez-nous
Numériser pour télécharger