OpenAI prueba un modo de voz avanzado con una versión en desarrollo para los usuarios de ChatGPT Plus

OpenAI prueba un modo de voz avanzado con una versión en desarrollo para los usuarios de ChatGPT Plus

OpenAI ha anunciado el despliegue de la versión alfa de su nuevo modo de voz avanzado para un grupo reducido de suscriptores de ChatGPT Plus, una herramienta que espera expandir gradualmente al resto de usuarios en las próximas semanas.

La versión gratis de ChatGPT ya permite usar el nuevo motor de inteligencia artificial, GPT-4o.

La desarrolladora de ChatGPT anunció a finales de junio que retrasaría la llegada de este formato, impulsado por el modelo de lenguaje GPT-4o, a su chatbot, a fin de asegurarse de que este cumpliría “los altos estándares de seguridad y fiabilidad”.

GPT-4o, que se presentó en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina “más natural”, debido a que puede comprender una combinación de entradas de texto, audio e imagen, así como generar respuestas en la misma medida con gran agilidad.

El denominado Modo de voz avanzado está incluido en esta versión, de modo que permite elegir entre una serie de voces diferentes para personalizar la interacción con el chatbot.

Tras prorrogar el comienzo de sus pruebas, que inicialmente iban a ser en julio, la firma ha anunciado a través de X que ya lo ha puesto a disposición de los suscriptores de ChatGPT Plus a través de una versión alfa.

OpenAI ha recordado en esta publicación que este modo de voz avanzado, disponible para web y app, “ofrece conversaciones más naturales en tiempo real” y que “detecta y responde a las emociones” de los usuarios”.

Con ello, ha comentado que continuará añadiendo a más personas a sus pruebas y que planea que todos los suscriptores de la versión Plus tengan acceso en otoño, también a la capacidad para compartir pantalla y vídeo, que “se lanzarán en una fecha posterior”.

OpenAI ha probado las capacidades de voz de GPT-4o con más de 100 socios externos en 45 idiomas y que, para proteger la privacidad de los usuarios, ha entrenado el modelo para que solo hable con cuatro voces preestablecidas.

Para ello, ha construido sistemas para “bloquear las salidas que difieren de esas voces” y también ha implementado medidas de seguridad para bloquear solicitudes de contenido violento o protegido por derechos de autor.

Finalmente, ha reconocido que lo aprendido en esta versión alfa hará que la versión estable “sea más segura y disfrutable” para todos los usuarios y que planea compartir un informe detallado sobre las capacidades, limitaciones y evaluaciones de seguridad de GPT-4o a principios de agosto.