El nuevo modelo de OpenAI promete un rendimiento superior y una respuesta más rápida y económica en la API, con mejoras en seguridad y capacidades multilingües.
Este lunes, la empresa de investigación y despliegue de inteligencia artificial, OpenAI, anunció el lanzamiento de GPT-4o, un nuevo modelo que puede razonar por medio de audio, visión y texto con respuesta en tiempo real. En un comunicado, la compañía explicó que el modelo acepta entradas con cualquier combinación de textos, audios e imágenes, generando resultados compuestos en tan solo 232 milisegundos, lo que se asemeja a la respuesta promedio del ser humano.
This demo is insane.
— Mckay Wrigley (@mckaywrigley) May 13, 2024
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright. pic.twitter.com/t14M4fDjwV
Esta modificación “iguala el rendimiento de GPT-4 Turbo en texto en inglés y código, con una mejora significativa en otros idiomas, a la vez que es mucho más rápido y un 50 % más económico en la API”, destacó OpenAI.
El nuevo modelo posee una mejor calidad en los procesos de visión y audio en comparación con los modelos ya existentes, debido a que procesa todas las entradas y salidas por la misma “red neuronal”, lo que permite combinar eficientemente las modalidades aplicadas.
“Según las mediciones de los puntos de referencia tradicionales, GPT-4o logra un rendimiento de nivel GPT-4 Turbo en texto, razonamiento e inteligencia de codificación, al tiempo que establece nuevos récords en capacidades multilingües, de audio y de visión”, afirmó la compañía. GPT-4o también modificó su sistema de seguridad con un diseño que incluye técnicas para filtrar datos y refinar el comportamiento de la inteligencia. Además, proporciona nuevas barreras de seguridad en las salidas de voz.
“Nuestras evaluaciones de ciberseguridad, QBRN, persuasión y autonomía del modelo muestran que GPT-4o no obtiene una puntuación superior al riesgo medio en ninguna de estas categorías. Esta evaluación implicó ejecutar un conjunto de evaluaciones humanas y automatizadas durante todo el proceso de capacitación del modelo”, compartió OpenAI.
Asimismo, la compañía expuso que las pruebas de versiones anteriores y la atención a eventos de seguridad en el nuevo método se evitarán fácilmente. Este sistema también evitará respuestas que afecten la psicología social, manifiesten prejuicios y asegurarán que sean equitativas y precisas. OpenAI anunció que en las próximas semanas, el equipo técnico encargado de este proyecto trabajará en la infraestructura técnica y usabilidad de la inteligencia para actualizarla y proporcionar nuevos avances novedo