Home » GPT-4o: Nuevo modelo anunciado por OpenAI

GPT-4o: Nuevo modelo anunciado por OpenAI

by admin
GPT-4o: Nuevo modelo anunciado por OpenAI

Han llegado más funciones para la solución de IA generativa OpenAI de San Francisco. La actualización, conocida como GPT-4o, ahora puede procesar todas las combinaciones de texto, audio e imagen como entrada, y puede generar cualquier combinación de ellos. Se espera que GPT-4o esté disponible para los usuarios de forma gratuita.

Oh, menta omni

OpenAI anunció el 13 de mayo que ChatGPT alcanzó un nuevo nivel con la versión GPT-4o (la o significa omni). Además de la actualización del modelo, también se lanza una aplicación de escritorio cuyo objetivo es mejorar la experiencia del usuario para según su información emitida sobre el tema.

El objetivo de los desarrollos es crear una relación más natural entre los usuarios y la inteligencia artificial generativa. La mayor innovación a este respecto es que la información de texto, imágenes y sonido es procesada por la misma red neuronal. Por ejemplo, puede responder a entradas de voz en un promedio de 320 milisegundos, lo que es similar al tiempo de respuesta humana durante una conversación.

La nueva versión también muestra una mejora significativa en los textos que no están en inglés. Entre estos últimos, OpenAI no nombró específicamente el idioma húngaro en su sitio web, pero sí varios otros idiomas europeos.

Un modelo más disponible

Las funciones del GPT-4o se irán activando paulatinamente tras el anuncio, aún no están disponibles, pero se espera que lleguen próximamente. GPT-4o también estará disponible para usuarios gratuitos, aunque no está del todo claro en qué forma exactamente.

En las próximas semanas, se introducirá en ChatGPT Plus una nueva versión de reconocimiento de voz basada en GPT-4o. Para los usuarios Plus, el nivel de restricción de mensajes también se eleva cinco veces más que lo que ofrece OpenAI.

Los desarrolladores también podrán acceder a GPT-4o en la API como modelo de texto y visión artificial. El GPT-4o será dos veces más rápido y costará la mitad que el GPT-4 Turbo.

Nuevas áreas de uso

Facilitar interacciones más naturales abre muchas áreas nuevas de uso al integrar información de texto, sonido e imagen. OpenAI ha compartido varios vídeos y ejemplos. Sus colegas utilizaron el GPT-4o, entre otras cosas, para traducir en vivo, resolver ejemplos matemáticos, aprender idiomas, prepararse para entrevistas de trabajo, describir el entorno (por ejemplo, para personas ciegas) y resumir vídeos.

(Fuente: Abierto AI)

window.dataLayer = window.dataLayer || [];
function gtag()
gtag(‘js’, new Date());

gtag(‘config’, ‘UA-110049003-1’);

!function(f,b,e,v,n,t,s) n.callMethod.apply(n,argumentos):n.queue.push(argumentos)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.cola=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(ventana,documento,’script’, ‘ fbq(‘init’, ‘179055442707086’); fbq(‘track’, ‘PageView’);

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy