Llega GPT-4o, la Inteligencia Artificial más avanzada que todos podremos usar gratis

ChatGPT personalizados

Hace unas horas tuvo lugar la nueva Spring Update de OpenAI, una conferencia en la que su director, Sam Altman, aprovechó para presentar lo que será el futuro de su Inteligencia Artificial. Además de aprovechar para sacar pecho frente sobre la potencia de su Inteligencia Artificial frente a sus rivales, Altman también sorprendió a toda la comunidad con el que, probablemente, sea el anuncio más importante hasta la fecha: la presentación de GPT-4o.

Aunque es cierto que muchos esperábamos ver la llegada de GPT-5, e incluso el nuevo buscador web basadao en IA con el que plantará cara a Google, este modelo de lenguaje y los demás proyectos aún tendrán que esperar. Mientras tanto, vamos a poder entretenernos con este nuevo modelo de lenguaje, el más potente visto hasta la fecha.

Imagen usuario de twitter
Sam Altman
@sama
it is available to all ChatGPT users, including on the free plan! so far, GPT-4 class models have only been available to people who pay a monthly subscription. this is important to our mission; we want to put great AI tools in the hands of everyone.
14 de mayo, 2024 • 11:02

2K

94

«Es inteligente, es rápido, es nativamente multimodal», así presentaba el CEO de OpenAI a su nuevo modelo de Inteligencia Artificial: GPT-4o. Tal como asegura el director de la empresa, esta nueva IA se caracteriza por ser el doble de rápida que la actual GPT-4 Turbo, además de tener 5 veces su límite de tasa. Además, mientras que el actual GPT-4 está limitado solo a los usuarios que pagan la suscripción de ChatGPT, el nuevo GPT-4o estará disponible para todos los usuarios, incluso para los que utilicen el plan gratuito. Pero eso no es todo, sino que, además, los usuarios que usen esta IA desde la API podrán usar este modelo de lenguaje por la mitad de precio.

La gran novedad de GPT-4o

La -o- de este nuevo algoritmo quiere decir «omni», o «omnicanalidad», una característica que hasta ahora no podemos encontrar en casi ninguna de las IAs del mercado que permite integrar múltiples entradas y salidas al mismo tiempo con unos tiempos de respuesta similares a los del ser humano.

Esta nueva IA es capaz de trabajar al mismo tiempo con texto, imágenes y voz, e interconectar toda la fuente de información para generar una respuesta en el formato que quiera el usuario. Es decir, podemos estar hablando con la IA normalmente, y pasarle de pronto una imagen. Esta imagen se va a procesar, y la IA será capaz de comprenderla y devolvernos información sobre ella y sobre su contenido.

Imagen usuario de twitter
Sam Altman
@sama
real-time voice and video feels so natural; it’s hard to get across by just tweeting. we will roll it out in the coming weeks.
14 de mayo, 2024 • 11:02

1.9K

30

Pero esto no se limita a las fotos y a los vídeos. GPT-4o es capaz de procesar en tiempo real voz y vídeo, e interactuar con los usuarios de una forma muy natural, como si lo hiciésemos con un ser humano. Este algoritmo, además de mejorar la comprensión del inglés y del código fuente, también se centra en mejorar otros idiomas, e incluso permite la traducción en tiempo real entre diferentes idiomas usando la voz.

Y, como última curiosidad, es capaz de analizar ciertos matices de la voz para poder averiguar el estado emocional de la persona. Un importante avance en esto de la IA que, sin duda, va a dar mucho de qué hablar.

Cómo usar la nueva IA de ChatGPT

Tal como prometió Sam Altman, GPT-4o ya está disponible en ChatGPT. Para usarlo, no tenemos más que entrar en la página del chat, iniciar una nueva conversación y podremos elegir este nuevo algoritmo. Eso sí, debemos tener en cuenta que esta nueva IA está llegando poco a poco a los usuarios, por lo que, si vemos que no nos aparece la opción de elegirlo, tendremos que esperar un poco más.

Quienes sí pueden usarlo ya mismo sin problemas son los usuarios que se conectan a ChatGPT a través de la API. Y, además, las peticiones costarán la mitad de lo que cuestan las actuales de GPT-4 Turbo.

Comparte lo que descubriste en Pongara News