OpenAI y Meta presentan sus nuevos modelos de IA: qué novedades incorporan GPT-4 Turbo y Llama 3

Meta anuncia el lanzamiento de su próximo modelo de lenguaje de código abierto basado en inteligencia artificial Llama 3. Mientras tanto, OpenAI lanza su modelo mejorado GPT-4 Turbo con Vision, que ya está disponible para los desarrolladores.
Imagen representativa de Meta y OpenAI.
Imagen representativa de Meta y OpenAI.
DALL-E via Bing Image Creator
Imagen representativa de Meta y OpenAI.

OpenAI y Meta son dos grandes empresas tecnológicas que quieren ampliar sus herramientas de inteligencia artificial (IA) para ofrecer las mejores funciones a los usuarios y, por ello, oficializan sus próximos modelos de IA y las novedades qué traerán cada uno de ellos.

En primer lugar, Meta anuncia el lanzamiento de su próximo modelo de lenguaje de código abierto basado en inteligencia artificial Llama 3, que llegará el próximo mes y que impulsará diferentes asistentes de IA generativa en todo el ecosistema de la compañía. Y, en segundo lugar, OpenAI lanza su modelo mejorado GPT-4 Turbo con Vision, que ya está disponible para los desarrolladores a través de la interfaz de programación de aplicaciones (API, por sus siglas en inglés) y que permite analizar imágenes y responder preguntas sobre ellas.

El modelo Llama 3 de Meta se lanzará en mayo

Dentro del marco del evento Meta AI Day, la compañía liderada por Mark Zuckeberg quiere implementar un conjunto de modelos básicos de nueva generación que constará de diferentes capacidades y versiones, teniendo en cuenta que se irán lanzando a lo largo de este año.

Por otro lado, con Llama 3, Meta espera abordar las limitaciones del modelo anterior, a la vez que irá introduciendo nuevas funcionalidades. Además, este modelo superará los 140.000 millones de parámetros, por lo tanto, mejorará sus capacidades de razonamiento para proporcionar respuestas más precisas.

GPT-4 Turbo de OpenAI ya está disponible

El modelo de IA GPT-4 Turbo incluye una ventana de contexto mejorada, pasando de los 32K de GPT-4 a 128k, lo equivalente a más de 300 páginas de texto en un solo mensaje. Asimismo, en la red social X (antes Twitter), OpenAI anuncia que GPT-4 Turbo ya está disponible para los desarrolladores a través de la API con las capacidades de Vision.

Concretamente, GPT-4 Turbo con Vision es un modelo multimodal grande (LMM, por sus siglas en inglés) que puede analizar imágenes, responder a preguntas generales sobre lo que está presente en las fotografías, ofrecer ideas e incluso comprender qué elementos aparecen en la foto para ofrecer información sobre ello.

Asimismo, los desarrolladores pueden disponer de un flujo de trabajo mejorado, así como crear aplicaciones con el modelo de forma más eficiente.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento