ChatGPT, Open AI, Microsoft, Google, Elon Musk... todo sobre la gran batalla por el liderazgo en la Inteligencia Artificial

La introducción de ChatGPT en las aulas.
La introducción de ChatGPT en las aulas.
Carlos Gámez
La introducción de ChatGPT en las aulas.

ChatGPT basado en GPT-3.5, elaborado por OpenAI, acapara todas las portadas y todo el protagonismo de la Inteligencia Artificial en las últimas semanas. 

Enrique Serrano (AMETIC)

Enrique Serrano

  • Presidente de la Comision de IA de Ametic. CEO de tinamica. Presidente MBIT School. Miembro Comité Ejecutivo de GAIA-X

El algoritmo, que permite responder en modo conversacional a cualquier pregunta con respuestas acordes con la lógica de los datos e idiomas con los que se ha entrenado, provoca furor y sorprende por la frescura y espontaneidad de sus respuestas. OpenAI es una fundación originada por Elon Musk y ahora muy apoyada por Microsoft, entre otros, que promueve la investigación y desarrollo de redes neuronales de última generación con alto impacto en la sociedad. Aunque OpenIA es sin ánimo de lucro, es obvio que todos los que participan vislumbran unas enormes posibilidades de negocio.

Sus derivaciones con Dall E2 llevan a plantear imágenes realistas a partir de descripciones en texto lo cual permite idear cualquier tipo de imagen o, por ejemplo, completar imágenes de las que sólo tenemos una parcialidad, en el caso de pinturas o cuadros.

El servicio de Microsoft, Azure OpenAI incluye ChatGPT.
El servicio de Microsoft, Azure OpenAI incluye ChatGPT.
MICROSOFT

La potencia de ChatGPT es tal que puede llevar a mover el liderazgo del motor de búsqueda e indexación de Google en muy poco tiempo aunque los inicios, tecnología y arquitectura son parecidos.

Pero es bueno saber que detrás de todo esto hay varios elementos que inciden en esta RE-EVOLUTION.

Algoritmos auto supervisados tipo BERT

Primero de todo, el surgimiento de algoritmos auto supervisados tipo BERT (bidirectional encoder representations from transformers) que surgen de Google en 2018 para interpretar mejor nuestras búsquedas y superar el 85% de respuesta a las consultas realizadas. Recordemos que Google lleva indexando la web desde hace más de dos décadas, y de esto sabe un poco. La idea de Google con BERT es que interprete contextos, no solo palabras de búsqueda, para así afinar más. Hay que tener en cuenta que cada día se hacen un 15% de búsquedas nuevas, que nunca se habían visto.

Desde que BERT nace en Google AI Research provoca una mejora en casi dos decenas de problemas que surgían con el procesamiento de lenguaje natural. El secreto de BERT viene del principio acuñado en los 60 por Rupert Firth, quien decía que se puede conocer el significado de una palabra solo por las que tiene alrededor. En su entrenamiento, la paternidad de Google hace que el algoritmo salga potenciado por el increíble entrenamiento de todo su patrimonio lingüístico, lo que le hace poderoso e imbatible. 

La IA de Google puede crear soluciones a problemas de programación casi igual que un experto humano.
La IA de Google puede crear soluciones a problemas de programación casi igual que un experto humano.
Geralt de Pixabay

Usa “Transformers”, que es un modelo de red neuronal que data de 2017 y que supera a las redes neuronales recurrentes que presentaban problemas con el texto y el lenguaje, sobre todo con párrafos largos. Los Transformers miden los pesos de cada palabra dentro de cada oración y de su relación, por lo que llega un momento que es capaz de predecir la siguiente palabra. Estos sí pueden entrenarse con párrafos largos y son ideales para traducciones. GPT-3.5 por ejemplo se entrenó con 45 TB de texto de toda la web, lo cual le da una gran potencia.

En definitiva, BERT es el modelo más “popular” de todos los Transformers y constituye un modelo entrenado en sí mismo por investigadores de Google con un corpus de texto masivo. Pero, a raíz de BERT han surgido derivaciones como RoBERTa que es usado por Facebook, DistilBERT o XLNet, que mejoran rendimiento y capacidad de cómputo y usan diferentes entrenamientos. En realidad, todos ellos resuelven las mismas tareas:

- Resumen de textos.

- Respuestas a preguntas.

- Clasificación y resolución de entidades con nombre.

- Búsqueda de textos similares.

- Detección de fakes o mensajes malignos.

- Entendimiento conversacional con el usuario.

OpenAI ha creado un detector de textos artificiales para que los profesores sepan si sus alumnos han usado el ChatGPT en trabajos.
OpenAI ha creado un detector de textos artificiales para que los profesores sepan si sus alumnos han usado el ChatGPT en trabajos.
Gerd Altmann vía Pixabay / OpenAI / Montaje: 20BITS

El segundo punto importante es que BERT y toda esta familia de Transformers bidireccionales son de código abierto, lo cual significa que cualquiera puede partir del mismo, mejorarlo y compartirlo. Esta inteligencia colectiva hace que este algoritmo enseguida evolucione rápidamente y mute a la velocidad de virus, por lo que cada 6, 9 o 12 meses salen versiones diferentes que logran saltos rupturistas. Ahora ya vamos a por GPT-4.

El modelo GPT-3.5 creado por OpenAI ha conseguido popularizarse por su fácil acceso, totalmente libre, y por su conversación tan realista, pero también hay que considerar que Google Research ya lanzó Meena en 2022, también basado en Transformers, que mantiene un diálogo muy convincente sobre cualquier tema. La diferencia estriba en su acceso y popularización a través de TensorFlowHub, quizá menos amigable para el público, o en la biblioteca de HuggingFace, mucho más atractiva, y si tienes conocimientos de programación Python, se aprovecha más y es capaz de adaptarse a cualquier necesidad concreta, como crear y vender producto.

En la base, la arquitectura técnica de funcionamiento siempre es la misma, solo que OpenAI, ha evolucionado el modelo de forma exponencial desde la aparición de la primera versión de GPT-1. Ahora con la próxima de GPT-4 afina y resuelve muchos de los problemas detectados con ChatGPT (GPT-3.5).

Mejoraen precisión, mayor potencia en la generación de textos y respuestas a preguntas muy difíciles. En realidad, se pareceenormemente al comportamiento humano en cuanto al tipo de respuesta, de tal forma que habrá un 65% de usuarios que no distinguirán quien hay detrás. Para hacernos una idea de cada salto rupturista, GPT-4 será 600 veces más potente que su predecesor GPT-3.5, que es la base de ChatGPT. Le quedan pocos meses para salir a la luz, pero casi seguro será antes que acabe 2023.

Por otro lado, la base de Transformer también se usa para componer música, generar imágenes a partir de texto, texto a partir de imágenes…. por lo que sus posibilidades, combinadas, son inmensas. Desde un punto de vista de negocio, imaginación al poder. Las posibilidades de generar productos con esta base que resuelvan problemas de empresas y ciudadanos son inmensas.

En definitiva, para los que de alguna manera nos dedicamos a la IA desde hace más de una década, lo que ocurre ahora era previsible, dado que los sistemas conversacionales ya existen desde hace tiempo y su evolución y mejora es continua. Casi cada año se producen avances significativos o disrupciones que, en algunos casos, cambian el estado del arte.

Los clientes de Apple solo tendrán que decir 'Siri' en lugar de 'Oye Siri' para activar el asistente de voz.
Los clientes de Apple solo tendrán que decir 'Siri' en lugar de 'Oye Siri' para activar el asistente de voz.
Miguel Tomás vía Unsplash

Si repasamos un poco la historia , los primeros asistentes fueron SIRI, que se introdujo en iPhone4S en 2011, basado en algoritmos de aprendizaje autosupervisado yredes neuronales de procesamiento de lenguaje natural (PLN) que se van afinando con cada interacción con el usuario y que llegan a conseguir umbrales altos de entendimiento. Después llegó Alexa en el 2014, basado en tecnología de SAS Institute, por la que Amazon apostó fuertemente, a lo que se sumaron otros muchos como Cortana, de Microsoft, en 2014, y Google Home en 2016, pero fue en junio del 2019 cuando con los Transformers se superó lo que estáconsiderado como barrera de entendimiento humano del lenguaje y que está en el 87%, según diferentes benchmark como SuperGLUE.

Los usuarios españoles ya pueden cambiar la voz femenina de Alexa a una masculina.
Los usuarios españoles ya pueden cambiar la voz femenina de Alexa a una masculina.
Brandon Romanchuk vía Unsplash

Esto significa que en una conversación entre humanos de tipo medio se pierde el 13% de la información o entendimiento de esta por diferentes motivos, barreras ambientales, culturales, educativas…. Si el algoritmo supera ese porcentaje significa que entiende mejor que el humano, es decir, que en una conversación pierde menos palabras, información o conocimiento.

En el momento en el que se supera este umbral la cosa se pone seria y comienza una carrera para lograr conseguir el máximo entendimiento para una interacción 100% con el humano, en incluso entre los propios asistentes de voz.

En definitiva, automatizar un perfecto entendimiento del lenguaje hace que no notemos quién está detrás abre una puerta enorme en numerosos campos que pueden ayudar a mejorar el mensaje, adaptarlo al receptor, lograr mayores objetivos de persuasión, y todo ello sin necesidad de preparación, porque se puede realizar al mismo tiempo que se habla, en tiempo real.

Por ejemplo, podemos asegurar que un call center especializado podría automatizar totalmente su actividad a través de un algoritmo, cuyo desempeño sería idéntico al trabajador mejor preparado. Eso sí, siempre actuará de acuerdo con el entrenamiento realizado y con la información y datos proporcionados. A partir de aquí, pensemos en la desaparición de botones o palancas, dado que todo lo accionaremos por voz, desde la conducción hasta las maniobras en una refinería. Si, además, se combina con gemelos digitales, todo se podrá realizar desde el sofá sentados con unas gafas tipo Oculus.

En resumen, podríamos hablar de múltiples ejemplos de un uso benigno de estas tecnologías, de gran ayuda al desarrollo de la humanidad porque nos hacen la vida más cómoda. Pero en el lado oscuro también son muy eficaces. Da para un siguiente capítulo.

Mostrar comentarios

Códigos Descuento