Inteligencia artificial

3 soluciones del creador de ChatGPT para que la inteligencia artificial no se vuelva contra los humanos

Sam Altman, CEO de OpenAI, en el Congreso de EEUU.
Patrick Semansky

Sam Altman, director ejecutivo y cofundador de OpenAI —la compañía que ha desarrollado el programa de generación de texto ChatGPT— ha estado bastante ocupado últimamente. Tras una visita a la Casa Blanca hace unos días, ahora el empresario se ha sentado delante del Congreso de Estados Unidos. ¿Para qué? Pide que se regule el desarrollo y los usos de la inteligencia artificial (IA).

Como implicado en el sector, Altman es muy conocedor de los potenciales beneficios de la IA. Por ello hizo un listado de las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática. En buenas manos, la inteligencia artificial puede ser utilizada como algo positivo para la humanidad.

Sin embargo, al creador de ChatGPT le preocupan y mucho los más que probables riesgos de una tecnología tan potente como esta, por ello cree que es necesaria la intervención de los gobiernos del mundo, para asegurar que estas herramientas se desarrollan de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

Estas son algunas de las frases más relevantes del discurso de Altman:

  • “Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos”.
  • “Mi mayor miedo es que causemos un daño significativo al mundo”.
  • “Si esta tecnología va mal, puede ir bastante mal”.

La principal preocupación de Altman:

El empresario mostró su malestar ante un escenario en el que, por ejemplo, las elecciones del año que viene de EE. UU. sean alteradas con la IA, inundando las redes sociales y los medios de comunicación con contenido falso. Hablaba tanto de texto, como podrían ser noticias, como de imágenes, como un deepfake de vídeo de una campaña electoral —algo que ya ha sucedido—.

Altman opina que este tipo de riesgos ocurrirán, sobre todo, mientras la sociedad no es totalmente consciente de lo que se puede hacer. Puso el ejemplo de cómo nos hemos acostumbrado a que las fotos se puedan editar con Photoshop.

Los miembros del congreso están de acuerdo con ese riesgo, aunque tienen sus propias preocupaciones, entre ellas lo que tiene que ver con la pérdida de puestos de trabajo. Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que, a la larga, la tecnología generará más empleos nuevos de los que destruirá.

Una tecnología como GPT-4, dijo, “automatizaría por completo algunos trabajos”, pero puede crear otros nuevos que “serán mucho mejores”.

El plan de Altman en 3 puntos:

  1. Crear una nueva agencia gubernamental encargada de conceder licencias a los grandes modelos de IA y facultarla para revocar esas licencias a las empresas cuyos modelos no cumplan las normas gubernamentales. Esto es básicamente lo que ha dicho Europa que va a hacer.
  2. Crear un conjunto de normas de seguridad para los modelos de IA, que incluya evaluaciones de sus riesgos. Habría pruebas para ver si los modelos pueden auto-replicarse y volverse rebeldes. Ya hemos visto algún ejemplo de 'ChatGPT malvado'.
  3. Exigir auditorías, realizadas por expertos independientes, sobre el rendimiento de los modelos en función de diversas métricas.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

loading...