Cuidado con dar datos personales a ChatGPT: expertos advierten de que es "perder el control sobre ellos"

La información que se introduce en ChatGPT puede ser reutiliza para entrenar a las respuestas, pero es importante mencionar que se pierde cierto control sobre ellos.
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.
Mojahid Mottakin de Unsplash
El entrenamiento y el uso de modelos de lenguaje grande consumen demasiada agua y energía, más de la que crees.

Las herramientas de inteligencia artificial (IA) generativa permiten a los usuarios chatear con bots, escribir poemas, redactar cartas, resumir textos, traducir idiomas, crear imágenes, retocar fotografías o componer canciones, entre otras múltiples funciones. Pero, ¿qué hacen exactamente ChatGPT, Bard, Bing Chat, DALL-E o Midjourney con los datos personales que necesitan de los usuarios para funcionar correctamente?

Por si no lo sabías, dichas herramientas requieren ciertos datos, pero si nos centramos en el chatbot de OpenAI, GPT-3 es un modelo de lenguaje que se ha entrenado con una gran cantidad de información de Internet, incluidas las páginas webs personales y los contenidos de redes sociales.

En su momento, esto generó bastante preocupación por la posibilidad de que GPT-3 pudiese utilizar la información personal sin el permiso de los usuarios, además, una de las principales preocupaciones existentes es que no saben con exactitud qué información se ha utilizado para entrenar a los modelos de aprendizaje automático. 

Sadia Afroz, investigadora de inteligencia artificial de Avast, afirmó en la publicación 'ChatGPT y los datos' del blog de la compañía que "la gente está furiosa porque los datos se utilizan sin su permiso. Hay personas que han borrado sus datos, pero, como el modelo de lenguaje ya los ha utilizado, se quedan ahí para siempre".

Ante esta afirmación, los expertos de la compañía de ciberseguridad Secure&IT advierten en un comunicado que la información y los datos personales pueden ser reutilizados para entrenar a las herramientas con IA como ChatGPT, por lo tanto, esto supone que se pierde cierto control sobre ellos y que existen ciertas consecuencias que afectan a la privacidad.

La información personal se queda registrada en las bases de datos de ChatGPT

Secure&IT explica que los chabots utilizan toda la información que los usuarios introducen, asimismo, es importante mencionar que se queda registrada en las bases de datos para ser reutilizada -por lo tanto, se ha de pensar detenidamente en qué información se está compartiendo con ChatGPT para no perder el control-.

Por otro lado, los expertos recomiendan no introducir ciertos datos que puedan conducir a la identificación, asimismo, otros de los factores a tener en cuenta a la hora de utilizar herramientas de IA son los distintos tipos de sesgos que pueden esconder las respuestas -por ejemplo, el sesgo de retroalimentación, que es aquel que se produce cuando, al utilizar la retroalimentación de los usuarios para entrenarse, los sistemas de IA perpetúan los perjuicios y estereotipos existentes-.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento