Inteligencia artificial

Denuncian que ChatGPT podría estar filtrando conversaciones privadas de usuarios

OpenAI asegura que los datos son de otro usuario que está usando la cuenta Chase Whiteside.
Growtika de Unsplash

Un usuario de ChatGPT, Chase Whiteside, descubrió que se había filtrado información sobre los trabajadores de una farmacia. Desde OpenAI, le explicaron que podría deberse a que su perfil se había visto comprometido y que estaba usándose desde Sri Lanka cuando él vive en Brooklyn (Nueva York).

Ante esta situación, Whiteside cambió de contraseña, pero duda de que la cuenta estuviese comprometida. Según el internauta, usa una clave de nueve caracteres, con mayúsculas, minúsculas y símbolos especiales.

Tal y como se ve en las capturas de pantallas que compartió con Ars Technica, el modelo compartía datos privados de otras personas. Las imágenes compartidas invitan a pensar que el chatbot con inteligencia artificial (IA) "está filtrando conversaciones privadas que incluyen credenciales de inicio de sesión y otros datos personales de usuarios no relacionados", según el medio de comunicación.

La versión de OpenAI ante la filtración de datos

El afectado asegura que solo inicia sesión desde su cuenta de Microsoft, pero comprobó algunos resultados en su historial de chat del lunes por la mañana, cuando no estaba usando el servicio. 

Un representante de la firma tecnológica detalló que el problema del usuario que había denunciado que su cuenta estaba usándose a miles de kilómetros de EEUU, en Sri Lanka, y que se debía a "una apropiación de cuenta". 

Sea o no verdad la versión de OpenAI, la situación ha despertado quejas contra ChatGPT. En concreto, los internautas explican que la empresa no proporciona ningún mecanismo de autentificación en dos factores o que rastreen detalles como la ubicación IP de los inicios de sesión actuales y recientes.

La información filtrada de ChatGPT

Las capturas de pantalla enviadas a Ars Technica muestran que la herramienta de IA de OpenAI está difundiendo datos privados, como "nombres de usuario y contraseñas que parecían estar conectados a un sistema de soporte utilizado por empleados de un portal de medicamentos de una farmacia". Además de dicha información, también se filtró el nombre de la app de los trabajadores y el número de la tienda afectada.

El usuario comprobó que había datos como el nombre de usuario y contraseñas de unos empleados ajenos a él en el historial de chat de su cuenta.
Chase Whiteside vía Ars Technica

Whiteside explica que los resultados los vio cuando se disponía a realizar una consulta no relacionada con los datos compartidos. En concreto, el usuario pidió a la IA que le ayudase a encontrar nombres para los colores de una paleta y, cuando volvió a acceder minutos después, encontró "conversaciones adicionales" con información filtrada de una empresa.

"No estaban allí cuando usé ChatGPT anoche –comentaba para Ars Technica el lunes-. No se realizaron consultas; simplemente aparecieron en mi historial y no son mías". Asimismo, el individuo aclara que tampoco cree que sean de un usuario externo que ha accedido a su cuenta desde Sri Lanka.

ChatGPT filtró detalles de una investigación en la que un usuario le pedía que le ayudase con la presentación.
Chase Whiteside vía Ars Technica

Las contraseñas y nombres filtrados no son lo único preocupante. También se ha filtrado el título de una presentación en la que alguien estaba trabajando, detalles de una propuesta de investigación inédita, un script en el lenguaje de programación PHP y un portal de recetas que se incluyó en 2020.

Los distintos datos no parecen estar relacionados entre sí, por lo que Whiteside cree que la conversación filtrada expone información de más de un usuario.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

loading...