Tecnología

Descubren que la inteligencia artificial es capaz de engañarte creando caras humanas... pero tiene un punto débil

Representación gráfica de la inteligencia artificial.
PIXABAY

La inteligencia artificial (IA) puede crear rostros que parecen más 'reales' para las personas que las fotografías de rostros humanos reales, según ha descubierto un estudio publicado por la revista Sage.

Este es un fenómeno que la autora principal del estudio, Amy Dawel, psicóloga clínica y profesora de la Universidad Nacional de Australia, llamó 'hiperrealismo', tal y como recoge Science Alert.

Se trata de objetos generados artificialmente que los humanos perciben como más 'reales' que sus homólogos del mundo real. Esto es particularmente preocupante a la luz del aumento de los deepfakes: material generado artificialmente diseñado para hacerse pasar por personas reales.

Pero hay un problema: la IA alcanza el hiperrealismo sólo cuando genera caras de raza blanca; las caras de personas de color generadas por IA todavía caen en el llamado 'valle inquietante'. 

Esto podría tener implicaciones no sólo para cómo se construyen estas herramientas, sino también para cómo se percibe a las personas de color en internet, dijo Dawel.

Dawel se inspiró en una investigación publicada en la revista PNAS en febrero de 2022. Los autores Sophie Nightingale, profesora de psicología en la Universidad de Lancaster en el Reino Unido, y Hany Farid, profesora de ingeniería eléctrica y ciencias informáticas en la Universidad de California, Berkeley, encontraron que los participantes no podían distinguir entre rostros humanos y generados por IA. 

Pero Dawel quería ir un paso más allá para evaluar si podría haber un elemento racial en la forma en que la gente percibe los rostros de la IA.

100 rostros blancos

En el nuevo estudio, a los participantes, todos blancos, se les mostraron 100 rostros, algunos de los cuales eran rostros humanos y otros se generaron utilizando la herramienta de generación de imágenes StyleGAN2. Después de decidir si una cara era de IA o humana, los participantes calificaron su confianza en su elección en una escala de cero a 100.

"Nos sorprendió tanto descubrir que algunas caras de IA se percibían como hiperrealistas que nuestro siguiente paso fue intentar replicar nuestro hallazgo al volver a analizar los datos de Nightingale y Farid en una nueva muestra de participantes", dijo Dawel.

La razón es simple: los algoritmos de inteligencia artificial, incluido StyleGAN2, se entrenan de manera desproporcionada en caras blancas, dijo. Este sesgo de entrenamiento llevó a caras blancas que eran 'extrarreales', como dijo Dawel.

Otro ejemplo de prejuicio racial en los sistemas de inteligencia artificial es el uso de herramientas para convertir fotografías normales en retratos profesionales, dijo Dawel.

Para las personas de color, la IA altera el tono de la piel y el color de los ojos. Las imágenes generadas por IA también se utilizan cada vez más en áreas como el marketing y la publicidad, o en la realización de ilustraciones.

El uso de la IA, si se construye con prejuicios, puede reforzar los prejuicios raciales en los medios que consume la gente, lo que tendrá profundas consecuencias a nivel social, dijo Frank Buytendijk, jefe de investigación de Gartner Futures Lab y experto en IA.

"Los adolescentes ya sienten la presión de sus compañeros de tener que parecerse al ideal establecido por ellos", dijo. "En este caso, si queremos que el algoritmo recoja y acepte nuestras caras, debemos parecernos a lo que genera la máquina", añade.

Pero hay otro hallazgo que preocupa a Dawel y que podría exacerbar aún más los problemas sociales. Las personas que cometieron más errores (identificar rostros generados por IA como reales) también fueron las que más confiaron en sus elecciones. En otras palabras, las personas que más se dejan engañar por la IA son las que menos se dan cuenta de que están siendo engañadas.

Dawel sostiene que su investigación muestra que la IA generativa debe desarrollarse de manera transparente para el público y que debe ser supervisada por organismos independientes.

"En este caso, tuvimos acceso a las imágenes en las que se entrenó el algoritmo de IA, por lo que pudimos identificar el sesgo blanco en los datos de entrenamiento", dijo Dawel.

"Sin embargo, gran parte de la nueva IA no es tan transparente, y la inversión en la industria de la IA es enorme, mientras que la financiación para que la ciencia la monitoree es minúscula, difícil de conseguir y lenta", agrega.

Mitigar los riesgos será difícil, pero las nuevas tecnologías normalmente siguen un camino similar, en el que las implicaciones de la nueva tecnología se reconocen gradualmente y las regulaciones lentamente entran en vigor para abordarlas, lo que luego alimenta el desarrollo de la tecnología, dijo Buytendijk.

Este proceso no es lo suficientemente rápido para Dawel, porque la IA se está desarrollando rápidamente y ya está teniendo un gran impacto. Como resultado, "la investigación sobre la IA requiere importantes recursos", afirmó. "Si bien los gobiernos pueden contribuir a esto, creo que se debería exigir a las empresas que crean IA que dediquen parte de sus ganancias a la investigación independiente. Si realmente queremos que la IA beneficie en lugar de dañar a nuestra próxima generación, ahora es el momento de esta acción", concluye.

20minutos.es líder en los diarios más leídos en internet. Consulta las últimas noticias en el diario gratuito de referencia en España.

loading...