"Lo que está pasando a nuestro alrededor es real e irreal a la vez": cosas del día a día que nos costará distinguir si tienen detrás a una IA

IA
IA
©[geralt] via Pixabay.com.
IA

"Lo que está pasando a nuestro alrededor es real e irreal a la vez". Esta es una frase que el escritor chileno Benjamín Labatut escribe en una de sus últimas obras, haciendo alusión a cómo la tecnología nos hace dudar de lo humano y lo artificial. Con ChatGPT, hemos llegado a conocer casos de estudiantes que completaban sus trabajos académicos, y hay otras inteligencias artificiales que recrean actividades humanas casi del mismo modo.

Un usuario que se hace llamar '1030' en redes sociales compartió hace ya más de un mes un vídeo en el que se veía a una persona mirando fijamente al objetivo de la cámara, incluso cuando no lo hacía. Esto lo había logrado con una tecnología de aprendizaje automático de NVIDIA denominada 'Eye Contact' que, pese a no ser perfecta, invitaba a imaginarse un futuro en el que sí lo fuese y que dificultase a personas al otro lado de la pantalla saber si estaban teniendo contacto visual en una videollamada o no. 

A medida que el avance en IA mejora y complica adivinar cuándo algo está hecho por una máquina y cuando por un humano, también se sugieren formas de no caer en la trampa. Estos métodos pueden ser muy útiles para profesores que quieran evitar que sus alumnos cometan fraude digital, pero, además, para no ser víctimas de ciberdelitos que usen esta tecnología.

Las deepfakes

El término deepfake proviene del inglés y está formado por las palabras fake (falsificación) y deep [learning] (aprendizaje profundo). El concepto se usa para referirse a vídeos, imágenes o audios retocados tecnológicamente para distintos fines, que pueden ir desde un anuncio de Cruzcampo como ocurre con Lola Flores hasta una videollamada en la que no quieras que se note que estás mirando a otro lado.

Los ejemplos mencionados no son malos usos del deepfake, pero su utilización puede desembocar en prácticas delictivas. Marc Rivero, Senior Security Researches de Kaspersky, explicó para 20BITS el año pasado algunos estafadores recurrían a este tipo de tecnología para trucar su voz o su rostro para engañar a sus víctimas, suplantando la identidad, generando fake news o para extorsionar con falsos vídeos o imágenes sexualmente explícitas. 

El parpadeo, el color, el cuello o la calidad del audio pueden delatar una deepfake de algo real.
El parpadeo, el color, el cuello o la calidad del audio pueden delatar una deepfake frente a una imagen o voz real.
Pixabay

Para detectar una deepfake, Rivero contó que los usuarios debían fijarse en los parpadeos: "Las personas parpadeamos en una frecuencia concreta, dentro de unos intervalos". También señalaba que las deepfakes no mostraban un movimiento de la nuez y que tenían problemas con los colores, la calidad del vídeo y de la voz.

Por otro lado, hay empresas como Intel Corporation que están desarrollando detectores. En el caso de la marca comentada, anunció hace unos meses 'FakeCatcher', que permitía detectar vídeos e imágenes falsas en tiempo real, con una precisión del 96%, analizando el flujo de sangre en los píxeles. 

Los textos artificiales

El avance que ChatGPT ha supuesto en el mundo de las IAs es innegable. En 20BITS hemos dedicado varios artículos en hablar del tema y no es para menos: sus resultados podrían confundirse con algo escrito por una persona. 

A través de esta herramienta, los usuarios pueden redactar correos electrónicos sobre algo que tengan que comunicar y pedir un tono concreto para hacerlo. Del mismo modo que lo puede hacer una persona con la mejor de las intenciones, un ciberdelincuente también puede pedir que ChatGPT le escriba un email que sirva para una campaña de phishing o ayudar a crear perfiles falsos en redes sociales.

Hemos hecho la prueba usando un texto generado por ChatGPT y el detector considera que no está claro si ha sido generado o no.
El detector de texto artificial de OpenAI no ha demostrado un alto porcentaje de efectividad.
Montaje: 20BITS

También puede usarse para realizar trabajos académicos, lo que impide a los estudiantes a aprender con el desarrollo de sus tareas. Algunas escuelas prohibieron su uso con el WiFi institucional en Estados Unidos para evitar que los adolescentes lo utilizasen en clase, pero eso no impide que lo empleen en casa. Para esos casos, OpenAI está desarrollando un detector de texto artificial, que aún no es especialmente eficaz.

Mientras la empresa desarrolladora de la IA crea un sistema para detectar sus propias creaciones, un estudiante de la Universidad de Princeton (Nueva Jersey), Edward Tian, ha lanzado GPTZero, una herramienta con un 98% de precisión en las pruebas, que parece ser la solución.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento