Bill Gates no tiene miedo a la inteligencia artificial, aunque advierte sobre estos 5 peligros

  • Gates lanza un mensaje positivo en torno a los temores sobre la IA: “Las personas se las han arreglado para atravesar otros momentos transformadores y, a pesar de muchas turbulencias, al final han salido ganando”.
Bill Gates se ha pronunciado sobre IA en varias ocasiones.
Bill Gates se ha pronunciado sobre IA en varias ocasiones.
20BITS
Bill Gates se ha pronunciado sobre IA en varias ocasiones.

Bill Gates ha copado muchos titulares en los últimos meses dando su opinión sobre inteligencia artificial. Lo cierto es que, en general, desde que a finales del 2022 apareció en nuestras vidas ChatGPT las noticias relacionadas con IA se han disparado y han alcanzado todos los rincones de Internet, las páginas de revistas y periódicos o las ondas de radio y los canales de televisión.

Los medios de comunicación estamos interesados en las novedades que surgen en torno a la inteligencia artificial porque la propia audiencia también lo está. Y si ‘los mortales’ estamos así, grandes tecnólogos como Gates no iban a ser menos. Por ello, de un tiempo a esta parte es uno de los expertos en tecnología que más ha opinado sobre los vicios y virtudes de la nueva ola de IA, especialmente en lo tocante a la IAG —la Inteligencia Artificial Generativa—.

Aunque se ha mostrado un tanto alarmista en otras ocasiones, en el último post de su blog personal Gates reconoce que "los riesgos de la IA son reales, pero manejables". De hecho, así mismo titula la publicación, un texto en el que durante más de 3.300 palabras —unos 12 minutos de lectura—, el magnate tecnológico se explaya hablando sobre cómo las preocupaciones que plantea la inteligencia artificial “deben tomarse en serio”, pero apacigua la histeria colectiva afirmando que “hay una buena razón para pensar que podemos lidiar con ellos: esta no es la primera vez que una innovación importante ha introducido nuevas amenazas que debían controlarse”.

Efectivamente, Gates recurre al pasado para demostrar que la humanidad es capaz de copar con los avances tecnológicos. En algún momento anterior de la historia —o en varios— ya se pensó que la tecnología iba a acabar con todos los humanos, pero sobrevivimos. Y no solo eso: doblegamos esa innovadora revolución para controlarla y lograr que esté a nuestro servicio, y no al revés.

El cofundador de Microsoft es consciente de los peligros de la inteligencia artificial: “¿Qué les sucede a las personas que pierden sus trabajos por culpa de una máquina inteligente? ¿Podría la IA afectar los resultados de una elección? ¿Qué pasa si una futura IA decide que ya no necesita a los humanos y quiere deshacerse de nosotros?”, advierte al inicio del post.

Sin embargo, cree firmemente que las personas seremos capaces de controlar la situación porque “lo hemos hecho antes”. Pone como ejemplo la expansión del uso de los coches: “Poco después de que los primeros automóviles estuvieran en la carretera, se produjo el primer accidente automovilístico. Pero no prohibimos los automóviles: adoptamos límites de velocidad, estándares de seguridad, requisitos para obtener licencias, leyes sobre conducir en estado de ebriedad y otras reglas de tránsito”.

En su opinión, y tal y como ha expresado en anteriores ocasiones, “la IA va a revolucionar nuestras vidas” y nos ayudará a “resolver problemas (en salud, educación, cambio climático y más) que solían parecer intratables”. Pero también reconoce que existen preocupaciones. Así, Gates no parece querer mojarse demasiado y se queda en un punto neutral: “El futuro de la IA no es tan sombrío como piensan algunas personas ni tan optimista como piensan otras”.

Ahora estamos en “la etapa más temprana” del cambio y todo va tan rápido que “no está claro exactamente qué sucederá a continuación”, por lo que “en un momento como este, es natural sentirse inquieto”, valora. Pero lejos de caer en debates remotos sobre futuros distópicos en los que una súper IA pueda aprender por sí misma y establecerse objetivos que entren en conflicto con los de la humanidad —“¿Deberíamos incluso hacer una súper IA?”, se pregunta—, el magnate tecnológico se centra en los riesgos más inmediatos, los cuales reduce a cinco.

‘Deepfakes’ y desinformación generados con IA como detonador de la democracia

Es obvio que ni Sam Altman con ChatGPT ni, de manera general, la inteligencia artificial son los inventores de la idea de usar la tecnología para difundir mentiras y falsedades. Esto se lleva haciendo mucho tiempo. Sí es cierto que cuanto más avanzan las herramientas tecnológicas, más fácil es llevar a cabo ese tipo de manipulaciones.

Y, si ya era fácil propagar fake news gracias a Internet, y en particular al correo electrónico y a las redes sociales, ahora además es también fácil generarlas gracias a la IAG.

En una escala mayor, añade con tono preocupado, “las falsificaciones profundas generadas por IA podrían usarse para intentar inclinar unas elecciones. Por supuesto, no se necesita tecnología sofisticada para sembrar dudas sobre el ganador legítimo de unas elecciones, pero la IA lo hará más fácil”.

No obstante, podemos aprender del pasado: “Durante años, los usuarios de correo electrónico cayeron en estafas (...) pero, con el tiempo, la mayoría de las personas aprendieron a mirar dos veces esos emails”.

La IA facilita los ciberataques contra personas y gobiernos

En el terreno de la ciberseguridad, la inteligencia artificial también tiene peso, y mucho. Con la inteligencia artificial el proceso para crear un ciberataque se simplifica porque esta tecnología ayuda a los cibermalos a escribir un código más efectivo.

Además, pueden encontrar la información pública sobre una persona, como dónde trabaja y quiénes son sus amigos, para desarrollar “ataques de phishing más avanzados que los que vemos hoy”, señala Gates.

La buena noticia es que la IA se puede utilizar tanto para buenos propósitos como para malos”, subraya, destacando que el uso por 'los buenos' debería de ser una de las “principales preocupaciones” de la industria.

Los precedentes históricos nos pueden ayudar a gestionar mejor esto: “Aunque el régimen mundial de no proliferación nuclear tiene sus fallas, ha evitado la guerra nuclear total que mi generación temía tanto cuando éramos niños. Los gobiernos deberían considerar la creación de un organismo global para la IA similar a la Agencia Internacional de Energía Atómica”.

La IA le quitará el trabajo a la gente

Según el empresario, en los próximos años, el principal impacto de la inteligencia artificial en el terreno laboral será ayudar a las personas a hacer su trabajo de manera más eficiente. “Eso será cierto ya sea que trabajen en una fábrica o en una oficina manejando llamadas de ventas y cuentas por pagar”.

Añade que “algunos trabajadores necesitarán apoyo y capacitación a medida que hacemos esta transición hacia un lugar de trabajo impulsado por IA. Esa es una función de los gobiernos y las empresas”.

El referente histórico en este punto es evidente: “No creo que el impacto de la IA sea tan dramático como el de la Revolución Industrial, pero ciertamente será tan grande como la introducción de la PC. Las aplicaciones de procesamiento de textos no acabaron con el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron”.

La IA hereda nuestros sesgos e inventa cosas

La inteligencia artificial ‘alucina’, especialmente la generativa. Este es el término que el sector ha adoptado para decir que la IA afirma cosas que son mentira con total confianza. Esa confianza y seguridad en las afirmaciones es precisamente para lo que tenemos que prepararnos y por lo que tenemos que desconfiar de esta tecnología. 

Otro riesgo de la inteligencia artificial, continúa, es que “refleja o incluso empeora los prejuicios existentes contra personas de ciertas identidades de género, razas, etnias, etc.”.

El empresario dice que aunque algunos investigadores piensan que las alucinaciones son un problema inherente, él no está de acuerdo. “Soy optimista de que, con el tiempo, se puede enseñar a los modelos de IA a distinguir la realidad de la ficción. OpenAI, por ejemplo, está haciendo un trabajo prometedor en este frente”.

Los estudiantes no aprenderán a escribir porque la IA hará el trabajo por ellos

Existe cierta preocupación general —y particular en el mundo de la docencia— sobre si la inteligencia artificial va a provocar que nosotros seamos menos inteligentes. O al menos algo más vagos.

Cuando estalló ChatGPT los medios de comunicación nos llenamos de noticias sobre si los estudiantes ahora podrían usar la IAG para escribir sus trabajos académicos. Después contamos que se habían desarrollado herramientas de inteligencia artificial para saber si algo ha sido escrito por una persona o por una máquina, de manera que los maestros pudieran verificar la autenticidad de lo escrito —o, más bien, la autoría—.

Sin embargo, y también lo hemos contado ya, algunos maestros no están tratando de evitar que sus estudiantes usen IA en sus escritos, en realidad lo están alentando. Porque hay quien opina que en lugar de ser un sustituto puede ser una palanca, una manera de dar inspiración para iniciarse a redactar un texto, o un sistema de revisión, una suerte de ‘maestro virtual’ que ayuda a mejorar un trabajo brindando comentarios sobre el contenido.

El precedente histórico es reciente, pero efectivo: igual que una vez se enseñó a los estudiantes cómo hacer una búsqueda adecuada en Google, los maestros deben diseñar lecciones claras sobre cómo el chatbot ChatGPT puede ayudar con la redacción de ensayos.

Otro ejemplo claro que cita Gates: “Me recuerda la época en que las calculadoras electrónicas se generalizaron en las décadas de 1970 y 1980. A algunos profesores de matemáticas les preocupaba que los estudiantes dejaran de aprender a hacer aritmética básica, pero otros adoptaron la nueva tecnología y se centraron en las habilidades de pensamiento detrás de la aritmética”.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento