Ley europea de inteligencia artificial: ocho claves para comprender la nueva normativa

El nuevo reglamento acordado en Europa crea cuatro niveles de riesgo y se prohíben aquellas actividades que se enmarquen dentro del riesgo considerado 'inaceptable'. Quienes no cumplan la ley, tendrán sanciones.
Una imagen que representa la nueva Ley Europea de Inteligencia Artificial según la imagina una IA.
Una imagen que representa la nueva Ley Europea de Inteligencia Artificial según la imagina una IA.
DALL·E
Una imagen que representa la nueva Ley Europea de Inteligencia Artificial según la imagina una IA.

Bruselas está de celebración: después de cuatro años de idas y venidas, la Unión Europea ha dado luz vez a su Ley de Inteligencia Artificial. Esta norma empezó a gestarse en un mundo en el que ChatGPT era algo completamente desconocido para el público general y solo algunos expertos hablaban de modelos de lenguaje de gran tamaño —los LLM, por sus siglas en inglés—. De hecho, en su primer borrador apenas se mencionaban los sistemas de IA tipo chatbots.

Un pelín de contexto para hacernos una idea: OpenAI, la compañía que ha desarrollado ChatGPT, fue fundada en diciembre de 2015 y hasta junio de 2018 no fue presentado GPT-1, la primera iteración de la serie GPT que estableció la arquitectura fundamental para ChatGPT tal como lo conocemos hoy. Actualmente el LLM que alimenta al chatbot es GPT-4 Turbo.

Por seguir con la breve contextualización, cabe destacar que hoy por hoy, ChatGPT tiene 100 millones de usuarios activos a la semana a nivel mundial. En España, los últimos datos disponibles confirman que la herramienta cuenta con 4 millones de usuarios.

Pero volvamos a la Ley de IA europea. En el momento en que se planteó, la normativa fue aclamada como una primicia mundial, pero el proceso se ha visto estancado por las novedades que se han ido produciendo en el sector y el auge de la inteligencia artificial generativa que ha provocado la ya mencionada herramienta ChatGPT y el resto de los competidores que han ido apareciendo. A la luz de su popularidad, las grandes tecnológicas que están detrás de esta tecnología han presionado para frenar lo que a sus ojos era una regulación excesiva.

¿Cuáles son las principales novedades de la Ley de IA?

La nueva legislación de la Unión Europea sobre inteligencia artificial, conocida como Ley de Inteligencia Artificial, se centra —según los organismos oficiales que la proponen— en garantizar que la IA en Europa sea segura y respete los derechos fundamentales y la democracia, al tiempo que fomenta la innovación. Sus puntos clave incluyen:

  • Prohibiciones sobre ciertas aplicaciones de IA, como la categorización biométrica basada en características sensibles —creencias políticas, religiosas, filosóficas o por su raza y orientación sexual—, el reconocimiento de emociones en los lugares de trabajo, la puntuación social y la IA que manipula el comportamiento humano o explota vulnerabilidades.
  • Permisos y salvaguardas específicos para que las fuerzas del orden utilicen sistemas de identificación biométrica, sujetos a condiciones estrictas y autorización judicial.
  • Obligaciones para los ‘sistemas de IA de alto riesgo’, incluidas evaluaciones obligatorias del impacto en los derechos fundamentales.
  • Requisitos transparentes para los sistemas de IA de uso general, con obligaciones más estrictas para los modelos de alto impacto.
  • Apoyo a la innovación y a las PYMES a través de entornos de pruebas regulatorios y pruebas en el mundo real.
  • Sanciones por incumplimiento, con multas de hasta 35 millones de euros o el 7% de la facturación global.

¿Qué riesgos específicos para las personas se buscan mitigar con la Ley de IA y qué beneficios esperan lograr?

El grueso de estas negociaciones ha estado centrado en ciertas aplicaciones de la IA consideradas como amenaza para los derechos de los ciudadanos y la democracia. De hecho, las principales novedades de esta nueva ley son las salvaguardias y excepciones limitadas para el uso de sistemas de identificación biométrica en espacios públicos con fines de aplicación de la ley.

Los principales riesgos que se buscan mitigar son de carácter social y de seguridad nacional, ya que la mayoría de las excepciones serán para las búsquedas de una persona condenada o sospechosa de haber cometido un delito grave”, explica el experto en IA José Antonio Pinilla, chairman y CEO de Asseco Spain Group.

Pinilla matiza que también se han identificado los sistemas de inteligencia artificial de alto riesgo para los derechos fundamentales, el medioambiente, la salud, la seguridad, la democracia y el estado de derecho. “Este ejercicio de unificación de sistemas busca lograr la mitigación de su impacto en los derechos fundamentales”, subraya.

Otra de las novedades incluidas en esta ley es una evaluación obligatoria del impacto en los derechos fundamentales. Además, detalla el experto, los ciudadanos tendrán derecho a presentar quejas sobre sistemas de IA y recibir explicaciones sobre decisiones basadas en sistemas de inteligencia artificial de alto riesgo que impacten en sus derechos.

Una de las claves de la nueva legislación es que clasifica esta tecnología en función del riesgo que representan sus sistemas. Tal y como señala la Comisión Europea en su comunicado, se establecen cuatro niveles de riesgo, que van desde el más bajo hasta el inasumible.

Usos prohibidos de la IA por la nueva ley

La norma prohíbe, entre otros usos, los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Este es uno de los puntos más polémicos de la misma.

Tal y como dicta la ley, directamente se prohibirán aquellos sistemas de IA “que se consideren una clara amenaza a los derechos fundamentales de las personas”. Esto incluye sistemas o aplicaciones de inteligencia artificial “que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva”.

Además, subrayan, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, “los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas)”.

Finalmente, al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. “Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones”.

¿Cómo va a afectar a las empresas que están desarrollando modelos de inteligencia artificial? ¿El impacto será igual en las grandes que en las pequeñas?

El CEO de Asseco Spain Group afirma que “aún es pronto para estimar las consecuencias de esta nueva ley en las empresas que ya operan con modelos de inteligencia artificial, más allá de afirmar que la implementación de las medidas deberá realizarse intentando proteger el valor intrínseco de la compañía”.

Sin embargo, destaca, el impacto en la actividad empresarial “no debe asustar a las pymes”, ya que, como han afirmado eurodiputados, las pequeñas y medianas empresas que integren modelos como el conocido ChatGPT no se verán “sobrecargadas regulatoriamente de manera innecesaria”. Cada compañía, dependiendo del uso y relación con la inteligencia artificial, deberá cumplir con unas obligaciones determinadas.

En este sentido, Pinilla también opina que todavía no se puede valorar si el progreso en este ecosistema empresarial se verá afectada y en qué medida. Solo se aventura a afirmar que “su implementación va a requerir del esfuerzo de las empresas que, además, deberán seguir con su actividad habitual, garantizando que no se menoscabe la innovación”.

Finalmente, el experto en IA no cree que la nueva norma de Europa pueda provocar una ‘fuga’ de talentos o empresas hacia regiones con regulaciones más laxas. Más bien podría pasar lo contrario: “Teniendo en cuenta el papel de normativa pionera que tiene esta ley europea, numerosos países de otros continentes ya están tomando nota de su contenido con intención de adaptarla para su propia actividad económica”.

E insiste: “Este movimiento de la UE en forma de ley pionera va a servir de modelo para la regulación de otros países extracomunitarios que ya estarán tomando nota para imitar y adaptar el contenido de la legislación para evitar quedarse rezagados frente a otros mercados”.

¿Se multará a quien infrinja la ley?

Saltarse las pautas establecidas en la norma puede salir caro a las compañías, con multas que van desde 7,5 millones de euros o el 1,5% del volumen de negocio a otras de 35 millones o el 7% del volumen de negocio, según la infracción cometida y el tamaño de la empresa.

¿Qué efecto real puede tener la nueva Ley de IA en los usuarios?

El principal cambio que notarán los usuarios y ciudadanos europeos es que podrán identificar claramente los contenidos que sean generados por inteligencia artificial cuando estén navegando por Internet.

Fuera del mundo online, los ciudadanos europeos convivirán con videocámaras, “aunque no debe cundir el pánico, ya que su uso estará cuidadosamente restringido para reforzar la seguridad de las personas”, indica Pinilla.

La Ley de IA se aplicará a los casi 450 millones de residentes de la UE, pero los expertos dicen que su impacto podría sentirse mucho más allá debido al papel de liderazgo de Bruselas en la elaboración de reglas que actúan como un estándar global.

¿Qué desafíos plantea legislar la inteligencia artificial?

Lo primero que hay que tener en cuenta, comenta el CEO de Asseco Spain Goup, es que este proyecto de normativa se ha de trasladar al lenguaje jurídico “en el que se detallarán todos los requisitos y medidas y las correspondientes sanciones”. En ese momento, continúa diciendo, podremos conocer con mayor exactitud qué es necesario para la implementación y el cumplimiento de esta legislación.

“De momento, solo podemos afirmar que debido a su carácter pionero supone toda una novedad para las empresas europeas y que operan en el continente. Por ello, el principal desafío es superar la primera fase de expectación y recelo para poder adaptar la actividad económica a las nuevas necesidades de los usuarios europeos”, concluye.

¿Qué pasos quedan por delante en este proceso y cuándo veremos aplicar la Ley?

Tras el traslado de este proyecto de normativa al lenguaje jurídico, deberá ser ratificado por el Parlamento Europeo y por los Gobiernos de los países miembros con anterioridad a la disolución de las cámaras debido a las próximas euroelecciones. Así, se espera que su ratificación tenga lugar durante el primer trimestre de 2024.

Entrará en vigor 20 días después de su publicación en el Diario Oficial y, teniendo en cuenta los plazos de los trámites europarlamentarios —las leyes son aplicables dos años después de su entrada en vigor—, la regulación de la IA no podría aplicarse antes del año 2026.

Habrá algunas disposiciones específicas: las prohibiciones ya se aplicarán después de 6 meses, mientras que las normas sobre IA de uso general se aplicarán después de 12 meses.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento