La legislación obligará a las empresas de IA a notificar a los clientes si están hablando con una IA y prohíbe que la IA utilice datos biométricos humanos en la mayoría de los casos, entre otras normas.
El Parlamento de la Unión Europea aprobó el miércoles la Ley de IA, que regulará la IA generativa y la tecnología de IA en general en la región. El resultado de la votación fue de 523 miembros a favor, 46 en contra y 49 abstenciones.
El italiano Brando Benifei, codirector de la Ley de IA, tuiteó que la ley, que ha tardado dos años en aprobarse, está diseñada para anteponer a los humanos a la IA. «Gracias al Parlamento, se prohibirán en Europa las prácticas inaceptables de IA y se protegerán los derechos de trabajadores y ciudadanos», según Benifei, que añadió que se creará una Oficina Europea de Inteligencia Artificial para ayudar a las empresas a cumplir la normativa antes de que entre en vigor.
La Presidenta de la Comisión Europea, Ursula von der Leyen, respondió a la noticia con una nota en la que afirma que la Ley de Inteligencia Artificial ayudará a la mano de obra europea y «establecerá un modelo para una Inteligencia Artificial digna de confianza en todo el mundo».
La aprobación de la Ley de Inteligencia Artificial significa que, una vez finalizada y puesta en vigor, los sistemas de IA se clasificarán en una de cuatro categorías de riesgo y se regularán en consecuencia. Cualquier herramienta de IA que se considere «inaceptable» estará sujeta a una prohibición total, como la categorización biométrica, la puntuación social, el reconocimiento de emociones y las herramientas policiales predictivas basadas en IA.
Promised. Negotiated. Approved.
Proud of Europe’s trailblazing #AIAct.
It means leadership, innovation & new avenues. But equally respect for fundamental rights.
Artificial intelligence is already very much part of our daily lives. Now, it will be part of our legislation too. pic.twitter.com/dUu3IUa1lT
— Roberta Metsola (@EP_President) March 13, 2024
Cualquier herramienta de inteligencia artificial que se utilice, por ejemplo, con fines de transporte, infraestructuras críticas, educación, seguridad, empleo, cumplimiento de la ley, inmigración o registros judiciales, se consideraría de «alto riesgo» y estaría regulada (pero no necesariamente prohibida) por la ley. Solo las aplicaciones de IA consideradas de «riesgo mínimo» o «sin riesgo», como los videojuegos basados en IA, escaparían a la supervisión de la UE,
Según la Comisión, las aplicaciones de alto riesgo no podrán publicarse en la UE hasta que no presenten documentación adecuada que garantice su seguridad y el uso de datos de «alta calidad».
Cuando los usuarios se encuentren en línea con herramientas de IA como los chatbots, la ley exigirá a las empresas que informen a los usuarios de la UE de que están interactuando con una IA y no con una persona real. «Los humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar la decisión informada de continuar o retroceder», dice la Comisión.
El Parlamento Europeo también señala que los sistemas de IA de propósito general (GPAI) tendrán que cumplir las leyes de derechos de autor de la UE y publicar «resúmenes detallados del contenido utilizado para el entrenamiento». Los titulares de los derechos de autor pueden proteger sus obras de la minería de texto o de datos, lo que significa que mientras su trabajo haya sido excluido de tales usos, los desarrolladores de IA generativa necesitarán el permiso de los titulares de los derechos de autor para utilizar su trabajo.
Una vez que se convierta en ley, la Ley de Inteligencia Artificial de la UE probablemente tendrá implicaciones masivas para los modelos de IA generativa entrenados en grandes cantidades de contenido web, a menudo protegido por derechos de autor. Actualmente no está claro cómo responderán las empresas de IA a la ley. Las empresas de IA podrían optar por adaptarse y hacer que sus herramientas cumplan las disposiciones de la Ley, iniciar una nueva batalla legal o abandonar la UE por completo.
Las disposiciones de la Ley de IA podrían tardar hasta tres años en aplicarse con plenitud. «Las prohibiciones entrarán en vigor a los seis meses, las normas de gobernanza y las obligaciones para los modelos de IA de uso general serán aplicables a los 12 meses y las normas para los sistemas de IA… se aplicarán a los 36 meses», dice la Comisión.