Entrada en vigor de la Ley Europea de Inteligencia Artificial

Blog

Entrada en vigor de la Ley Europea de Inteligencia Artificial

La Ley de IA europea entra en vigor

Con fecha 1 de agosto de 2024 ha entrado en vigor la Ley Europea de Inteligencia Artificial (Ley de IA), el primer Reglamento global sobre inteligencia artificial del mundo.

La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea fiable, con salvaguardias para proteger los derechos fundamentales de las personas. El Reglamento tiene por objeto establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.

La Ley de IA introduce una definición prospectiva de IA, basada en la seguridad de los productos y en un enfoque basado en el riesgo en la UE:

  • Riesgo mínimo: La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de correo no deseado, entran en esta categoría. Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
  • Riesgo específico de transparencia: Los sistemas de IA, como los chatbots, deben revelar claramente a los usuarios que están interactuando con una máquina. Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente.
  • Riesgo alto: Los sistemas de IA considerados de alto riesgo estarán obligados a cumplir requisitos estrictos, incluidos los sistemas de reducción del riesgo, la alta calidad de los conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de IA conformes. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, los sistemas de IA utilizados para la contratación o para evaluar si alguien tiene derecho a obtener un préstamo o a gestionar robots autónomos.
  • Riesgo inaceptable: Se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la «puntuación social» por parte de gobiernos o empresas, y determinadas aplicaciones de la actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).

Para complementar este sistema, la Ley de IA también introduce normas para los denominados modelos de IA de uso general, que son modelos de IA de gran capacidad diseñados para llevar a cabo una amplia variedad de tareas, como la generación de textos similares a los humanos. Los modelos de IA de uso general se utilizan cada vez más como componentes de aplicaciones de IA.

Multas de hasta el 7%. Si la Ley de Mercados Digitales establece multas de hasta el 10% de la facturación anual mundial y la Ley de Servicios Digitales se queda en el 6%, la IA pone el límite de las sanciones en el 7% de la facturación anual mundial. También son multas más elevadas que el 4% que establece el Reglamento General de Protección de Datos.

Estas multas estarán gestionadas por la Oficina Europea de Inteligencia Artificial, que deberá velar por el cumplimiento de la ley, elaborar informes, actualizar los requisitos y prestar apoyo a las empresas para poder adaptarse correctamente.