Ley de Inteligencia Artificial entra en vigor en UE: cinco claves para su uso
La nueva ley impulsa la innovación e instituir a Europa en líder del sector
El 1 de agosto entra en vigor en la Unión Europea la Ley de Inteligencia Artificial (IA), la primera del mundo para regular sistemas que permiten actuar de manera más precisa y eficiente a los humanos en muchos ámbitos e impulsar la innovación, pero que a la vez plantean importantes riesgos que el nuevo marco común trata de evitar.
(Te puede interesar: Serrano sobre posible candidatura: "mi compromiso es jugarme el todo por el todo" )
Golpes de Israel contra Hamás y Hizbulá llevan a Oriente Medio al borde del abismo
Leer más¿A quién se aplica?
Las normas se aplican a los proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, con independencia de su origen.
No se aplica a las autoridades públicas de terceros países ni a organizaciones internacionales cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial con la UE. Tampoco a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional, ni a los usados con el solo propósito de la investigación y el desarrollo científico.
Tipos de sistemas de IA
1.- Prohibidos: algunos sistemas de IA o usos de la IA están prohibidos porque contradicen los valores de la UE, incluido el derecho a la no discriminación, la protección de datos y la privacidad. Entre ellos se incluyen los que desplieguen técnicas subliminales para distorsionar el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros.
(Sigue leyendo: Guayaquileños dejan escanear sus ojos a cambio de 20 dólares: ¿De qué se trata? )
Sánchez se querella por prevaricación contra el juez que investiga a su mujer
Leer másNo obstante, la normativa permite excepciones. Los sistemas de identificación biométrica "en tiempo real" solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida.
2.- De alto riesgo: los sistemas de IA de alto riesgo pueden presentar un riesgo potencialmente alto para los derechos y libertades de las personas físicas y, por lo tanto, están sujetos a obligaciones estrictas. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas o la educación y la formación profesional, y el empleo.
Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. En el área del empleo, se consideran de alto riesgo los sistemas destinados a ser utilizados para el reclutamiento o la selección de empleados
3.- Sistema con requisitos de transparencia: Sus responsables deben cumplir requisitos e informar para no engañar a los consumidores, haciéndoles creer que interactúan con personas reales o con contenidos creados por ellas, por ejemplo, los propietarios de chatbots o creadores de 'deepfakes'.
(Te invitamos a leer: Quito: ¿Cuál es el límite de velocidad que la ley permite? )
Pachamama, la celebración para agradecer a la Madre Tierra
Leer más4.- Sistema de IA de propósito general: No tienen un propósito previsto inicial, pero pueden ser entrenados o modificados para cumplir un propósito que podría convertirlos en sistemas de alto riesgo.
5.- Multas: Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37,6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros (8 millones de dólares) o el 1,5 % del volumen global de negocio.
En agosto de 2025 empezarán a aplicarse las normas para los modelos, como ChatGPT, y un año después, en agosto de 2026, se aplicará la ley de manera general, salvo algunas disposiciones. Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse treinta y seis meses después, en agosto de 2027.
Para leer contenido internacional, SUSCRÍBETE A EXPRESO