La Eurocámara aprobó una histórica ley que regulará la inteligencia artificial.
El Parlamento aprobó el miércoles 13 de marzo 2024, la Ley de Inteligencia Artificial, que garantiza el respeto de los derechos fundamentales, además de la seguridad, a tiempo impulsa y promueve la innovación.
El objetivo es proteger los derechos fundamentales, el Estado de derecho, la sostenibilidad del medio ambiente, la democracia frente a la inteligencia artificial. Impulsa la innovación, colocando a Europa como el líder del sector.
Este reglamento resume una serie de obligaciones para la IA en función de los potenciales riesgos y su impacto.
Las aplicaciones prohibidas
Se prohíben aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, por ejemplo los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet, grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial, se prohibirán el reconocimiento de emociones en el lugar de trabajo, escuelas, la actuación policial predictiva, se prohíbe que la IA manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Exenciones de las fuerzas de seguridad
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y definidas.
Los sistemas de identificación biométrica (en tiempo real) solo se podrán emplear si se cumple una serie de salvaguardias estrictas, su uso se limita a un período y lugar específicos y si cuenta con una autorización judicial o administrativa previa. Por poner un ejemplo, en casos de personas desaparecidas, prevención de un atentado terrorista.
Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
Obligaciones para los sistemas de alto riesgo
La salud, seguridad, derechos fundamentales, medio ambiente, democracia y el estado de derecho, son algunos ejemplos, usos de alto riesgo de la IA son las infraestructuras críticas, educación, formación profesional, empleo, servicios públicos y privados esenciales como la sanidad y la banca, fuerzas de seguridad, migración, gestión aduanera, justicia y procesos democráticos, (como influir en elecciones), todos estos deberán ser evaluados, reducir riesgos, mantener registros de uso, ser transparentes y precisos, contar con supervisión humana. Los ciudadanos tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten sus derechos.
Requisitos de transparencia
Se deberá respetar la legislación de UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.
Hay una muy interesante solicitud; las imágenes, contenidos de audio o vídeo artificiales o manipulados (ultra falsificaciones) deberán etiquetarse claramente como tales.
Medidas de apoyo a la innovación y a las pymes
Se pondrá a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
Esta primera Ley en el mundo sobre Inteligencia Artificial reducirá los riesgos, creará oportunidades, combatirá la discriminación y aportará transparencia, prohíbe prácticas inaceptables de IA y se protegerán los derechos de trabajadores y ciudadanos.
El Reglamento está sujeto a una última comprobación jurídica-lingüística, una vez aprobada, entrará en vigor 20 días después de su publicación en el Diario Oficial y, será de plena aplicación 24 meses después de su entrada en vigor.
Fuente: Parlamento Europeo
Comentarios