La Unión Europea ha aprobado la primera ley integral sobre inteligencia artificial (IA), que regulará el uso de la IA en la región. La ley tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos. Establece normas para diferentes niveles de riesgo, con requisitos específicos para los sistemas de IA de alto riesgo, que serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. La regulación busca proteger la seguridad, la salud y los derechos fundamentales de la ciudadanía, al tiempo que garantiza la estabilidad a largo plazo para favorecer la inversión y la innovación.
¿Por donde irán los tiros en cuanto a derechos fundamentales?
Lo que esta legisltación buscará defender a toda cosa serán derechos como el derecho a la seguridad, la no discriminación, el respeto al medio ambiente, la supervisión humana de los sistemas de IA, y la protección de la seguridad, la salud y los derechos fundamentales de los ciudadanos. La regulación busca garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
En el caso de los derechos fundamentales, un buen ejemplo sería busca evitar el uso de sistemas discriminatorios de IA que afecten desproporcionadamente a miembros de comunidades marginadas, como personas migrantes, refugiadas y solicitantes de asilo. Se pretende prohibir el uso de tecnologías de IA que tracen perfiles de personas y comunidades bajo el pretexto de predecir delitos o identificar a personas, lo cual puede violar sus derechos fundamentales.
Y obviamente, otro objeto de regulación serán las fuentes a través de las cuales se origine la Inteligencia Artificial Generativa. Los derechos de autor, tras los grupos de presión de medios, periodistas, fotógrafos y demás, busca impedir que se puedan utilizar estos contenidos sin pasar antes por caja.
Tecnologías peligrosas basadas en la IA
La ley de IA de la UE incluye la prohibición de tecnologías peligrosas basadas en la IA, y se espera que sea ratificada por los Estados y el Parlamento Europeo antes de entrar en vigor, previsiblemente a finales de 2026. La normativa también busca establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.
Organizaciones como Amnistía Internacional abogan por la prohibición de varias tecnologías peligrosas basadas en la inteligencia artificial (IA). Según la organización, la Ley de Inteligencia Artificial debe prohibir los sistemas de puntuación social, la perfilación y la evaluación de riesgos que se utilicen para vigilar a las personas beneficiarias de prestaciones sociales, para 'predecir' la probabilidad de que se cometa un delito o para decidir sobre peticiones de asilo. Asimismo, se insta a prohibir el uso y la exportación de sistemas de vigilancia invasiva.
En cuanto a los puntos de debate sobre la normativa, se encuentran la definición de casos de riesgo alto y la gobernanza de la IA. Algunos países, como Francia, Italia y Alemania, han expresado su preocupación de que una regulación estricta perjudique la innovación, mientras que otros Estados miembros y expertos abogan por una legislación más estricta y menos autorregulación.