La UE aprueba la primera Ley de Inteligencia Artificial del mundo Blog elhacker.NET

Tabla de contenido

Los Estados y la Eurocámara superan sus diferencias en torno a cómo regular los modelos fundacionales y las líneas rojas en materia de sistemas de vigilancia biométrica y cierran un acuerdo provisional que todavía debe ser ratificado antes de que entre en vigor.

  • La Unión Europea ha sido pionera en el mundo en pactar una ley de inteligencia artificial que permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y también regulará los sistemas de IA generativa

La Unión Europea será la primera región del mundo en regular de forma completa los usos de la Inteligencia Artificial (IA) a través de Ley de IA de la UE. Los Estados y el Parlamento Europeo han llegado, casi en la medianoche del viernes al sábado, y después de tres días de intensas y duras negociaciones, a un acuerdo provisional, un texto final que todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026, aunque algunas partes empezarán a funcionar antes. 

 

Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables.

Estos son los 7 puntos clave: 5 prohibidos y 2 muy regulados.

  • Prohibidos los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza).
  • Prohibidos los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión.
  • Prohibido el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Prohibido el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales).
  • Prohibidos los sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).
  • Se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias.
  • Los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

«El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos», ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. Cerrar esta ley, que quiere convertirse en una referencia o estándar para otras regiones más allá de las fronteras comunitarias, era una de las prioridades fijadas por España para su semestre europeo, que acaba este mes de diciembre.

Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al máximo los riesgos, para lo que han negociado una ley «a prueba del futuro» que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes. Pero el diablo, como siempre, está en los detalles, y las negociaciones, «apasionadas», como las calificaron testigos de los interminables tira y afloja que comenzaron el miércoles y acabaron rozando la medianoche del viernes al sábado, se alargaron debido al pulso entre Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un riesgo o no y qué excepciones y salvaguardias poner para garantizar que los derechos fundamentales individuales no se arriesgan en aras de no perjudicar la economía o los intereses de los Estados.

La letra pequeña está aún por conocerse, pero, tras 36 horas de negociaciones, una de las más largas que se recuerdan de estos formatos, todas las partes se declararon satisfechas por el «equilibrio» logrado entre los dos objetivos.

«La UE se convierte en el primer continente que pone reglas claras para el uso de la IA», ha señalado mientras tanto el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es «mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA».

Sobre todo, ha acotado Artigas, porque da una «certeza legal y técnica» a los ciudadanos y a las empresas que ahorrará previsiblemente muchas acciones legales. Para ello, la normativa quiere tener dientes suficientes como para no quedar en papel mojado, para lo que prevé un sistema de sanciones, bien un porcentaje del volumen total de negocios de la compañía infractora el año fiscal previo o incluso una cantidad predeterminada «aún mayor». Además, se establece la creación de un ente supervisor independiente, una Oficina de IA ligada a la Comisión Europea y que estará asesorada por un panel científico y la sociedad civil.

La presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa «pionera en el mundo». Un marco legal «único para el desarrollo de una IA en el que se puede confiar», ha saludado en X la jefa del Ejecutivo europeo. «Europa ha liderado y ha cumplido», ha acotado la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación «vanguardista y responsable que impone estándares globales».

Junto a la satisfacción por cerrar un acuerdo que muchas veces parecía escaparse, había también gestos de alivio entre los principales responsables de las negociaciones, y no solo porque por fin podían irse a casa, sino porque, subrayaron todos, lo hacían seguros de que han hecho bien unos deberes con muchas trabas.

Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en algunos casos ya realmente, como se ve en algunos países con poco músculo democrático— permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.

El Parlamento Europeo ha celebrado que la ley «busca garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental están protegidos de IA de alto riesgo, a la par que se impulsa la innovación y se hace de Europa un líder en el sector».

El texto final recoge, aseguran los eurodiputados, sus principales líneas rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia biométrica que consideraban inaceptables: los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza); los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas; el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales); sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).
Vigilancia biométrica

Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de crímenes que lo autoricen será muy restrictiva. En el caso del uso «ex post», solo se permitirá para la búsqueda de una persona condenada o sospechosa de haber cometido un crimen grave.

En el caso de la vigilancia en tiempo real, su uso estará limitado en «tiempo y locación» y solo se permitirá para la búsqueda de víctimas de secuestro, tráfico humano o explotación sexual, para la prevención de una amenaza terrorista «genuina y previsible» o «genuina y presente», es decir, que se está produciendo en el mismo momento, o para la localización o identificación de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato, secuestro, violación, robo armado o un crimen medioambiental, entre otros).

En cuanto al otro gran punto de las negociaciones, la regulación de los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Se trata de una tecnología que apenas se conocía cuando Bruselas propuso la ley, en abril de 2021, por lo que ha habido que incorporar medidas y salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de que la legislación debe ser adaptable a sistemas del futuro aún inimaginables. El reglamento no prohíbe su uso, pero sí establece una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un «riesgo grave para la seguridad nacional». Días después, el primer ministro británico, Rishi Sunak, convocó a una cumbre de la que surgió el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.

Si no ocurren imprevistos, es decir, si ninguna de las partes se echa atrás y tanto los Estados como la Eurocámara ratifican la ley en los próximos meses (los negociadores no creen que el proceso pueda empezar antes de febrero, ya bajo presidencia europea belga), la Ley de IA debería poder entrar totalmente en vigor hacia finales de 2026, aunque algunas partes lo harán antes: está previsto que la Oficina de IA empiece a funcionar en cuanto se ratifique el reglamento, mientras que la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12 meses.

Fuente: El País

 Vía:

https://blog.segu-info.com.ar/2023/12/la-ue-aprueba-la-primera-ley-de.html

INFORMACION DEL PUBLICADOR
Picture of Kamal Majaiti
Kamal Majaiti
Administrador de sistemas e informático por vocación.
COMPARTELO EN REDES
Publica un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.