El Parlamento Europeo dio ayer luz verde a la aprobación del ‘Reglamento Europeo de la Inteligencia Artificial’, más conocido como la ‘Ley de IA’. Dicha normativa recoge una serie de requisitos que las empresas del sector deben revisar si quieren que sus IA pueda operar dentro de los países miembro de la Unión Europea. ¿Cómo afecta eso a los modelos disponibles actualmente en España ¿Dejaremos de tener acceso a ChatGPT u otras herramientas similares?
La Ley de IA recibió 523 votos a favor, 46 en contra y 49 abstenciones en el Parlamento. La regulación es una de las primeras en salir adelante sobre inteligencia artificial y lo ha hecho en tiempo récord debido a la urgencia de legislar una tecnología que está cogiendo fuerza, sobre todo tras el lanzamiento de GPT-3 en noviembre de 2022.
A raíz de la salida del modelo de lenguaje grande (LLM) de OpenAI, han llegado más IA, cada vez más potentes, como Gemini, DALL-E 3, Midjourney o Llama-2, entre otros. Ahora, las firmas de estos sistemas deberán revisarlos mejor, para comprobar si cumplen con la legislación europea. De lo contrario, tendrán que adaptarlos o dejar de estar operativos dentro del viejo continente.
La IA deberá garantizar la transparencia
De las normas que se recogen en el texto aprobado por el Parlamento Europeo, destaca la transparencia en la generación de contenido por parte de las compañías que desarrollan IA. Esto obliga a las marcas a crear herramientas que ayuden a los usuarios a distinguir claramente el contenido generado por IA del hecho por humanos.
Es decir, ChatGPT y otros servicios deberán disponer de una marca de agua que informe cuándo un texto, una imagen, un audio u otro archivo ha sido creado por una máquina. De este modo, Europa pretende que las personas no copien y peguen contenido, garantizando la transparencia y previniendo la desinformación.
Los derechos de autor y la IA
Otro de los temas que preocupan desde que el desarrollo en IA comenzó a crecer a pasos agigantados es la protección de los derechos de autor. El año pasado, OpenAI recibió una demanda colectiva por supuestamente incumplirlos y, recientemente, ha ocurrido lo mismo con NeMo, el LLM de NVIDIA.
La Ley de IA de la UE tiene en cuenta esto y pide a las empresas que respeten los derechos de autor a la hora de entrenar sus modelos. Con esta norma limitan considerablemente el número de datos que los desarrolladores de inteligencia artificial pueden utilizar para crear chatbots más capaces.
Los usos de alto riesgo
La UE recoge varios tipos de riesgo en la IA. Está el riesgo mínimo, como los filtros de spam o videojuegos con IA integrada; el riesgo limitado, con falta de transparencia o chatbots; el riesgo alto, usado en infraestructuras críticas, de formación, control fronterizo o servicios esenciales; y el riesgo inaceptable, que son una amenaza para la seguridad y derechos y no estarán permitidos.
Las aplicaciones de ChatGPT u otras herramientas de inteligencia artificial en lo que la UE considera áreas de alto riesgo estarán sujetas a regulaciones más estrictas. Con esto, la legislación exige que las firmas sometan a sus sistemas a evaluaciones de riesgo muy exhaustivas y garanticen que cumplen con ciertos requisitos adicionales para demostrar que no perjudican a las personas.
Los considerados usos de alto riesgo son aquellos que implican temas relacionados con la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho. Eso quiere decir que las áreas más afectadas serán la educación y formación profesional, el empleo, los servicios públicos y privados esenciales, como la sanidad o la banca, la justicia, procesos de migración y gestión de fronteras, etc.
La innovación en IA dentro de Europa
Pese a todas las restricciones, la UE quiere apostar por la innovación de inteligencia artificial dentro de sus fronteras. Eso podría suponer ciertos desafíos a empresas extranjeras como OpenAI, ya que podría surgir nuevas competencias dentro del continente con financiación pública.
No obstante, también podría suponer una oportunidad para OpenAI si colaboran en los proyectos europeos del sector. Cabe señalar que Sam Altman visitó varios países de la UE el año pasado, entre ellos España, y habló de su compromiso con la futura normativa.
El uso del reconocimiento biométrico
Además, se prohíben los sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV. Tampoco permite el reconocimiento de emociones en lugares de trabajo y en la escuela o la actuación policial predictiva mediante algoritmos con IA.
Por otro lado, el uso de los sistemas de identificación biométrica por parte de las fuerzas y cuerpos de seguridad solo estará permitido «en tiempo real» y en situaciones muy concretas. Algunos de los casos en los que se contemplará la utilización de dicha tecnología son «la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista», según detalla la Eurocámara.
Conclusiones sobre la Ley de IA europea
La nueva legislación aprobada por el Parlamento Europeo tiene una clara intención de garantizar que la IA cumpla con otras leyes y derechos que ya existen en el continente, como la protección de datos o los derechos de autor. Además, tiene el objetivo de evitar los riesgos que algunos expertos alertan que podría haber por el rápido avance que hay en IA a través de observaciones más exhaustivas en casos concretos.
Esto puede ser perjudicial a firmas con un amplio recorrido en el sector, como Google con Gemini u OpenAI con ChatGPT. Si no cumplen con los requisitos exigidos, podrían tener que desaparecer de Europa durante una temporada. Sin embargo, podrán volver siempre que realicen los cambios que sean necesarios para estar dentro del marco legislativo europeo.
The post ¿De verdad es buena noticia la aprobación de la Ley de IA de la Unión Europea appeared first on ADSLZone.