Tecnología

La Eurocámara aprueba restricciones para reducir los riesgos de sistemas como ChatGPT

Bruselasicon-related

El Parlamento Europeo ha dado este jueves un paso más para sacar adelante la primera normativa para regular la inteligencia artificial. Los comités de Mercado Interior y Libertades Civiles de la Eurocámara han adoptado enmiendas para imponer restricciones con las que atajar los riesgos que entrañan modelos de lenguaje por inteligencia artificial, como ChatGPT.

Con 84 votos a favor, 7 en contra y 12 abstenciones, los eurodiputados han dado luz verde a una modificación de la norma que establece requisitos adicionales para ChatGPT y otros modelos de lenguaje por inteligencia artificial en términos de transparencia, de tal manera que serán obligados a detallar que un contenido ha sido generado por inteligencia artificial. También se requerirá que garanticen que no producirán contenido ilegal o publicarán datos protegidos por derechos de autor que hayan sido utilizados en el estadio de aprendizaje del algoritmo.

Además de estos dos elementos añadidos a la propuesta inicial del Ejecutivo comunitario, la norma obligará a que los sistemas sean seguros, transparentes no discriminatorios y respetuosos con el medio ambiente. También busca fijar una definición uniforme de inteligencia artificial diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas actuales y futuros.

"La Ley de la Inteligencia Artificial es, probablemente, el texto legislativo más importante de este mandato. Es la primera ley de este tipo en el mundo, lo que significa que la UE puede liderar el camino para que la inteligencia artificial esté centrada en el ser humano y sea fiable y segura", ha indicado el eurodiputado de Renew, Dragos Tudorache.

A lo que el socialista italiano, Brando Benifei, ha añadido que confía en que el "texto equilibre la protección de los derechos fundamentales con la necesidad de ofrecer seguridad jurídica a las empresas y estimular la innovación en Europa".

En sus enmiendas, los eurodiputados han incluido nuevas obligaciones para los proveedores de modelos fundacionales, un nuevo campo de la inteligencia artificial, de manera que garantice la proyección de derechos fundamentales, el respecto al medioambiente, a la democracia y al estado de derecho.

Según este reglamento, los sistemas de inteligencia artificial que no tengan unos niveles aceptables de seguridad para las personas serán prohibidos. También aquellos sistemas que puedan desarrollar tácticas subliminales o de manipulación, que puedan abusar de las vulnerabilidades personales o que se utilicen para clasificación social atendiendo a comportamiento social, estatus económico o características personales, una funcionalidad de la inteligencia artificial que China ya ha puesto en práctica.

Además, los eurodiputados han introducido enmiendas al texto de la Comisión Europea para incluir los casos de uso abusivo o discriminatorio como sistemas de identificación biométrica a distancia "en tiempo real" en espacios públicos, los sistemas de identificación biométrica a distancia "a posteriori (a excepción de las fuerzas del orden y previa autorización judicial) y los sistemas de categorización biométrica que utilicen características sensibles como sexo o raza.

También se vetará el uso de los sistemas policiales predictivos, basados en perfiles o comportamientos delictivos anteriores, los sistemas de reconocimiento de emociones en las fuerzas del orden o la gestión de fronteras, la extracción indiscriminada de datos biométricos de redes sociales que violen los derechos humanos y el derecho a la intimidad.

La norma deberá ser refrendada en el pleno del Parlamento Europeo, el próximo junio, antes de que puedan iniciarse las negociaciones entre la Eurocámara y los Veintisiete para fijar la versión definitiva de la legislación.

WhatsAppTwitterTwitterLinkedinBeloudBeloud