El Parlamento Europeo aprobó su primer proyecto para legislar regulaciones a la Inteligencia Artificial, y ahora el texto deberá ser negociado por la Comisión Europea con cada país miembro.
El texto se aprobó por 499 votos a favor, 28 en contra y 93 abstenciones.
La creación de la Ley está dentro de la estrategia digital de la Unión Europea, que busca garantizar mejores condiciones de desarrollo y uso de esa tecnología innovadora y, al propio tiempo, que los sistemas de inteligencia artificial (IA) que se usen dentro de sus naciones sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente, apuntaron analistas.
Por ello, afirman, los sistemas de IA deben ser supervisados por personas, para evitar resultados perjudiciales. Así, se propone que se analicen y clasifiquen de acuerdo al riesgo que supongan para los posibles usuarios.
La nueva normativa propuesta por la UE pretende establecer obligaciones para proveedores y usuarios en función del nivel de riesgo de la inteligencia artificial, que clasifica en cuatro niveles de riesgo:
Riesgo inaceptable, rango en el cual se contemplan, entre otras situaciones, los sistemas de IA considerados una amenaza para las personas y que, por tanto, deben ser prohibidos. Estos riesgos inaceptables incluirían situaciones en las que se produzca una «manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos», y ponen como ejemplo los juguetes que sean activados por voz y fomenten comportamientos peligrosos en los niños.
También se prohibiría la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales y los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Como de Alto riesgo se clasificarían los sistemas de IA que afecten negativamente la seguridad o a los derechos fundamentales. Todos ellos deberían ser evaluados antes de comercializarse (y a lo largo de su ciclo de vida) y se dividirían en dos categorías.
Mientras, los sistemas de IA generativa, entre los que se incluiría ChatGPT, tendrían que cumplir una serie de requisitos de transparencia.
También se incluyen los denominados sistemas de IA de Riesgo medio y los de riesgo limitado, los cuales tendrían que cumplir requisitos mínimos de transparencia que posibiliten que los usuarios puedan tomar decisiones con conocimiento, de modo de que le asista el derecho a decidir si desea seguir usándolos. Además, los usuarios deben ser conscientes de cuándo están interactuando con la IA, lo que incluiría los sistemas que generan o manipulan contenidos (deepfakes) ya sean imagen, audio o vídeo.
Esta es la primera norma legal sobre el asunto y su trayecto continuará con una serie de negociaciones interinstitucionales con el Consejo de Ministros de la UE y la Comisión Europea.
Con información del sitio 20 minutos y agencias