El Congreso Europeo acaba de validar la normativa de inteligencia artificial que la Asamblea Europea aprobó a finales del año pasado con 523 votos a favor, 46 en contra y 49 abstenciones. Si bien es un gran avance en materia legislativa, aún resta que la Unión Europea la apruebe definitivamente en las próximas semanas, mientras que la implementación de la legislación entraría en vigor recién en el año 2026.
En resumen, la normativa introduce definiciones legales de «sistemas de IA», establece una estructura de gobernanza y mecanismos de aplicación y recurso, y describe el proceso legislativo. Además, destaca los debates políticos y académicos en torno a la regulación de la IA, incluidas las preocupaciones sobre los derechos fundamentales, la seguridad, la transparencia y la responsabilidad.
El objetivo de la UE es sentar precedente que sirva como ejemplo para otros países, como Estados Unidos o China en materia de control.
Estos son los principales puntos del documento aprobado para regular la IA en la UE:
- Definición de Sistemas de IA: establece una definición legal de sistemas de IA, alineada con la definición revisada por la OCDE, excluyendo sistemas de software simples y tradicionales, y definiendo los modelos de inteligencia artificial de propósito general (GPAI) con «capacidades de alto impacto» que podrían representar un riesgo sistémico.
- Enfoque Basado en el Riesgo: clasifica los sistemas de IA en varias categorías según el nivel de riesgo que presentan, desde prácticas prohibidas hasta sistemas de alto riesgo y aquellos con riesgos mínimos.
- Prácticas Prohibidas: prohíbe ciertas prácticas de IA consideradas de riesgo inaceptable, incluyendo sistemas que manipulan comportamientos de manera subliminal, explotan vulnerabilidades de grupos específicos, o realizan identificación biométrica remota en tiempo real en espacios públicos para fines de aplicación de la ley, excepto en circunstancias limitadas (ampliamos más abajo).
- Sistemas de Alto Riesgo: identifica casos de uso en los que los sistemas de IA se consideran de alto riesgo, exigiendo a los proveedores cumplir con requisitos de evaluación de conformidad antes de su comercialización en la UE, y establece obligaciones específicas para sistemas de GPAI (Global Partnership on Artificial Intelligence o Alianza Global sobre Inteligencia Artificial), incluyendo requisitos de transparencia y protección de derechos de autor.
- Apoyo a la Innovación: fomenta la inversión en sistemas de IA mediante la creación de «arenas regulatorias» para el desarrollo y pruebas de sistemas innovadores de IA bajo supervisión regulatoria, y establece medidas para facilitar el desarrollo y la comercialización de sistemas de alto riesgo.
- Aplicación y Estructura Institucional: asigna responsabilidades a las autoridades nacionales y de la UE para asegurar la aplicación e implementación del acta, estableciendo sanciones significativas por incumplimiento.
Además, el documento establece un cronograma de Entrada en Vigor, que fija plazos para la implementación de las diferentes disposiciones, con un enfoque en la eliminación gradual de sistemas prohibidos y la aplicación de disposiciones relativas a GPAI y sistemas de alto riesgo.
Prácticas de IA que estarán totalmente prohibidas en la UE
El documento indica la prohibición de ciertas prácticas específicas de la Inteligencia Artificial, debido a «los riesgos inaceptables que presentan para la seguridad, los medios de subsistencia y los derechos de las personas». Estas prácticas incluyen:
- Sistemas de IA que emplean técnicas manipuladoras o engañosas subliminales: Estos sistemas están diseñados para distorsionar el comportamiento de las personas o grupos de personas, de manera que se vea afectada su capacidad para tomar decisiones informadas, causando daño significativo.
- Sistemas de IA que explotan vulnerabilidades de grupos específicos: Estos sistemas se aprovechan de las vulnerabilidades debido a la edad, discapacidad, o situaciones sociales o económicas, causando daño significativo.
- Sistemas de IA utilizados por autoridades públicas o en su nombre para fines de puntuación social: Estos sistemas evalúan o clasifican a individuos o grupos basándose en comportamientos sociales o características personales, lo que conduce a un tratamiento perjudicial o desproporcionado en contextos no relacionados o injustificado en relación con su comportamiento.
- Identificación biométrica remota «en tiempo real» en espacios públicos para fines de aplicación de la ley: Excepto en un número limitado de casos, como la búsqueda de víctimas de secuestro, explotación sexual o personas desaparecidas, la prevención de amenazas sustanciales e inminentes a la seguridad, o la identificación de sospechosos en delitos graves.
- Sistemas de IA que infieren emociones en lugares de trabajo o instituciones educativas: Excepto por razones médicas o de seguridad, está prohibido el uso de sistemas de IA para inferir emociones.
- Sistemas de IA que evalúan el riesgo de que individuos cometan delitos, basándose únicamente en el perfilado o en rasgos y características de personalidad: Excepto cuando se utilizan para apoyar evaluaciones humanas basadas en hechos objetivos y verificables vinculados a una actividad criminal.
- Sistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de la recopilación no dirigida de Internet o imágenes de CCTV: Esto incluye la prohibición de sistemas que generan bases de datos de reconocimiento facial mediante el raspado indiscriminado de datos de Internet o de grabaciones de cámaras de seguridad sin un objetivo específico.
Foto: ChatGPT4
Mantente informado de las noticias más relevantes en nuestro canal de Telegram
En Grupo MET podemos ayudarte a implementar esta y muchas mas herramienta para optimizar tu trabajo. ¡Contáctanos para saber más!