El Reglamento (UE) n.º 1689/2024 por el que se establecen normas armonizadas en materia de inteligencia artificial (el «Reglamento» o «Ley IA») se ha publicado finalmente en el Diario Oficial de la UE y en vigor desde el 1 de agosto de 2024.
PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS
SISTEMAS DE IA QUE MANIPULEN A LAS PERSONAS | Artículo 5.1. a) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un grupo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que una persona tome una decisión que de otro modo no habría tomado, de un modo que provoque, o sea probable que provoque, perjuicios considerables a esa persona, a otra persona o a un grupo de personas. |
SISTEMAS QUE SE APROVECHEN DE LA VULNERABILIDAD DE LAS PERSONAS | Artículo 5.1.b) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona o un grupo específico de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con el objetivo o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho grupo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra. |
SISTEMAS QUE CLASIFIQUEN O EVALÚEN A GRUPOS DE PERSONAS EN FUNCIÓN A SU GRUPO SOCIAL, CARACTERÍSTICAS PERSONALES O COMPORTAMIENTO SOCIAL | Artículo 5.1.c) … de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:Un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos enteros de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente;un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este; |
SISTEMAS PARA ELABORAR PERFILES PREDICTIVOS DE ACTIVIDAD DELICTIVA DE PERSONAS | El apartado d) del artículo 5.1. tiene una excepción en la que esta tecnología se puede utilizar: esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la evaluación humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva; |
SISTEMAS DE RECONOCIMIENTO FACIAL | la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión; |
SISTEMAS DE RECONOCIMIENTO DE EMOCIONES EN LUGARES DE TRABAJO O CENTROS EDUCATIVOS | Aquí también se establece una excepción:excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad |
SISTEMAS DE CATEGORIZACIÓN BIOMÉTRICA CON SESGOS RACIALES, SOCIALES, DE ORIENTACIÓN SEXUAL, POLÍTICOS O RELIGIOSOS | La introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricospara deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.EXCEPCIÓN: Esta prohibición no abarca el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente, como imágenes, basado en datos biométricos ni la categorización de datos biométricos en el ámbito de la aplicación de la ley; |
USO DE SISTEMAS DE IDENTIFICACIÓN BIOMÉTRICA REMOTA «EN TIEMPO REAL» EN ESPACIOS DE ACCESO PÚBLICO CON FINES DE APLICACIÓN DE LA LEY | EXCEPCIONES: La búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas;La prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista;La localización o identificación de una persona sospechosa de haber cometido una infracción penal a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal. El uso del sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público solo se autorizará si la autoridad encargada de la aplicación de la ley ha completado una evaluación de impacto relativa a los derechos fundamentales. En el caso de España es el Ministerio del Interior el organismo competente de autorizar estos sistemas. |
PRÁCTICAS DE INTELIGENCIA ARTIFICIAL ALTO RIESGO
El artículo 6 del Reglamento define qué se debe considerar un sistema de IA de alto riesgo:
Como vemos, son sistemas que no están prohibidos, pero que requieren de una serie de requisitos de control de riesgos, seguridad en su funcionamiento, supervisión y transparencia sobre cómo funcionan, que deben cumplirse previamente a su puesta en servicio.
El ANEXO I establece este grupo de maquinaria e instalaciones en donde pueden estar integrados estos sistemas de IA y que podrían considerarse por su impacto sobre la seguridad y salud de los ciudadanos, de alto riesgo.
El ANEXO I amplía el catálogo de sistemas de IA integrados de máquinas o instalaciones que pudieran ser considerados de alto riesgo en una segunda lista complementaria. Veámoslo.
A su vez, EL ANEXO III establece esta lista clasificatoria de sistemas de IA de ALTO RIESGO:
El ANEXO III establece otra serie de listas de sistemas de IA de alto riesgo, en las que incluye como tal determinados usos (prácticas) no permitidas en el anterior artículo 5, siempre y cuando se apliquen las salvaguardias de seguridad y garantía de los derechos fundamentales de los ciudadanos que se supone deben cumplir los poderes públicos. En este caso con los sistemas de categorización e identificación biométrica, o sistemas de análisis de contexto o situación social y personal y predicción de que dichas personas pudieran ser víctimas de infracciones penales.
Y recuerde revisar bien sus sistemas organizativos y de automatización y conformarlos a la ley. Hay muchas reglas, muchas excepciones y sistemas de gestión de riesgo que nos permite seguir adelante.
Simplemente especialistas en la ley y la tecnología
José Luis Casero
Socio Área Consultoría de Gestión
Socio Director de Grupo Tempo Consultores SL
Trabajamos con el cliente desde el rapeo de sus desarrollos informatico y de IA hasta la proposición de las recomendaciones y gestion de riesgos con la legislación actual.