parallax background

Tempo -Humanithics. La legalidad de la IA

Grupo Tempo desarrolla el plan de igualdad para un Centro Educativo en Madrid.
10/12/2020
Eventos el “RE-ENCUENTRO CON MI EQUIPO”
08/03/2021

El Reglamento (UE) n.º 1689/2024 por el que se establecen normas armonizadas en materia de inteligencia artificial (el «Reglamento» o «Ley IA») se ha publicado finalmente en el Diario Oficial de la UE y en vigor desde el 1 de agosto de 2024.

PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS 

 SISTEMAS DE IA QUE MANIPULEN A LAS PERSONASArtículo 5.1. a) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un grupo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que una persona tome una decisión que de otro modo no habría tomado, de un modo que provoque, o sea probable que provoque, perjuicios considerables a esa persona, a otra persona o a un grupo de personas.
SISTEMAS QUE SE APROVECHEN DE LA VULNERABILIDAD DE LAS PERSONASArtículo 5.1.b) La introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona o un grupo específico de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con el objetivo o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho grupo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra.
SISTEMAS QUE CLASIFIQUEN O EVALÚEN A GRUPOS DE PERSONAS EN FUNCIÓN A SU GRUPO SOCIAL, CARACTERÍSTICAS PERSONALES O COMPORTAMIENTO SOCIALArtículo 5.1.c) … de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:Un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos enteros de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente;un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;
SISTEMAS PARA ELABORAR PERFILES PREDICTIVOS DE ACTIVIDAD DELICTIVA DE PERSONASEl apartado d) del artículo 5.1. tiene una excepción en la que esta tecnología se puede utilizar: esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la evaluación humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva;
SISTEMAS DE RECONOCIMIENTO FACIALla introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión;
SISTEMAS DE RECONOCIMIENTO DE EMOCIONES EN LUGARES DE TRABAJO O CENTROS EDUCATIVOSAquí también se establece una excepción:excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad
SISTEMAS DE CATEGORIZACIÓN BIOMÉTRICA CON SESGOS RACIALES, SOCIALES, DE ORIENTACIÓN SEXUAL, POLÍTICOS O RELIGIOSOSLa introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricospara deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.EXCEPCIÓN: Esta prohibición no abarca el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente, como imágenes, basado en datos biométricos ni la categorización de datos biométricos en el ámbito de la aplicación de la ley;
USO DE SISTEMAS DE IDENTIFICACIÓN BIOMÉTRICA  REMOTA «EN TIEMPO REAL» EN ESPACIOS DE ACCESO PÚBLICO CON FINES DE APLICACIÓN DE LA LEYEXCEPCIONES: La búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas;La prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista;La localización o identificación de una persona sospechosa de haber cometido una infracción penal a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal. El uso del sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público solo se autorizará si la autoridad encargada de la aplicación de la ley ha completado una evaluación de impacto relativa a los derechos fundamentales. En el caso de España es el Ministerio del Interior el organismo competente de autorizar estos sistemas.

PRÁCTICAS DE INTELIGENCIA ARTIFICIAL ALTO RIESGO

El artículo 6 del Reglamento define qué se debe considerar un sistema de IA de alto riesgo:

Diagrama, Aplicación

Descripción generada automáticamente

Como vemos, son sistemas que no están prohibidos, pero que requieren de una serie de requisitos de control de riesgos, seguridad en su funcionamiento, supervisión y transparencia sobre cómo funcionan, que deben cumplirse previamente a su puesta en servicio.

El ANEXO I establece este grupo de maquinaria e instalaciones en donde pueden estar integrados estos sistemas de IA y que podrían considerarse por su impacto sobre la seguridad y salud de los ciudadanos, de alto riesgo.

Una captura de pantalla de un celular con letras

Descripción generada automáticamente con confianza media

El ANEXO I amplía el catálogo de sistemas de IA integrados de máquinas o instalaciones que pudieran ser considerados de alto riesgo en una segunda lista complementaria. Veámoslo.

Diagrama

Descripción generada automáticamente

A su vez, EL ANEXO III establece esta lista clasificatoria de sistemas de IA de ALTO RIESGO:

Calendario

Descripción generada automáticamente

El ANEXO III establece otra serie de listas de sistemas de IA de alto riesgo, en las que incluye como tal determinados usos (prácticas) no permitidas en el anterior artículo 5, siempre y cuando se apliquen las salvaguardias de seguridad y garantía de los derechos fundamentales de los ciudadanos que se supone deben cumplir los poderes públicos. En este caso con los sistemas de categorización e identificación biométrica, o sistemas de análisis de contexto o situación social y personal y predicción de que dichas personas pudieran ser víctimas de infracciones penales.

Y recuerde revisar bien sus sistemas organizativos y de automatización y conformarlos a la ley. Hay muchas reglas, muchas excepciones y sistemas de gestión de riesgo que nos permite seguir adelante. 

Simplemente especialistas en la ley y la tecnología

José Luis Casero
Socio Área Consultoría de Gestión

Socio Director de Grupo Tempo Consultores SL

jlcasero@humanithics.eu   

jlcasero@grupotempo.com


¿Quieres saber mas?. Pues ponte en contacto con nosotros jlcasero@grupotempo.com

Trabajamos con el cliente desde el rapeo de sus desarrollos informatico y de IA hasta la proposición de las recomendaciones y gestion de riesgos con la legislación actual.

Contáctanos