Ir al contenido

Sistemas de IA de Alto Riesgo según el EU AI Act

Guía de Clasificación y Requisitos
17 de octubre de 2025 por
Sistemas de IA de Alto Riesgo según el EU AI Act
Rodrigo Cilla Ugarte
| Sin comentarios aún

El Reglamento Europeo de Inteligencia Artificial (EU AI Act) establece un marco normativo para la comercialización y puesta en servicio de sistemas de IA en la Unión Europea. Un elemento central de esta regulación es la categoría de "alto riesgo", designada para aquellos sistemas con potencial de afectar negativamente a la salud, la seguridad o los derechos fundamentales de las personas.

Comprender si un sistema entra en esta categoría es crucial, ya que activa una serie de requisitos técnicos y de gobernanza de obligado cumplimiento. Para ello, el Artículo 6 del EU AI Act establece dos vías principales de clasificación:

  1. Sistemas de IA que son componentes de seguridad en productos ya sujetos a la legislación de la UE, según se detalla en el Anexo I.

  2. Sistemas de IA que operan en áreas críticas específicamente listadas en el Anexo III del Reglamento.

A continuación, exploramos en detalle cada una de estas categorías y los requisitos que implican.

Es importante destacar una distinción fundamental en el impacto que esta clasificación tiene sobre los procesos de desarrollo. Para los proveedores de sistemas de IA como componentes de seguridad en productos ya regulados, que operan en sectores con una estricta regulación, la adaptación al EU AI Act implicará, en muchos casos, la extensión de sus sistemas de gestión de la calidad (SGC) existentes para cubrir los nuevos requisitos específicos de la IA.

Por el contrario, para los desarrolladores de sistemas de IA en áreas críticas, que pueden no contar con un SGC formalizado, la implementación de los requisitos desde cero representa un desafío de mayor envergadura, con un impacto más profundo en sus metodologías y ciclos de vida de desarrollo.

Sistemas de IA como Componentes de Seguridad en Productos Regulados (Anexo I)

La primera categoría, detallada en el Anexo I del Reglamento, se refiere a sistemas de IA que funcionan como componentes de seguridad dentro de productos que ya están sujetos a una estricta legislación armonizada de la Unión. Si un software de IA se integra en alguno de los siguientes dominios, se clasifica por defecto como de alto riesgo:

Dominio del Producto

Normativa Específica

Ámbito de Aplicación

Maquinaria y Robótica

Directiva 2006/42/CE

Máquinas y componentes de seguridad.


Directiva 2014/33/UE

Ascensores y componentes de seguridad para ascensores.


Directiva 2014/53/UE

Equipos radioeléctricos.

Transporte por Carretera

Reglamento (UE) 2018/858

Homologación de vehículos de motor y sus remolques.


Reglamento (UE) nº 168/2013

Vehículos de dos o tres ruedas y cuatriciclos.


Reglamento (UE) nº 167/2013

Vehículos agrícolas y forestales.


Reglamento (UE) 2019/2144

Seguridad general de vehículos de motor y protección de ocupantes.

Transporte Ferroviario

Directiva (UE) 2016/797

Interoperabilidad del sistema ferroviario.

Transporte Aéreo

Reglamento (UE) 2018/1139

Normas comunes en la aviación civil (incluye aeronaves no tripuladas).


Reglamento (CE) nº 300/2008

Normas comunes para la seguridad de la aviación civil.

Transporte Marítimo y Fluvial

Directiva 2014/90/UE

Equipamiento marino.


Directiva 2013/53/UE

Embarcaciones de recreo y motos acuáticas.

Transporte por Cable

Reglamento (UE) 2016/424

Instalaciones de transporte por cable.

Productos Sanitarios

Reglamento (UE) 2017/745

Productos sanitarios.


Reglamento (UE) 2017/746

Productos sanitarios para diagnóstico in vitro.

Juguetes

Directiva 2009/48/CE

Seguridad de los juguetes.

Equipos de Protección Individual

Reglamento (UE) 2016/425

Equipos de protección individual (EPI).

Componentes Industriales

Reglamento (UE) 2016/426

Aparatos de gas.


Directiva 2014/68/UE

Equipos a presión.


Directiva 2014/34/UE

Aparatos para atmósferas potencialmente explosivas (ATEX).

En resumen, si un sistema de IA se desarrolla con la intención de ser utilizado como componente de seguridad en cualquiera de los productos listados, o si el propio sistema de IA es un producto sujeto a dicha legislación, se clasifica automáticamente como de alto riesgo. Esto impone a los desarrolladores la obligación de integrar los requisitos del EU AI Act dentro de los marcos de conformidad ya existentes para estos productos. Así, la inmensa mayoría de los productos de IA médicos —desde software de análisis de imagen diagnóstica hasta sistemas de apoyo a la decisión clínica—, ya cubiertos por los reglamentos MDR o IVDR, caerían dentro de esta categoría. Para sus desarrolladores, esto implica que el proceso de certificación y marcado CE de sus productos deberá ahora incorporar y demostrar el cumplimiento de los exigentes requisitos del Reglamento de IA.

Sistemas de IA diseñados para operar en áreas críticas (Anexo III)

La segunda categoría se centra en el uso previsto del sistema y la regula el Anexo III. Se presume que una IA es de alto riesgo si está destinada a operar en alguna de las siguientes áreas y casos de uso específicos:

Área Crítica

Casos de Uso Específicos

Identificación biométrica

Sistemas de identificación biométrica remota "en tiempo real" y "diferido".

Infraestructuras críticas

Sistemas de IA como componentes de seguridad en la gestión del tráfico y el suministro de agua, gas, calefacción y electricidad.

Educación y formación

Sistemas para determinar el acceso a centros educativos o para evaluar a los estudiantes.

Empleo y gestión de trabajadores

Sistemas para la selección de candidatos, la asignación de tareas o la evaluación del rendimiento.

Acceso a servicios esenciales

Sistemas para evaluar la solvencia crediticia, la elegibilidad para prestaciones públicas o la priorización de servicios de emergencia.

Aplicación de la ley

Sistemas para evaluar el riesgo de reincidencia, polígrafos, análisis de pruebas o predicción de delitos.

Migración, asilo y fronteras

Sistemas para evaluar riesgos de seguridad, verificar documentos de viaje o asistir en el examen de solicitudes de asilo.

Justicia y procesos democráticos

Sistemas para asistir a autoridades judiciales o para influir en el comportamiento de voto.

Por lo tanto, la clasificación en esta segunda categoría depende fundamentalmente del propósito para el cual el sistema de IA ha sido diseñado y comercializado. Si su caso de uso se encuentra entre los listados en el Anexo III, o si por su naturaleza es análogo a los descritos, se activa la presunción de alto riesgo. La evaluación debe considerar si el sistema, por su finalidad y contexto, encaja en el espíritu de las áreas críticas identificadas, lo que conduce a la necesidad de evaluar si la excepción del Artículo 6 es aplicable.

La Excepción Clave del Artículo 6: Relevancia de la Influencia del Sistema

El reglamento introduce una excepción relevante en la clausula 6.3. Un sistema que opere en las áreas críticas mencionadas podría no ser considerado de alto riesgo si su resultado es puramente accesorio para la acción correspondiente y, por tanto, no influye de manera sustancial en el resultado de la misma.

El análisis de relevancia es clave: si el sistema de IA solo realiza una tarea preparatoria y la decisión final depende de un ser humano que puede verificar o desestimar fácilmente la recomendación, es posible que el sistema no se clasifique como de alto riesgo.

Si un sistema cumple los criterios de la primera categoría, o los de la segunda sin que aplique esta excepción, se considera de alto riesgo y debe hacer frente a una serie de desafíos de ingeniería.

Requisitos Obligatorios para Proveedores de Sistemas de IA de Alto Riesgo

Una vez que un sistema es clasificado como de alto riesgo, los proveedores deben demostrar diligencia durante todo su ciclo de vida, lo que se traduce en requisitos técnicos y de gobernanza específicos:

Afrontar estos requisitos sin un marco de trabajo adecuado representa un consumo considerable de recursos de ingeniería, desviando el foco del equipo de la innovación principal del producto.

La Solución: Venturalítica, una Plataforma Estratégica para la Conformidad Regulatoria

Venturalítica ofrece una plataforma SaaS diseñada para traducir la complejidad regulatoria en un framework de trabajo para equipos de desarrollo, integrando el cumplimiento en el ciclo de vida del software.

Nuestra plataforma proporciona las siguientes capacidades:

  • Asistencia en la Clasificación de Riesgo: La distinción entre "influencia sustancial" y "accesorio" es compleja. Nuestro asistente inteligente guía a los equipos en este análisis de impacto para una correcta clasificación del sistema desde las fases iniciales.

  • Gestión Integral de Requisitos: Venturalítica proporciona un marco de trabajo y herramientas para implementar cada una de las obligaciones del EU AI Act, desde la gestión de riesgos hasta la generación de la documentación técnica.

  • Optimización del "Time to Compliance": Nuestra métrica clave es la reducción del tiempo necesario para alcanzar la conformidad. Transformamos un proceso que podría requerir meses de consultoría en un flujo de trabajo ágil y gestionado, liberando recursos de desarrollo.

Navegue con seguridad en el entorno de la IA regulada. Utilice el reglamento como una guía y permita que Venturalítica sea su aliado estratégico.

Solicite una demostración para conocer cómo Venturalítica puede integrarse en su ciclo de desarrollo y asegurar la conformidad de su sistema con el EU AI Act.

En la siguiente publicación de esta serie, se analizará en profundidad el Artículo 9, relativo a los sistemas de gestión de riesgos.

Sistemas de IA de Alto Riesgo según el EU AI Act
Rodrigo Cilla Ugarte 17 de octubre de 2025
Compartir esta publicación
Etiquetas
Archivar
Iniciar sesión para dejar un comentario