Herramienta de Clasificacion de Riesgo IA
Determina el nivel de riesgo de tus sistemas IA segun el EU AI Act. Evaluacion en 5 pasos cubriendo Articulos 5, 6 y Anexos I-III.
This template includes both English and Spanish versions. Scroll down to find "Versión Española".
AI Risk Classification Tool
Based on EU AI Act — Regulation 2024/1689 | VORLUX AI
Purpose
This tool helps organizations determine the risk classification of their AI systems under the EU AI Act. Classifications determine your compliance obligations.
Step 1: Check for Prohibited Practices (Article 5)
Does your AI system perform any of the following? If YES to any → PROHIBITED (must discontinue)
- Social scoring by public authorities
- Real-time remote biometric identification in public spaces (with exceptions)
- Subliminal manipulation that causes harm
- Exploitation of vulnerabilities (age, disability, social situation)
- Predictive policing based solely on profiling
- Untargeted scraping for facial recognition databases
- Emotion recognition in workplace or education (with exceptions)
- Biometric categorization inferring sensitive attributes
Result: If any checked → System is PROHIBITED. Stop here.
Step 2: Check Annex I — High-Risk Product Safety
Is your AI system a safety component of, or itself constitutes, a product covered by:
- Machinery (Regulation 2023/1230)
- Toys (Directive 2009/48/EC)
- Lifts (Directive 2014/33/EU)
- Medical devices (Regulations 2017/745, 2017/746)
- Motor vehicles (Regulation 2019/2144)
- Aviation (Regulation 2018/1139)
- Rail (Directive 2016/797)
- Marine equipment (Directive 2014/90/EU)
Result: If any checked → HIGH RISK. Full compliance required (Articles 8-15).
Step 3: Check Annex III — High-Risk Use Cases
Does your AI system fall into any of these categories?
Biometrics (3a, 3b)
- Remote biometric identification (not real-time in public)
- Biometric categorization
- Emotion recognition
Critical Infrastructure (4)
- Safety component of critical infrastructure (water, gas, heating, electricity, transport)
Education (5)
- Determining access to education
- Evaluating learning outcomes
- Monitoring prohibited behavior during tests
Employment (6)
- Recruitment and selection (CV screening, interview analysis)
- Promotion, termination, task allocation decisions
- Monitoring and evaluating work performance
Essential Services (7)
- Creditworthiness assessment
- Risk assessment for life/health insurance
- Evaluation of emergency calls (dispatching)
Law Enforcement (8)
- Individual risk assessment (recidivism prediction)
- Polygraphs and similar tools
- Evidence analysis
- Crime prediction (geographic or individual)
Migration (9)
- Risk assessment for irregular migration
- Examination of asylum applications
- Identification of persons (border control)
Justice & Democracy (10)
- Assistance to judicial authorities (legal research, case analysis)
- Influencing election outcomes
Result: If any checked → Likely HIGH RISK (subject to Article 6(3) exception).
Step 4: Article 6(3) Exception Check
Even if listed in Annex III, your system is NOT high-risk if ALL of these apply:
- The AI system performs a narrow procedural task
- It improves the result of a previously completed human activity
- It detects decision patterns without replacing human assessment
- It performs a preparatory task relevant to Annex III use cases
AND the AI output does not create a significant risk of harm to health, safety, or fundamental rights.
Result: If all checked → LIMITED RISK (transparency obligations only).
Step 5: Determine Your Classification
| Classification | Your Obligations |
|---|---|
| Prohibited | Must discontinue immediately |
| High Risk | Full compliance: risk management, data governance, technical documentation, transparency, human oversight, accuracy/robustness |
| Limited Risk | Transparency: inform users they interact with AI, mark AI-generated content |
| Minimal Risk | No specific obligations (voluntary codes of conduct) |
Your Assessment
| Field | Your Input |
|---|---|
| System name | _________________ |
| Description | _________________ |
| Risk classification | ☐ Prohibited ☐ High ☐ Limited ☐ Minimal |
| Key articles | _________________ |
| Assessment date | _________________ |
| Assessed by | _________________ |
| Next review | _________________ |
Next Steps
Based on your classification:
- High Risk: You need technical documentation (Annex IV), conformity assessment (Art. 43), and registration (Art. 49). Contact us for a compliance audit →
- Limited Risk: Implement transparency measures. We can help. Request assessment →
- Minimal Risk: No mandatory obligations, but we recommend documenting your AI inventory.
Template provided by VORLUX AI | vorluxai.com | Based on EU AI Act Regulation 2024/1689 This template is for guidance only and does not constitute legal advice.
Versión Española
Herramienta de Clasificación de Riesgos para Inteligencia Artificial
Basado en la Directiva UE sobre IA — Reglamento 2024/1689 | VORLUX AI
Propósito
Esta herramienta ayuda a las organizaciones a determinar la clasificación del riesgo de sus sistemas de inteligencia artificial bajo la Directiva UE sobre IA. Las clasificaciones determinan sus obligaciones de cumplimiento.
Paso 1: Verificar Prácticas Prohibidas (Artículo 5)
¿Su sistema de inteligencia artificial realiza alguna de las siguientes actividades? Si SÍ a cualquier una → PROHIBIDO (debe cesar)
- Puntuación social por parte de autoridades públicas
- Identificación biométrica en tiempo real en espacios públicos (con excepciones)
- Manipulación subliminal que causa daño
- Explotación de vulnerabilidades (edad, discapacidad, situación social)
- Policía predictiva basada únicamente en perfiles
- Scraping no dirigido para bases de datos de reconocimiento facial
- Reconocimiento emocional en el lugar de trabajo o la educación (con excepciones)
- Categorización biométrica que infiere atributos sensibles
Resultado: Si alguna marcada → El sistema es PROHIBIDO. Detener aquí.
Paso 2: Verificar Anexo I — Seguridad de Productos con Alto Riesgo
¿Su sistema de inteligencia artificial es un componente de seguridad o constituye en sí mismo un producto cubierto por:
- Máquinas (Reglamento 2023/1230)
- Juguetes (Directiva 2009/48/CE)
- Ascensores (Directiva 2014/33/UE)
- Dispositivos médicos (Regulaciones 2017/745, 2017/746)
- Vehículos motorizados (Reglamento 2019/2144)
- Aviación (Reglamento 2018/1139)
- Ferrocarril (Directiva 2016/797)
- Equipo marítimo (Directiva 2014/90/UE)
Resultado: Si alguna marcada → ALTO RIESGO. Cumplimiento completo requerido (Artículos 8-15).
Paso 3: Verificar Anexo III — Uso de Alto Riesgo
¿Su sistema de inteligencia artificial cae en alguna de estas categorías?
Biometría (3a, 3b)
- Identificación biométrica remota (no en tiempo real en espacios públicos)
- Categorización biométrica
- Reconocimiento emocional
Infraestructura Crítica (4)
- Componente de seguridad de infraestructuras críticas (agua, gas, calefacción, electricidad, transporte)
Educación (5)
- Determinar acceso a la educación
- Evaluación de resultados de aprendizaje
- Monitoreo de comportamiento prohibido durante exámenes
Empleo (6)
- Selección y contratación (análisis de currículum, análisis de entrevistas)
- Decisión de promoción, despido o asignación de tareas
- Monitoreo y evaluación del desempeño laboral
Servicios Esenciales (7)
- Evaluación de la capacidad crediticia
- Evaluación de riesgo para seguros de vida/seguros de salud
- Análisis de llamadas de emergencia (despacho)
Vigilancia (8)
- Evaluación individual de riesgos (predicción de reincidencia)
- Polígrafos y herramientas similares
- Análisis de pruebas
- Predicción de delitos (geográfica o individual)
Migración (9)
- Evaluación de riesgo para migrantes irregulares
- Examen de solicitudes de asilo
- Identificación de personas (control fronterizo)
Justicia y Democracia (10)
- Asistencia a autoridades judiciales (investigación legal, análisis de casos)
- Influencia en resultados electorales
Resultado: Si alguna marcada → Probablemente ALTO RIESGO (excepción del artículo 6(3)).
Paso 4: Verificar Excepción del Artículo 6(3)
A pesar de estar incluido en el Anexo III, su sistema no es alto riesgo si se cumplen todas las siguientes condiciones:
- El sistema de inteligencia artificial realiza una tarea procedimental estrecha
- Mejora el resultado de una actividad humana previamente completada
- Detecta patrones de decisión sin reemplazar la evaluación humana
- Realiza una tarea preparatoria relevante para los casos de uso del Anexo III
Y el output del sistema no crea un riesgo significativo de daño a la salud, seguridad o derechos fundamentales.
Resultado: Si todas las condiciones se cumplen → RIESGO LIMITADO (obligaciones de transparencia solo).
Paso 5: Determinar Su Clasificación
| Clasificación | Sus Obligaciones |
|---|---|
| Prohibido | Debe cesar inmediatamente |
| Alto Riesgo | Cumplimiento completo: gestión de riesgos, gobernanza de datos, documentación técnica, transparencia, supervisión humana, precisión/robustez |
| Riesgo Limitado | Transparencia: informar a los usuarios que interactúan con IA, marcar contenido generado por IA |
| Riesgo Mínimo | No hay obligaciones específicas (ver nota) |