Volver a plantillas
compliance assessment-template

Evaluación de Impacto en la Protección de Datos para Sistemas de IA (GDPR Art. 35 + Reglamento de IA de la UE)

Plantilla completa de EIPD para sistemas de IA que combina los requisitos del artículo 35 del RGPD con las obligaciones de gestión de riesgos del Reglamento de IA de la UE — cubre descripción del tratamiento, evaluación de necesidad, identificación de riesgos, mitigación y umbrales de consulta previa.

Descargar gratis Request customization
🌐
Bilingual / Bilingüe

This template includes both English and Spanish versions. Scroll down to find "Versión Española".

Disclaimer: This is guidance only, not legal advice. Consult qualified legal counsel and your DPO before adopting or submitting this DPIA. | Este documento es solo orientativo, no constituye asesoramiento jurídico.


Data Protection Impact Assessment (DPIA) for AI Systems

Document Reference: [ORG-DPIA-AI-___] DPIA Version: [1.0] Status: [ ] Draft | [ ] DPO Review | [ ] Approved | [ ] Approved with Conditions | [ ] Rejected System / Processing Activity Name: Prepared by: Department / Business Owner: DPO Reviewer: Date Initiated: Date DPO Review Completed: Date Approved: Next Scheduled Review: [Date or event trigger]


DPIA At a Glance — Executive Summary

Complete this section after all other sections are finished. Maximum 1 page.

ItemDetails
AI System Name
Purpose of AI Processing
Categories of Personal Data Processed
Number / Volume of Data Subjects
EU AI Act Risk ClassificationUnacceptable / High / Limited / Minimal
GDPR High-Risk Indicators PresentYes / No (list below)
Overall DPIA Risk LevelLow / Medium / High / Very High
DPO RecommendationProceed / Proceed with conditions / Do not proceed
Supervisory Authority Consultation RequiredYes / No
Approval Decision
Conditions / Required Actions

Part 1: Description of the Processing

1.1 AI System Overview

System name:

Vendor / Provider (if external):

System type: (select all that apply)

  • Generative AI (text, image, audio, video, code)
  • Predictive AI (scoring, forecasting, classification)
  • Automated decision-making system
  • AI-assisted decision support tool
  • Natural language processing / chatbot
  • Computer vision / image recognition
  • Voice / audio processing
  • Recommendation system
  • Behavioural analysis / profiling
  • Other: ___________

EU AI Act Risk Category:

  • Unacceptable Risk (prohibited — must not be deployed)
  • High Risk (Annex III — full compliance required)
    • Biometric identification and categorisation
    • Critical infrastructure management
    • Education and vocational training
    • Employment, workers management, and access to self-employment
    • Access to essential private and public services and benefits
    • Law enforcement
    • Migration, asylum, and border control management
    • Administration of justice and democratic processes
  • Limited Risk (transparency obligations apply)
  • Minimal Risk

System description: (Describe the AI system, how it works, what it does, and how outputs are used. Include information about the underlying model/algorithm if known.)


What problem does this AI system solve, and what is the expected business benefit?


1.2 Purposes of Processing

List all purposes for which personal data is processed by or through this AI system:

Purpose IDPurpose DescriptionLegal Basis (GDPR Art. 6/9)Applicable to Special Category Data?
P1
P2
P3

Legal bases used (tick all that apply):

  • Art. 6(1)(a) — Consent
  • Art. 6(1)(b) — Contract performance
  • Art. 6(1)(c) — Legal obligation
  • Art. 6(1)(d) — Vital interests
  • Art. 6(1)(e) — Public task
  • Art. 6(1)(f) — Legitimate interests (LIA required — attach)
  • Art. 9(2)(a) — Explicit consent (special categories)
  • Art. 9(2)(b) — Employment / social security obligations
  • Art. 9(2)(h) — Health / medical purposes
  • Other: ___________

1.3 Data Flows

Data sources (where does personal data originate from?):

SourceData TypeVolume/FrequencyDirect/Indirect

Data flows diagram: (Attach a data flow diagram showing: data source → collection method → AI system inputs → AI processing → outputs → downstream use → storage → deletion. See Annex A for template.)

[ ] Data flow diagram attached

International transfers:

  • Does personal data flow outside the EU/EEA? [ ] Yes [ ] No [ ] Unknown
  • If yes, destination country(ies): ___________
  • Transfer mechanism: [ ] Adequacy decision [ ] Standard Contractual Clauses [ ] BCRs [ ] Other: ___________
  • Transfer Impact Assessment conducted: [ ] Yes [ ] No [ ] In progress

1.4 Categories of Personal Data

Data CategorySpecific Data TypesSpecial Category (Art. 9)?Volume / Number of Data Subjects
Identity dataNames, employee IDs, usernamesNo
Contact dataEmail, phone, addressNo
Behavioural dataUsage patterns, interaction dataNo
Location dataIP addresses, geographic locationNo
Financial dataSalary, payment data, credit dataNo
Health dataMedical records, sick leaveYES
Biometric dataFingerprints, facial data, voiceYES
Genetic dataYES
Racial/ethnic originYES
Political opinionsYES
Religious beliefsYES
Sexual orientationYES
Criminal convictionsYES
Other:

Total estimated number of data subjects:

Are any data subjects in vulnerable groups? (children, elderly, employees, patients, etc.)

  • Yes — specify: ___________
  • No

1.5 Processing Operations

Describe the specific processing operations performed by the AI system:

OperationDescriptionAutomated / Human-in-loop
Data collection / ingestion
Data pre-processing / cleaning
Model training (if applicable)
Inference / prediction generation
Output delivery to users
Output storage and logging
Data deletion / anonymisation

Retention periods:

Data TypeRetention PeriodBasisDeletion Method
Training data
AI-generated outputs
System logs
Model parameters

Part 2: Necessity and Proportionality Assessment

2.1 Necessity Assessment

For each purpose identified in Section 1.2, assess whether the AI processing is necessary:

PurposeCould the purpose be achieved without AI or with less privacy-intrusive means?Is AI use proportionate to the benefit?Assessment
P1[ ] Necessary [ ] Not necessary [ ] Uncertain
P2[ ] Necessary [ ] Not necessary [ ] Uncertain
P3[ ] Necessary [ ] Not necessary [ ] Uncertain

2.2 Data Minimisation

QuestionResponse
Is only the minimum necessary personal data collected?[ ] Yes [ ] No [ ] Partially
Can any data fields be removed without materially affecting system performance?[ ] Yes — list fields: ___ [ ] No
Is there a pseudonymisation or anonymisation option that has been evaluated?[ ] Yes (implemented/rejected — explain) [ ] No
Are test/development environments using anonymised data?[ ] Yes [ ] No [ ] N/A

Data minimisation issues identified:


2.3 Accuracy and Data Quality

QuestionResponseAction Required
Are mechanisms in place to ensure input data accuracy?[ ] Yes [ ] No
Can data subjects access and correct their data?[ ] Yes [ ] No
Is the training data representative and free from known biases?[ ] Yes [ ] No [ ] Assessed below
Are there quality controls on AI outputs?[ ] Yes [ ] No

Bias and fairness assessment: (Describe any bias assessment conducted on training data and AI outputs. Reference any bias testing methodology used.)


Bias risk level: [ ] Low [ ] Medium [ ] High

2.4 Transparency and Right to Explanation

QuestionResponse
Are data subjects informed about the AI processing in the privacy notice?[ ] Yes [ ] No — action required
Do data subjects know when AI is being used to make or support decisions affecting them?[ ] Yes [ ] No — action required
Where automated decision-making (Art. 22 GDPR) applies, can a human review be requested?[ ] Yes [ ] No [ ] N/A — Art. 22 not applicable
Can the AI system provide an explanation of its outputs (explainability)?[ ] Yes [ ] Partially [ ] No
Is the AI system able to demonstrate compliance with Art. 22 safeguards?[ ] Yes [ ] No [ ] N/A

2.5 Compliance with Data Subject Rights

Assess how the AI system accommodates each right:

RightHow accommodatedGap / Issue
Right of access (Art. 15)
Right to rectification (Art. 16)
Right to erasure (Art. 17)
Right to restriction (Art. 18)
Right to data portability (Art. 20)
Right to object (Art. 21)
Rights re: automated decision-making (Art. 22)

Rights compliance gap summary:



Part 3: Risk Identification

3.1 GDPR High-Risk Indicator Screening

A DPIA is mandatory where processing is likely to result in high risk. Check all applicable indicators (AEPD guidance and EDPB WP248):

#High-Risk IndicatorApplies?Notes
1Automated decision-making with significant legal or similarly significant effects (Art. 22)[ ] Yes [ ] No
2Large-scale processing of special category data (Art. 9) or criminal conviction data (Art. 10)[ ] Yes [ ] No
3Systematic monitoring of publicly accessible areas[ ] Yes [ ] No
4Processing of data of vulnerable data subjects (children, employees, patients)[ ] Yes [ ] No
5Innovative use of technology (new AI application, novel use of existing AI)[ ] Yes [ ] No
6Use of data in a way data subjects would not reasonably expect (purpose creep)[ ] Yes [ ] No
7Denial of service, contract, or benefit based on AI scoring[ ] Yes [ ] No
8Large-scale profiling[ ] Yes [ ] No
9Combination / matching of datasets that data subjects would not expect[ ] Yes [ ] No

Number of high-risk indicators present: ___ (EDPB guidance: DPIA generally required where 2 or more criteria apply)

Is this DPIA mandatory? [ ] Yes [ ] No [ ] Precautionary (not legally required but conducted as good practice)

3.2 EU AI Act Risk Indicators

In addition to GDPR risks, assess risks under the EU AI Act:

AI Act Risk AreaApplicable?Risk LevelNotes
Fundamental rights impact[ ] Yes [ ] NoL / M / H
Safety risks to individuals[ ] Yes [ ] NoL / M / H
Discrimination or unfair treatment risk[ ] Yes [ ] NoL / M / H
Lack of human oversight on consequential decisions[ ] Yes [ ] NoL / M / H
Opacity / lack of explainability[ ] Yes [ ] NoL / M / H
Data quality and representativeness issues[ ] Yes [ ] NoL / M / H
Robustness and accuracy risks[ ] Yes [ ] NoL / M / H
Cybersecurity vulnerabilities[ ] Yes [ ] NoL / M / H

3.3 Risk Register

Identify specific risks to data subjects arising from this AI processing activity. Use the risk register below:

Risk IDRisk DescriptionSource (GDPR/AI Act/Both)Likelihood (1–5)Impact (1–5)Inherent Risk ScoreControls IdentifiedResidual Risk
R1Unauthorised access to personal data processed by AI systemGDPR
R2AI system produces discriminatory outputs based on protected characteristicsBoth
R3Personal data used to train AI model beyond original purposeGDPR
R4Automated decision causes adverse effect on data subject without human reviewBoth
R5Data subject unable to exercise their rights (access, erasure, explanation)GDPR
R6Inaccurate AI output used in decision affecting data subject’s interestsBoth
R7International transfer of personal data without adequate safeguardsGDPR
R8Data retention longer than necessary; deletion failureGDPR
R9AI system produces false or misleading outputs (hallucinations) affecting data subjectsAI Act
R10Third-party vendor security incident exposing processed personal dataGDPR
[Add further risks specific to this system]

Risk Score Scale:

  • Likelihood: 1 = Rare, 2 = Unlikely, 3 = Possible, 4 = Likely, 5 = Almost Certain
  • Impact: 1 = Negligible, 2 = Minor, 3 = Moderate, 4 = Significant, 5 = Severe
  • Inherent Risk Score = Likelihood × Impact
  • High risk threshold: ≥12 | Medium: 6–11 | Low: ≤5

Part 4: Risk Mitigation

4.1 Technical Measures

MeasureDescriptionStatusOwnerTarget Date
Encryption at restPersonal data encrypted at rest using [standard][ ] Implemented [ ] Planned [ ] N/A
Encryption in transitTLS 1.2+ for all data in transit[ ] Implemented [ ] Planned [ ] N/A
Access controlsRole-based access control; minimum necessary access[ ] Implemented [ ] Planned [ ] N/A
PseudonymisationTraining and/or inference data pseudonymised where possible[ ] Implemented [ ] Planned [ ] N/A
AnonymisationAI outputs anonymised before non-essential storage[ ] Implemented [ ] Planned [ ] N/A
Audit loggingFull audit trail of AI system access and outputs[ ] Implemented [ ] Planned [ ] N/A
Data minimisation (technical)Technical controls prevent over-collection[ ] Implemented [ ] Planned [ ] N/A
Automated deletionAutomated deletion schedule configured per retention policy[ ] Implemented [ ] Planned [ ] N/A
Human override / override mechanismData subjects can trigger human review of AI decisions[ ] Implemented [ ] Planned [ ] N/A
Output monitoringAI outputs monitored for accuracy, bias, anomalies[ ] Implemented [ ] Planned [ ] N/A
Penetration testingAI system and API security tested[ ] Implemented [ ] Planned [ ] N/A
Bias testingSystematic bias/fairness testing conducted pre-deployment and periodically[ ] Implemented [ ] Planned [ ] N/A

4.2 Organisational Measures

MeasureDescriptionStatusOwnerTarget Date
Data Processing AgreementDPA signed with AI vendor[ ] Signed [ ] In negotiation [ ] N/A
Training for system operatorsRelevant staff trained on data protection requirements[ ] Complete [ ] Planned
Privacy notice updatePrivacy notice updated to describe AI processing[ ] Complete [ ] Planned
Data subject rights procedureProcess for handling DSARs related to AI system[ ] Documented [ ] Planned
Incident response procedureSpecific procedure for AI-related data breaches[ ] Documented [ ] Planned
Vendor due diligenceThird-party AI vendor assessed for data protection compliance[ ] Complete [ ] Planned
AI system logging and auditSystem activity logged and reviewed regularly[ ] Implemented [ ] Planned
Human oversight procedureDefined procedure for human review of AI decisions[ ] Documented [ ] Planned
Bias and fairness review schedulePeriodic review of AI outputs for discriminatory patterns[ ] Scheduled [ ] Not yet
Data retention policyDocumented retention schedule enforced[ ] In place [ ] Needed

4.3 Risk Mitigation Summary

Risk IDOriginal Risk ScoreMitigation Measures AppliedResidual Risk ScoreResidual Risk LevelAccepted by DPO?
R1L / M / H[ ] Yes [ ] No
R2L / M / H[ ] Yes [ ] No
R3L / M / H[ ] Yes [ ] No
R4L / M / H[ ] Yes [ ] No
R5L / M / H[ ] Yes [ ] No
R6L / M / H[ ] Yes [ ] No
R7L / M / H[ ] Yes [ ] No
R8L / M / H[ ] Yes [ ] No
R9L / M / H[ ] Yes [ ] No
R10L / M / H[ ] Yes [ ] No

Residual risks that cannot be mitigated to acceptable level:

(If any residual risks remain at High, describe here and determine whether supervisory authority consultation is required — see Part 6.)



Part 5: DPO Consultation

5.1 DPO Review Checklist

The DPO must review and sign off on this DPIA before the AI system is deployed. The DPO should assess:

DPO Review ItemDPO FindingAction Required
Is the DPIA complete and of sufficient quality?
Are all relevant processing activities described?
Is the legal basis appropriate and well-documented?
Are all categories of personal data correctly identified?
Has data minimisation been adequately considered?
Are data subject rights adequately accommodated?
Are identified risks plausible and comprehensive?
Are proposed mitigations sufficient to reduce risks to acceptable level?
Has international transfer risk been adequately assessed?
Is supervisory authority consultation required (see Part 6)?
Does the AI system comply with Art. 22 where applicable?
Have any gaps in vendor DPAs been identified?

5.2 DPO Opinion

DPO Recommendation: (Select one)

  • Proceed — The DPIA identifies no residual high risks; the processing can proceed as described.
  • Proceed with conditions — The DPIA identifies residual risks that are acceptable subject to the conditions listed below.
  • Do not proceed pending prior consultation — Residual risks remain high; prior consultation with AEPD is required before processing begins.
  • Do not proceed — The processing is disproportionate, unlawful, or poses unacceptable risks to data subjects.

Conditions / Required actions (if applicable):


DPO name: DPO signature/approval date: Next DPIA review date (as recommended by DPO):

5.3 Business Owner Response to DPO Opinion

(Complete if DPO recommended conditions or do not proceed)

Do you accept the DPO’s conditions? [ ] Yes — with implementation plan below [ ] No — requesting escalation to [CEO/Board]

Implementation plan for DPO conditions:

ConditionActionOwnerDue DateCompleted

Escalation (if DPO recommendation not followed):

If the controller (organisation) decides to proceed against the DPO’s advice, GDPR Art. 35(8) requires the controller to document this decision. The DPO’s written opinion must be recorded, and the supervisory authority may be informed.

Documented decision to proceed against DPO advice (if applicable):


Authorised by: [Name, Title, Date]


Part 6: Supervisory Authority Consultation Triggers

6.1 When is Prior Consultation Required?

Under GDPR Art. 36, the controller must consult the supervisory authority (in Spain: AEPD) before processing where a DPIA indicates that processing would result in high residual risk and the controller cannot mitigate that risk with reasonable measures.

Additionally, the AEPD has published a list of processing types that always require prior consultation in Spain. Check whether the proposed AI processing appears on the AEPD’s current list.

6.2 Prior Consultation Trigger Assessment

TriggerApplies?Evidence / Notes
DPIA identifies high residual risk that cannot be mitigated[ ] Yes [ ] No
Processing appears on AEPD’s mandatory prior consultation list[ ] Yes [ ] No
AI system is a High-risk system under EU AI Act with significant GDPR implications[ ] Yes [ ] No
AI system involves large-scale profiling or automated decision-making with legal effects[ ] Yes [ ] No
AI system processes special category data at scale[ ] Yes [ ] No
Novel technology use where uncertainty about risks remains after DPIA[ ] Yes [ ] No

Is prior consultation with AEPD required? [ ] YES — see Section 6.3 [ ] NO — document rationale below

Rationale for not consulting (if applicable):


6.3 Prior Consultation Process (if required)

If prior consultation is triggered, the following steps apply:

StepActionResponsibleTimeline
1Compile consultation package (DPIA + processing description + contact details of DPO)DPOBefore processing begins
2Submit to AEPD via formal consultation channelDPO + LegalBefore processing begins
3Wait for AEPD responseDPOAEPD has 8 weeks to respond (extendable by 6 weeks for complex cases)
4Implement any AEPD recommendationsSystem Owner + AI OfficerPer AEPD guidance
5Document outcome and update DPIADPOAfter AEPD response
Do not begin processing until AEPD consultation period has elapsed or AEPD has responded

AEPD contact for prior consultation: [https://www.aepd.es/] — Consulta Previa / Prior Consultation

6.4 EU AI Act Notification Obligations

For High-risk AI systems under the EU AI Act, additional notification/registration obligations may apply to providers and deployers. Check with Legal and AI Officer whether:

ObligationApplies?Status
Registration in EU AI Act database (providers of high-risk AI systems)[ ] Yes [ ] No
Notification to national supervisory authority (AESIA in Spain) of high-risk deployment[ ] Yes [ ] No
Notified body conformity assessment (for specific high-risk categories)[ ] Yes [ ] No
EU AI Act post-market monitoring plan[ ] Yes [ ] No

Part 7: Ongoing Review and Monitoring

7.1 DPIA Review Triggers

This DPIA must be reviewed:

TriggerReview Required?Responsible
Annual scheduled reviewYesDPO + System Owner
Material change to AI system functionalityYesDPO + System Owner
Change in categories of personal data processedYesDPO
Change in purpose of processingYesDPO
Change in AI vendor or sub-processorYesDPO
Significant AI-related incident or near-missYesDPO + AI Officer
Material change in applicable law or regulatory guidanceYesDPO + Legal
Evidence of bias or discriminatory outcomesYesDPO + AI Officer
Change in scale (significant increase in data subjects)YesDPO

7.2 Post-Deployment Monitoring Plan

Monitoring ActivityFrequencyResponsibleKPIs / Thresholds
AI output accuracy reviewMonthlySystem OwnerTarget: [X]% accuracy; alert if <[Y]%
Bias and fairness checkQuarterlyAI Officer + System OwnerZero material bias findings
Data subject rights request handlingPer request + monthly aggregateDPO100% responded within 30 days
Security and access log reviewMonthlyCISOZero unauthorised access events
Data retention compliance checkQuarterlySystem Owner100% data deleted per schedule
Vendor compliance checkAnnuallyDPO + LegalValid DPA; valid certifications

Annex A — Data Flow Diagram Template

Use this template or attach a completed diagram.

[Data Source] ──→ [Collection Method] ──→ [AI System Input]

                                         [AI Processing]

                                          [AI Output]
                                           /        \
                              [Downstream Use]    [Storage]

                                               [Deletion / Anonymisation]

Label each arrow with: data type, transfer mechanism, encryption status, and legal basis.


Annex B — Version Control

VersionDateAuthorChange DescriptionApproved By
1.0Initial DPIA

Annex C — Supporting Documents

DocumentVersionLocationAttached?
Legitimate Interests Assessment (if Art. 6(1)(f) used)[ ] Yes [ ] N/A
Transfer Impact Assessment (if international transfer)[ ] Yes [ ] N/A
Data Processing Agreement with vendor[ ] Yes [ ] N/A
Vendor security assessment[ ] Yes [ ] N/A
Bias testing report[ ] Yes [ ] N/A
EU AI Act technical documentation (if high-risk)[ ] Yes [ ] N/A
Privacy notice (showing AI disclosure)[ ] Yes [ ] N/A

Template provided by VORLUX AI | vorluxai.com This is guidance only, not legal advice. Version 1.0 | For GDPR Art. 35 + EU AI Act compliance use | Last updated: 2026-04-05


Versión Española

Aviso legal: Este documento es solo orientativo, no constituye asesoramiento jurídico. Consulte a un abogado cualificado y a su DPO antes de adoptar o presentar esta EIPD.


Evaluación de Impacto en la Protección de Datos (EIPD) para Sistemas de IA

Referencia del documento: [ORG-DPIA-AI-___] Versión de la EIPD: [1.0] Estado: [ ] Borrador | [ ] Revisión DPO | [ ] Aprobada | [ ] Aprobada con condiciones | [ ] Rechazada Nombre del sistema / actividad de tratamiento: Elaborado por: Departamento / Responsable: DPO revisor: Fecha de inicio: Fecha de revisión DPO: Fecha de aprobación: Próxima revisión programada: [Fecha o evento desencadenante]


Resumen Ejecutivo de la EIPD

Complete esta sección tras finalizar todas las demás. Máximo 1 página.

ElementoDetalles
Nombre del sistema de IA
Finalidad del tratamiento con IA
Categorías de datos personales tratados
Número / volumen de interesados
Clasificación de riesgo (EU AI Act)Inaceptable / Alto / Limitado / Mínimo
Indicadores de alto riesgo GDPR presentesSí / No (detallar)
Nivel de riesgo global de la EIPDBajo / Medio / Alto / Muy alto
Recomendación del DPOProceder / Proceder con condiciones / No proceder
Consulta previa a la autoridad de control requeridaSí / No
Decisión de aprobación
Condiciones / acciones requeridas

Parte 1: Descripción del Tratamiento

1.1 Visión general del sistema de IA

Nombre del sistema:

Proveedor (si es externo):

Tipo de sistema: (seleccione todos los aplicables)

  • IA generativa (texto, imagen, audio, vídeo, código)
  • IA predictiva (puntuación, previsión, clasificación)
  • Sistema de toma de decisiones automatizada
  • Herramienta de apoyo a la decisión asistida por IA
  • Procesamiento de lenguaje natural / chatbot
  • Visión artificial / reconocimiento de imágenes
  • Procesamiento de voz / audio
  • Sistema de recomendación
  • Análisis de comportamiento / perfilado
  • Otro: ___________

Categoría de riesgo (EU AI Act):

  • Riesgo inaceptable (prohibido — no debe desplegarse)
  • Riesgo alto (Anexo III — cumplimiento completo obligatorio)
    • Identificación y categorización biométrica
    • Gestión de infraestructuras críticas
    • Educación y formación profesional
    • Empleo, gestión de trabajadores y acceso al autoempleo
    • Acceso a servicios esenciales públicos y privados y prestaciones
    • Aplicación de la ley
    • Migración, asilo y gestión de fronteras
    • Administración de justicia y procesos democráticos
  • Riesgo limitado (aplican obligaciones de transparencia)
  • Riesgo mínimo

Descripción del sistema: (Describa el sistema de IA, cómo funciona, qué hace y cómo se utilizan los resultados. Incluya información sobre el modelo/algoritmo subyacente si se conoce.)


¿Qué problema resuelve este sistema de IA y cuál es el beneficio empresarial esperado?


1.2 Finalidades del tratamiento

IDDescripción de la finalidadBase jurídica (GDPR Art. 6/9)¿Datos de categoría especial?
P1
P2
P3

Bases jurídicas utilizadas:

  • Art. 6(1)(a) — Consentimiento
  • Art. 6(1)(b) — Ejecución de contrato
  • Art. 6(1)(c) — Obligación legal
  • Art. 6(1)(d) — Intereses vitales
  • Art. 6(1)(e) — Misión de interés público
  • Art. 6(1)(f) — Intereses legítimos (requiere LIA — adjuntar)
  • Art. 9(2)(a) — Consentimiento explícito (categorías especiales)
  • Art. 9(2)(b) — Obligaciones de empleo / seguridad social
  • Art. 9(2)(h) — Fines sanitarios / médicos
  • Otro: ___________

1.3 Flujos de datos

Orígenes de los datos:

OrigenTipo de datosVolumen / frecuenciaDirecto / Indirecto

Diagrama de flujo de datos: (Adjunte un diagrama: origen → método de recogida → entrada al sistema IA → procesamiento → resultados → uso posterior → almacenamiento → eliminación. Ver Anexo A.)

[ ] Diagrama de flujo adjunto

Transferencias internacionales:

  • ¿Salen datos personales fuera del EEE? [ ] Sí [ ] No [ ] Desconocido
  • Si sí, país(es) de destino: ___________
  • Mecanismo de transferencia: [ ] Decisión de adecuación [ ] Cláusulas Contractuales Tipo [ ] BCRs [ ] Otro: ___________
  • Evaluación de impacto de transferencia realizada: [ ] Sí [ ] No [ ] En curso

1.4 Categorías de datos personales

CategoríaTipos de datos específicos¿Categoría especial (Art. 9)?Volumen / N.º de interesados
Datos de identidadNombres, IDs de empleado, nombres de usuarioNo
Datos de contactoCorreo electrónico, teléfono, direcciónNo
Datos de comportamientoPatrones de uso, datos de interacciónNo
Datos de localizaciónDirecciones IP, ubicación geográficaNo
Datos financierosSalario, datos de pago, datos crediticiosNo
Datos de saludHistoriales médicos, bajas médicas
Datos biométricosHuellas dactilares, datos faciales, voz
Datos genéticos
Origen racial/étnico
Opiniones políticas
Creencias religiosas
Orientación sexual
Condenas penales
Otro:

Número total estimado de interesados:

¿Hay interesados en grupos vulnerables? (menores, personas mayores, empleados, pacientes, etc.)

  • Sí — especificar: ___________
  • No

1.5 Operaciones de tratamiento

OperaciónDescripciónAutomatizado / Intervención humana
Recogida / ingesta de datos
Preprocesamiento / limpieza de datos
Entrenamiento del modelo (si aplica)
Inferencia / generación de predicciones
Entrega de resultados a usuarios
Almacenamiento y registro de resultados
Eliminación / anonimización de datos

Plazos de conservación:

Tipo de datoPlazo de conservaciónFundamentoMétodo de eliminación
Datos de entrenamiento
Resultados generados por IA
Registros del sistema
Parámetros del modelo

Parte 2: Evaluación de Necesidad y Proporcionalidad

2.1 Evaluación de necesidad

Finalidad¿Podría lograrse sin IA o con medios menos intrusivos?¿El uso de IA es proporcionado al beneficio?Evaluación
P1[ ] Necesario [ ] No necesario [ ] Incierto
P2[ ] Necesario [ ] No necesario [ ] Incierto
P3[ ] Necesario [ ] No necesario [ ] Incierto

2.2 Minimización de datos

PreguntaRespuesta
¿Se recogen solo los datos mínimos necesarios?[ ] Sí [ ] No [ ] Parcialmente
¿Podrían eliminarse campos sin afectar materialmente al rendimiento?[ ] Sí — indicar campos: ___ [ ] No
¿Se ha evaluado la seudonimización o anonimización?[ ] Sí (implementada/descartada — explicar) [ ] No
¿Los entornos de prueba usan datos anonimizados?[ ] Sí [ ] No [ ] N/A

Problemas de minimización identificados:


2.3 Exactitud y calidad de los datos

PreguntaRespuestaAcción requerida
¿Existen mecanismos para asegurar la exactitud de los datos de entrada?[ ] Sí [ ] No
¿Pueden los interesados acceder y corregir sus datos?[ ] Sí [ ] No
¿Son los datos de entrenamiento representativos y libres de sesgos conocidos?[ ] Sí [ ] No [ ] Evaluado abajo
¿Existen controles de calidad sobre los resultados de IA?[ ] Sí [ ] No

Evaluación de sesgo y equidad: (Describa las evaluaciones de sesgo realizadas sobre datos de entrenamiento y resultados de IA.)


Nivel de riesgo de sesgo: [ ] Bajo [ ] Medio [ ] Alto

2.4 Transparencia y derecho a la explicación

PreguntaRespuesta
¿Se informa a los interesados sobre el tratamiento con IA en el aviso de privacidad?[ ] Sí [ ] No — acción requerida
¿Saben los interesados cuándo se usa IA para tomar o apoyar decisiones que les afectan?[ ] Sí [ ] No — acción requerida
Cuando aplica la toma de decisiones automatizada (Art. 22 GDPR), ¿puede solicitarse revisión humana?[ ] Sí [ ] No [ ] N/A — Art. 22 no aplicable
¿Puede el sistema de IA proporcionar una explicación de sus resultados (explicabilidad)?[ ] Sí [ ] Parcialmente [ ] No
¿Puede el sistema demostrar cumplimiento con las garantías del Art. 22?[ ] Sí [ ] No [ ] N/A

2.5 Cumplimiento de los derechos de los interesados

DerechoCómo se garantizaDeficiencia / problema
Derecho de acceso (Art. 15)
Derecho de rectificación (Art. 16)
Derecho de supresión (Art. 17)
Derecho a la limitación del tratamiento (Art. 18)
Derecho a la portabilidad (Art. 20)
Derecho de oposición (Art. 21)
Derechos relativos a decisiones automatizadas (Art. 22)

Resumen de deficiencias en el cumplimiento de derechos:



Parte 3: Identificación de Riesgos

3.1 Cribado de indicadores de alto riesgo GDPR

La EIPD es obligatoria cuando el tratamiento pueda entrañar un alto riesgo. Marque los indicadores aplicables (guía AEPD y EDPB WP248):

#Indicador de alto riesgo¿Aplica?Notas
1Toma de decisiones automatizada con efectos jurídicos significativos o similares (Art. 22)[ ] Sí [ ] No
2Tratamiento a gran escala de datos de categoría especial (Art. 9) o de condenas penales (Art. 10)[ ] Sí [ ] No
3Vigilancia sistemática de zonas de acceso público[ ] Sí [ ] No
4Tratamiento de datos de interesados vulnerables (menores, empleados, pacientes)[ ] Sí [ ] No
5Uso innovador de tecnología (nueva aplicación de IA, uso novedoso de IA existente)[ ] Sí [ ] No
6Uso de datos de forma inesperada para los interesados (desviación de finalidad)[ ] Sí [ ] No
7Denegación de servicio, contrato o prestación basada en puntuación de IA[ ] Sí [ ] No
8Perfilado a gran escala[ ] Sí [ ] No
9Combinación / cruce de conjuntos de datos no esperado por los interesados[ ] Sí [ ] No

Número de indicadores de alto riesgo presentes: ___ (Guía EDPB: la EIPD es generalmente obligatoria cuando aplican 2 o más criterios)

¿Es esta EIPD obligatoria? [ ] Sí [ ] No [ ] Precautoria (no legalmente requerida pero realizada como buena práctica)

3.2 Indicadores de riesgo del EU AI Act

Área de riesgo (AI Act)¿Aplica?Nivel de riesgoNotas
Impacto en derechos fundamentales[ ] Sí [ ] NoB / M / A
Riesgos de seguridad para las personas[ ] Sí [ ] NoB / M / A
Riesgo de discriminación o trato injusto[ ] Sí [ ] NoB / M / A
Falta de supervisión humana en decisiones de consecuencia[ ] Sí [ ] NoB / M / A
Opacidad / falta de explicabilidad[ ] Sí [ ] NoB / M / A
Problemas de calidad y representatividad de datos[ ] Sí [ ] NoB / M / A
Riesgos de robustez y exactitud[ ] Sí [ ] NoB / M / A
Vulnerabilidades de ciberseguridad[ ] Sí [ ] NoB / M / A

3.3 Registro de riesgos

IDDescripción del riesgoOrigen (GDPR/AI Act/Ambos)Probabilidad (1–5)Impacto (1–5)Riesgo inherenteControles identificadosRiesgo residual
R1Acceso no autorizado a datos personales tratados por el sistema de IAGDPR
R2El sistema de IA produce resultados discriminatorios basados en características protegidasAmbos
R3Datos personales utilizados para entrenar el modelo más allá de la finalidad originalGDPR
R4Decisión automatizada causa efecto adverso al interesado sin revisión humanaAmbos
R5El interesado no puede ejercer sus derechos (acceso, supresión, explicación)GDPR
R6Resultado inexacto de IA utilizado en decisión que afecta intereses del interesadoAmbos
R7Transferencia internacional de datos personales sin garantías adecuadasGDPR
R8Conservación de datos más allá de lo necesario; fallo en la eliminaciónGDPR
R9El sistema de IA produce resultados falsos o engañosos (alucinaciones) que afectan a interesadosAI Act
R10Incidente de seguridad del proveedor que expone datos personales tratadosGDPR
[Añada riesgos adicionales específicos de este sistema]

Escala de puntuación de riesgos:

  • Probabilidad: 1 = Rara, 2 = Improbable, 3 = Posible, 4 = Probable, 5 = Casi segura
  • Impacto: 1 = Insignificante, 2 = Menor, 3 = Moderado, 4 = Significativo, 5 = Grave
  • Riesgo inherente = Probabilidad x Impacto
  • Umbral de alto riesgo: ≥12 | Medio: 6–11 | Bajo: ≤5

Parte 4: Mitigación de Riesgos

4.1 Medidas técnicas

MedidaDescripciónEstadoResponsableFecha objetivo
Cifrado en reposoDatos personales cifrados en reposo con [estándar][ ] Implementado [ ] Planificado [ ] N/A
Cifrado en tránsitoTLS 1.2+ para todos los datos en tránsito[ ] Implementado [ ] Planificado [ ] N/A
Controles de accesoControl de acceso basado en roles; acceso mínimo necesario[ ] Implementado [ ] Planificado [ ] N/A
SeudonimizaciónDatos de entrenamiento/inferencia seudonimizados donde sea posible[ ] Implementado [ ] Planificado [ ] N/A
AnonimizaciónResultados de IA anonimizados antes de almacenamiento no esencial[ ] Implementado [ ] Planificado [ ] N/A
Registro de auditoríaTrazabilidad completa de accesos y resultados del sistema de IA[ ] Implementado [ ] Planificado [ ] N/A
Minimización de datos (técnica)Controles técnicos que impiden la recogida excesiva[ ] Implementado [ ] Planificado [ ] N/A
Eliminación automatizadaProgramación de eliminación automatizada según política de conservación[ ] Implementado [ ] Planificado [ ] N/A
Mecanismo de anulación humanaLos interesados pueden solicitar revisión humana de decisiones de IA[ ] Implementado [ ] Planificado [ ] N/A
Monitorización de resultadosResultados de IA monitorizados en cuanto a exactitud, sesgo y anomalías[ ] Implementado [ ] Planificado [ ] N/A
Pruebas de penetraciónSistema de IA y seguridad de API probados[ ] Implementado [ ] Planificado [ ] N/A
Pruebas de sesgoPruebas sistemáticas de sesgo/equidad previas al despliegue y periódicas[ ] Implementado [ ] Planificado [ ] N/A

4.2 Medidas organizativas

MedidaDescripciónEstadoResponsableFecha objetivo
Acuerdo de tratamiento de datosDPA firmado con proveedor de IA[ ] Firmado [ ] En negociación [ ] N/A
Formación para operadores del sistemaPersonal relevante formado en requisitos de protección de datos[ ] Completada [ ] Planificada
Actualización del aviso de privacidadAviso de privacidad actualizado para describir tratamiento con IA[ ] Completada [ ] Planificada
Procedimiento de derechos de interesadosProceso para gestionar solicitudes de derechos relacionadas con el sistema de IA[ ] Documentado [ ] Planificado
Procedimiento de respuesta a incidentesProcedimiento específico para brechas de datos relacionadas con IA[ ] Documentado [ ] Planificado
Diligencia debida del proveedorEvaluación del proveedor de IA en materia de protección de datos[ ] Completada [ ] Planificada
Registro y auditoría del sistema de IAActividad del sistema registrada y revisada periódicamente[ ] Implementado [ ] Planificado
Procedimiento de supervisión humanaProcedimiento definido para revisión humana de decisiones de IA[ ] Documentado [ ] Planificado
Calendario de revisión de sesgo y equidadRevisión periódica de resultados de IA buscando patrones discriminatorios[ ] Programado [ ] Pendiente
Política de conservación de datosCalendario de conservación documentado y aplicado[ ] Vigente [ ] Necesario

4.3 Resumen de mitigación de riesgos

IDPuntuación originalMedidas de mitigación aplicadasPuntuación residualNivel residual¿Aceptado por DPO?
R1B / M / A[ ] Sí [ ] No
R2B / M / A[ ] Sí [ ] No
R3B / M / A[ ] Sí [ ] No
R4B / M / A[ ] Sí [ ] No
R5B / M / A[ ] Sí [ ] No
R6B / M / A[ ] Sí [ ] No
R7B / M / A[ ] Sí [ ] No
R8B / M / A[ ] Sí [ ] No
R9B / M / A[ ] Sí [ ] No
R10B / M / A[ ] Sí [ ] No

Riesgos residuales que no pueden mitigarse a un nivel aceptable:

(Si algún riesgo residual permanece en nivel Alto, descríbalo aquí y determine si es necesaria la consulta previa a la autoridad de control — véase Parte 6.)



Parte 5: Consulta al DPO

5.1 Lista de verificación de revisión del DPO

El DPO debe revisar y aprobar esta EIPD antes del despliegue del sistema de IA:

Elemento de revisión del DPOResultado del DPOAcción requerida
¿La EIPD está completa y tiene calidad suficiente?
¿Se describen todas las actividades de tratamiento relevantes?
¿La base jurídica es apropiada y está bien documentada?
¿Se identifican correctamente todas las categorías de datos personales?
¿Se ha considerado adecuadamente la minimización de datos?
¿Se garantizan adecuadamente los derechos de los interesados?
¿Son los riesgos identificados plausibles y exhaustivos?
¿Son las mitigaciones propuestas suficientes para reducir riesgos a un nivel aceptable?
¿Se ha evaluado adecuadamente el riesgo de transferencia internacional?
¿Es necesaria la consulta previa a la autoridad de control (véase Parte 6)?
¿Cumple el sistema de IA con el Art. 22 cuando sea aplicable?
¿Se han identificado deficiencias en DPAs con proveedores?

5.2 Dictamen del DPO

Recomendación del DPO: (Seleccione una)

  • Proceder — La EIPD no identifica riesgos residuales altos; el tratamiento puede proceder tal como se describe.
  • Proceder con condiciones — La EIPD identifica riesgos residuales aceptables sujetos a las condiciones indicadas.
  • No proceder sin consulta previa — Los riesgos residuales permanecen altos; se requiere consulta previa a la AEPD antes de iniciar el tratamiento.
  • No proceder — El tratamiento es desproporcionado, ilícito o supone riesgos inaceptables para los interesados.

Condiciones / acciones requeridas (si aplica):


Nombre del DPO: Firma/fecha de aprobación del DPO: Próxima fecha de revisión de la EIPD (recomendada por el DPO):

5.3 Respuesta del responsable del negocio al dictamen del DPO

(Completar si el DPO recomendó condiciones o no proceder)

¿Acepta las condiciones del DPO? [ ] Sí — con plan de implementación abajo [ ] No — solicita escalado a [CEO/Consejo]

Plan de implementación de las condiciones del DPO:

CondiciónAcciónResponsableFecha límiteCompletado

Escalado (si no se sigue la recomendación del DPO):

Si el responsable del tratamiento decide proceder en contra del consejo del DPO, el GDPR Art. 35(8) exige documentar esta decisión. El dictamen escrito del DPO debe constar y la autoridad de control puede ser informada.

Decisión documentada de proceder en contra del consejo del DPO (si aplica):


Autorizado por: [Nombre, Cargo, Fecha]


Parte 6: Umbrales de Consulta a la Autoridad de Control

6.1 ¿Cuándo es obligatoria la consulta previa?

Conforme al GDPR Art. 36, el responsable debe consultar a la autoridad de control (en España: AEPD) antes del tratamiento cuando una EIPD indique que el tratamiento entrañaría un riesgo residual alto y el responsable no pueda mitigar ese riesgo con medidas razonables.

La AEPD ha publicado una lista de tipos de tratamiento que siempre requieren consulta previa en España. Verifique si el tratamiento de IA propuesto figura en la lista vigente de la AEPD.

6.2 Evaluación de los desencadenantes de consulta previa

Desencadenante¿Aplica?Evidencia / Notas
La EIPD identifica riesgo residual alto que no puede mitigarse[ ] Sí [ ] No
El tratamiento figura en la lista obligatoria de consulta previa de la AEPD[ ] Sí [ ] No
El sistema de IA es de alto riesgo bajo el EU AI Act con implicaciones GDPR significativas[ ] Sí [ ] No
El sistema implica perfilado a gran escala o toma de decisiones automatizada con efectos jurídicos[ ] Sí [ ] No
El sistema trata datos de categoría especial a gran escala[ ] Sí [ ] No
Uso de tecnología novedosa donde persiste incertidumbre sobre riesgos tras la EIPD[ ] Sí [ ] No

¿Es necesaria la consulta previa a la AEPD? [ ] SÍ — véase Sección 6.3 [ ] NO — documentar justificación

Justificación para no consultar (si aplica):


6.3 Proceso de consulta previa (si es necesario)

PasoAcciónResponsablePlazo
1Compilar paquete de consulta (EIPD + descripción del tratamiento + datos de contacto del DPO)DPOAntes de iniciar el tratamiento
2Presentar a la AEPD por el canal formal de consultaDPO + LegalAntes de iniciar el tratamiento
3Esperar respuesta de la AEPDDPOLa AEPD tiene 8 semanas para responder (ampliable 6 semanas en casos complejos)
4Implementar las recomendaciones de la AEPDResponsable del sistema + Responsable de IASegún indicaciones de la AEPD
5Documentar resultado y actualizar la EIPDDPOTras respuesta de la AEPD
No iniciar el tratamiento hasta que el plazo de consulta haya transcurrido o la AEPD haya respondido

Contacto de la AEPD para consulta previa: [https://www.aepd.es/] — Consulta Previa

6.4 Obligaciones de notificación del EU AI Act

Para sistemas de IA de alto riesgo bajo el EU AI Act, pueden aplicar obligaciones adicionales de notificación/registro para proveedores y responsables del despliegue. Verifique con Legal y el Responsable de IA si aplica:

Obligación¿Aplica?Estado
Registro en la base de datos del EU AI Act (proveedores de sistemas de IA de alto riesgo)[ ] Sí [ ] No
Notificación a la autoridad nacional de supervisión (AESIA en España) del despliegue de alto riesgo[ ] Sí [ ] No
Evaluación de conformidad por organismo notificado (para categorías de alto riesgo específicas)[ ] Sí [ ] No
Plan de vigilancia post-comercialización del EU AI Act[ ] Sí [ ] No

Parte 7: Revisión y Monitorización Continua

7.1 Desencadenantes de revisión de la EIPD

Desencadenante¿Revisión necesaria?Responsable
Revisión anual programadaDPO + Responsable del sistema
Cambio material en la funcionalidad del sistema de IADPO + Responsable del sistema
Cambio en las categorías de datos personales tratadosDPO
Cambio en la finalidad del tratamientoDPO
Cambio de proveedor de IA o subencargadoDPO
Incidente significativo relacionado con IA o cuasi-incidenteDPO + Responsable de IA
Cambio material en la legislación aplicable u orientaciones regulatoriasDPO + Legal
Evidencia de sesgo o resultados discriminatoriosDPO + Responsable de IA
Cambio de escala (aumento significativo de interesados)DPO

7.2 Plan de monitorización post-despliegue

Actividad de monitorizaciónFrecuenciaResponsableKPIs / Umbrales
Revisión de exactitud de resultados de IAMensualResponsable del sistemaObjetivo: [X]% exactitud; alerta si <[Y]%
Verificación de sesgo y equidadTrimestralResponsable de IA + Responsable del sistemaCero hallazgos materiales de sesgo
Gestión de solicitudes de derechos de interesadosPor solicitud + agregado mensualDPO100% respondidas en 30 días
Revisión de registros de seguridad y accesoMensualCISOCero eventos de acceso no autorizado
Verificación de cumplimiento de conservación de datosTrimestralResponsable del sistema100% datos eliminados según calendario
Verificación de cumplimiento del proveedorAnualDPO + LegalDPA vigente; certificaciones válidas

Anexo A — Plantilla de diagrama de flujo de datos

Utilice esta plantilla o adjunte un diagrama completo.

[Origen de datos] ──→ [Método de recogida] ──→ [Entrada al sistema IA]

                                                 [Tratamiento IA]

                                                  [Resultado IA]
                                                   /          \
                                    [Uso posterior]        [Almacenamiento]

                                                   [Eliminación / Anonimización]

Etiquete cada flecha con: tipo de dato, mecanismo de transferencia, estado de cifrado y base jurídica.


Anexo B — Control de versiones

VersiónFechaAutorDescripción del cambioAprobado por
1.0EIPD inicial

Anexo C — Documentos de apoyo

DocumentoVersiónUbicación¿Adjunto?
Evaluación de intereses legítimos (si Art. 6(1)(f) utilizado)[ ] Sí [ ] N/A
Evaluación de impacto de transferencia (si transferencia internacional)[ ] Sí [ ] N/A
Acuerdo de tratamiento de datos con proveedor[ ] Sí [ ] N/A
Evaluación de seguridad del proveedor[ ] Sí [ ] N/A
Informe de pruebas de sesgo[ ] Sí [ ] N/A
Documentación técnica del EU AI Act (si alto riesgo)[ ] Sí [ ] N/A
Aviso de privacidad (con mención de IA)[ ] Sí [ ] N/A

Plantilla proporcionada por VORLUX AI | vorluxai.com Este documento es solo orientativo, no constituye asesoramiento jurídico. Versión 1.0 | Para cumplimiento de GDPR Art. 35 + EU AI Act | Última actualización: 2026-04-05

EU AI Act: 99 días para el deadline

15 minutos para evaluar su caso

Consultoría inicial sin compromiso. Analizamos su infraestructura y le recomendamos la arquitectura híbrida óptima.

Sin compromiso 15 minutos Propuesta personalizada

136 páginas de recursos gratuitos · 26 plantillas de compliance · 22 dispositivos certificados