El triaje de urgencias es una de las funciones sanitarias más críticas y de mayor presión temporal. La inteligencia artificial (IA) ha demostrado una capacidad notable para apoyar esta tarea o incluso para sustituir al elemento humano en ella. Sin embargo, el despliegue de estos sistemas plantea desafíos jurídicos profundos que el ordenamiento europeo aborda a través de tres instrumentos normativos principales: el Reglamento de IA (AI Act), el Reglamento General de Protección de Datos (RGPD) y el Reglamento de Productos Sanitarios (MDR).
El Reglamento de IA clasifica los sistemas de IA para el triaje de urgencias como sistemas de alto riesgo en virtud del Anexo III. Esta calificación activa una serie de obligaciones sustantivas. En primer lugar, el artículo 14 exige supervisión humana efectiva: los sistemas deben diseñarse de manera que un profesional capacitado pueda comprender sus resultados, detectar anomalías y anularlos cuando sea necesario. Esta supervisión no puede ser meramente formal; el legislador europeo subraya la necesidad de evitar el sesgo de automatización, es decir, la tendencia a asumir acríticamente las recomendaciones del sistema. En la práctica, esto implica protocolos institucionales diferenciados —con mecanismos de escalada, auditorías post-turno y formación específica del personal— más que una verificación individual de cada decisión, inviable en situaciones de alta demanda o incidentes de múltiples víctimas.
En segundo lugar, el artículo 27 del AI Act obliga a que los responsables del despliegue sean entidades públicas o que presten servicios públicos a realizar una Evaluación de Impacto sobre los Derechos Fundamentales (FRIA) antes de implantar el sistema. Esta evaluación debe identificar los grupos de personas potencialmente afectados, describir las medidas de supervisión humana y prever mecanismos de reclamación. De hecho, la cláusula impone un proceso operativo estructurado en seis pasos: caracterización del sistema, mapeo de los derechos de la Carta de Derechos Fundamentales implicados, análisis de riesgos, definición de salvaguardias, documentación y seguimiento continuo a lo largo del ciclo de vida del sistema.
En tercer lugar, el artículo 86 del AI Act reconoce el derecho a una explicación individualizada para cualquier persona sujeta a una decisión adoptada a partir del resultado de un sistema de IA de alto riesgo. Este derecho complementa las obligaciones de información del RGPD y resulta especialmente relevante porque se aplica con independencia de que haya o no intervención humana previa en la decisión.
Desde la perspectiva del RGPD, el triaje con IA constituye un supuesto de elaboración de perfiles en el sentido del artículo 4.4, dado que procesa datos personales de salud para evaluar aspectos individuales del paciente y producir inferencias con efectos significativos sobre su acceso a la atención. El artículo 22 del RGPD establece una prohibición general de las decisiones basadas exclusivamente en tratamiento automatizado cuando producen efectos jurídicos o igualmente significativos. Las excepciones contempladas —consentimiento explícito o habilitación legal— son de difícil aplicación en contextos de urgencia, donde el paciente puede carecer de capacidad para consentir.
De ello se desprende que los modelos de decisión plenamente automatizados en triaje son difícilmente justificables bajo el marco vigente, lo que refuerza la necesidad de modelos de apoyo a la decisión con intervención humana significativa y no meramente simbólica. El RGPD exige, además, la realización de una Evaluación de Impacto en la Protección de Datos (EIPD), que deberá coordinarse con la FRIA sin duplicarla. Ambas evaluaciones se complementan y, en conjunto, obligan a demostrar la proporcionalidad y necesidad del sistema, así como la solidez de las medidas de mitigación de riesgos.
En cuanto a los modelos de IA de propósito general (GPAI), como ChatGPT o Gemini, el AI Act impone obligaciones principalmente al proveedor del modelo, sin regular de forma específica su uso en triaje. Cuando estos modelos determinan de manera directa la prioridad clínica del paciente, pueden quedar sujetos al MDR como productos sanitarios. La responsabilidad recae entonces sobre los responsables del despliegue —hospitales o sistemas sanitarios—, quienes deben garantizar el cumplimiento normativo, mientras que los clínicos conservan su responsabilidad profesional individual.
En conclusión, el marco regulatorio europeo favorece los modelos de apoyo a la decisión sobre los sistemas de automatización plena. La supervisión humana efectiva, la formación del personal, las evaluaciones de impacto y el derecho a la explicación constituyen las columnas vertebrales de una integración responsable de la IA en el triaje de urgencias.