Responsabilidad por IA: El Dilema de la Carga de la Prueba
El debate de la Comisión Europea se centra en cómo compensar la falta de transparencia de los algoritmos de alto riesgo y quién debe demostrar el nexo causal del daño.
La propuesta de la Comisión Europea relativa a la Directiva de Responsabilidad por IA (AI Liability Directive) busca armonizar el régimen civil aplicable a los sistemas de Inteligencia Artificial (IA) de alto riesgo, en complemento al AI Act. La discusión central se articula en torno a la dificultad inherente de establecer el nexo causal entre el daño producido y la acción u omisión de un operador o desarrollador de IA. Esta dificultad se deriva fundamentalmente de la opacidad algorítmica, conocida como el efecto Black Box, donde la toma de decisiones por parte del sistema resulta incomprensible para el usuario, e incluso, en ocasiones, para su propio creador.
Ante esta asimetría informativa estructural, las directrices europeas exploran la posibilidad de flexibilizar o incluso invertir la carga de la prueba en casos específicos. Dicha inversión implicaría que, una vez la víctima demuestre que el daño ha sido causado por una actividad realizada por un sistema de IA de alto riesgo y la existencia de una falta de diligencia técnica por parte del proveedor o usuario, recaería sobre el operador la obligación de demostrar que se implementaron todas las medidas de diligencia adecuadas. Este enfoque no supone una responsabilidad objetiva total, sino un mecanismo procesal para reequilibrar la posición de las partes, alineándose con el principio de protección al consumidor y a la parte más débil del vínculo jurídico.
La justificación para esta modulación se encuentra en la necesidad de asegurar la efectividad de la tutela judicial. La normativa sobre sistemas de IA de alto riesgo, tal como la establece el AI Act, ya impone obligaciones rigurosas de transparencia, trazabilidad (logging) y supervisión humana. Por lo tanto, no se considera desproporcionado exigir al operador que demuestre el cumplimiento de estas obligaciones como prueba de su diligencia. Sin embargo, la aplicación de esta inversión debe ser precisa y limitada. Una extensión excesiva podría inhibir la innovación tecnológica y la inversión en sistemas de IA en el mercado único, planteando una disuasión injustificada.
La postura intermedia que parece perfilarse en el debate aboga por una presunción de causalidad restringida. Esta se activaría solo cuando el demandante haya demostrado la infracción de una obligación de diligencia específica impuesta por el AI Act –como la falta de cumplimiento de los requisitos de calidad de los datos o de trazabilidad– y la probabilidad razonable de que esta infracción haya causado el daño. De esta forma, se mantiene un incentivo para el cumplimiento riguroso de las obligaciones de seguridad y transparencia impuestas a los sistemas de alto riesgo, sin imponer una carga probatoria irrazonable sobre los operadores que actúen con la debida diligencia.
¿Cómo se puede lograr un equilibrio normativo entre la protección efectiva de las víctimas de IA y el mantenimiento de un entorno de innovación tecnológica sin una sobrecarga de responsabilidad desproporcionada?
Referencias
Te puede interesar
El debate de la Comisión Europea se centra en cómo compensar la falta de transparencia de los algoritmos de alto riesgo y quién debe demostrar el nexo causal del daño.
El endurecimiento del ‘Due Diligence’ para VASP en la Directiva AML es clave para la seguridad financiera y la adopción institucional.
La Autoridad Alemana reafirma que el principio de finalidad del RGPD prevalece sobre la accesibilidad masiva de datos personales.
