El 29 de septiembre de 2022, la Comisión Europea presentó una propuesta de Directiva destinada a actualizar las normas nacionales de responsabilidad extracontractual frente a los retos que plantea el uso creciente de la inteligencia artificial. En las líneas que siguen se analizan algunos aspectos relevantes de este texto normativo.
Desde la perspectiva del Derecho del Seguro, resulta especialmente pertinente examinar esta iniciativa —conocida como Directiva de Responsabilidad Civil en materia de IA (Directiva RC IA)—, pues la expansión de sistemas basados en IA incrementa la posibilidad de que se produzcan daños derivados de productos o servicios que la incorporan.
Uno de los problemas señalados por la Directiva es que la víctima, conforme a las normas tradicionales de responsabilidad civil, debe acreditar una acción u omisión culposa del causante del daño. En el ámbito de la IA, esa carga probatoria se complica debido a la autonomía, complejidad técnica y falta de transparencia de muchos sistemas (el denominado efecto caja negra). Estas dificultades probatorias, unidas al coste de los procedimientos judiciales, pueden incluso disuadir a los perjudicados de reclamar.
La propuesta busca integrarse de manera coherente en el marco normativo europeo orientado a minimizar riesgos y a reforzar la protección de los derechos fundamentales. La seguridad y la responsabilidad se conciben como elementos complementarios: unas reglas claras de responsabilidad generan incentivos para que los distintos operadores económicos adopten medidas preventivas adecuadas. Al mismo tiempo, la Directiva se alinea con la estrategia digital europea, la política de datos y el Pacto Verde, partiendo de la premisa de que la digitalización es esencial para alcanzar los objetivos de sostenibilidad de la Unión.
El establecimiento de un régimen propio de responsabilidad persigue incrementar la seguridad jurídica, lo que favorecerá la aceptación social de la IA y, como consecuencia, su adopción por parte de empresas y administraciones. Una ciudadanía que confía en estas tecnologías impulsa un uso más amplio y responsable de ellas.
- Objeto de la Directiva y límites del marco jurídico actual
El artículo 1 evidencia que las normas tradicionales de responsabilidad no resultan plenamente adecuadas para abordar los desafíos de la IA. Para solventar estas carencias, la Directiva introduce mecanismos destinados a aliviar la carga probatoria del perjudicado mediante instrumentos como la exhibición de pruebas y ciertas presunciones refutables.
Las presunciones refutables operan como una forma de responsabilidad objetivada, próxima a los regímenes ya existentes en materia de protección de consumidores, donde corresponde al empresario probar que actuó con la diligencia exigible.
- Exhibición de pruebas (artículo 3)
Una de las novedades más relevantes es la facultad que se otorga a los tribunales para ordenar que se exhiban pruebas relacionadas con sistemas de IA considerados de alto riesgo, cuando exista sospecha razonable de que han intervenido en la causación del daño.
La orden podrá dirigirse al proveedor del sistema, a quienes deban asumir sus obligaciones o al propio usuario del sistema.
El solicitante deberá aportar elementos que justifiquen la viabilidad de la demanda. Esta figura guarda similitudes con las diligencias preliminares previstas en la legislación procesal civil española, si bien con una diferencia notable: el incumplimiento de la obligación de exhibir puede generar una presunción de falta de diligencia en contra del requerido, que podrá desvirtuar aportando prueba en contrario.
A diferencia de nuestra normativa procesal, aquí la negativa no solo no se limita a la ejecución forzosa de la diligencia, sino que produce consecuencias desfavorables para la parte incumplidora.
- Presunción de causalidad refutable (artículo 4)
El artículo 4 introduce una presunción de causalidad cuando resulte razonable considerar que la conducta culposa del demandado —incluyendo la falta de colaboración en la exhibición de pruebas— influyó en la salida del sistema de IA que generó el daño.
El perjudicado deberá seguir demostrando la existencia del daño y la intervención del sistema de IA, aunque la Directiva reconoce la dificultad que puede plantear delimitar y cuantificar estos daños, especialmente cuando sean múltiples o de naturaleza intangible.
La regulación distingue entre:
a) Sistemas de IA de alto riesgo
La presunción no opera si el demandado acredita que el perjudicado podía haber tenido acceso razonable a la información necesaria para demostrar el nexo causal. Esta excepción pretende fomentar la transparencia y la colaboración en la práctica de las diligencias de exhibición.
b) Sistemas de riesgo no elevado
La aplicación de la presunción se deja al criterio del juez, quien deberá valorar la dificultad probatoria del caso concreto atendiendo a factores como la opacidad del sistema o las circunstancias del demandante.
Es previsible que esta materia requiera de un desarrollo jurisprudencial amplio para fijar criterios aplicables de forma uniforme.
c) Usuarios de sistemas de IA en el ámbito personal
La presunción se aplicará cuando el usuario haya alterado sustancialmente las condiciones de funcionamiento del sistema, o cuando, teniendo la obligación y capacidad de configurarlo adecuadamente, hubiera omitido hacerlo.
Todas las presunciones contempladas son, en cualquier caso, refutables.
Este modelo representa una novedad importante respecto al régimen general de responsabilidad por productos y servicios, donde la carga de la prueba del nexo causal permanece tradicionalmente en manos del perjudicado. La Directiva, en cambio, abre la puerta a una inversión de dicha carga por razones de facilidad probatoria.
Conclusión
La propuesta de Directiva puede marcar un punto de inflexión en la integración jurídica de la inteligencia artificial en Europa. Al reforzar la seguridad jurídica y facilitar la reparación de los daños, aumenta la confianza del público y contribuye a un desarrollo tecnológico más seguro y responsable.
No obstante, su transposición exigirá un esfuerzo importante del legislador nacional: numerosos conceptos requieren mayor precisión para evitar una dependencia excesiva del desarrollo jurisprudencial, que inevitablemente llevará tiempo. En un contexto en el que la tecnología avanza a gran velocidad, esta falta de concreción podría suponer un reto adicional para adaptar el ordenamiento jurídico a la realidad digital.
Desde el Departamento de Derecho del Seguro de Belzuz Abogados, S.L.P., seguimos disponibles para ofrecer un análisis especializado en materia de responsabilidad civil y seguros ante los desafíos que plantea la inteligencia artificial.