Como abogados especialistas en Derecho del Seguro, nos gustaría hacernos eco de la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad extracontractual (“Directiva RC IA”) a la inteligencia artificial.
En este sentido, efectivamente, entendemos que el creciente uso, cada vez mas extendido, de la Inteligencia Artificial puede, indefectiblemente, aumentar situaciones en las que puedan generarse daños por productos y servicios en los que se recurre a la Inteligencia Artificial.
Y es que, como se señala en la Directiva RC IA, las normas nacionales en materia de responsabilidad civil obligan a que la víctima del daño deba demostrar que ha habido acción u omisión ilícita por parte de una persona causante del daño, lo que puede ser de difícil determinación dada la complejidad, autonomía y opacidad de los sistemas de IA (el llamado “efecto caja negra”), lo que , por la complejidad y los costes de los eventuales procesos judiciales, puede disuadir a las victimas de cara a interponer su reclamación correspondiente.
Esta norma se integraría en el ordenamiento de la Unión en coherencia con el esfuerzo normativo en reducir riesgos para la seguridad y salvaguardar derechos fundamentales; siendo que, efectivamente, seguridad y responsabilidad son dos elementos que se refuerzan mutuamente en la medida en que unas normas eficaces en materia de responsabilidad pueden servir como incentivo económico para que los actores puedan destinar mayores esfuerzos para establecer medios que reduzcan el riesgo al máximo.
Asimismo, esta Directiva es coherente con la estrategia digital de la Unión, contribuyendo a incentivar la confianza de los ciudadanos en la IA, estando vinculada con la estrategia de datos de la UE, así como con el Pacto Verde Europeo, entendiéndose que las tecnologías digitales son un factor determinante para alcanzar los objetivos de sostenibilidad de la Unión.
De este modo, estableciendo un régimen definido y propio de responsabilidad se pretende una introducción generalizada de la IA, aumentando la seguridad jurídica y, consecuentemente, la confianza de la ciudadanía y de los potenciales usuarios, derivándose, asimismo, un mayor beneficio a las empresas de la cadena de valor en la medida en que, a mayor confianza ciudadana, más rápida será la adopción por las empresas de la IA.
Sobre el objeto (artículo 1 Directa RC IA), hay que señalar que existe una cierta limitación en la elección de los instrumentos jurídicos dado que la cuestión de la carga de la prueba y las características de la IA plantean un serio problema respecto a las normas de responsabilidad existentes.
Esto es solventado por la Directiva aligerando para la víctima la carga de la prueba de manera muy específica usando las figuras de la exhibición y de las presunciones refutables.
La figura de las presunciones refutables, como su propio nombre indica, no deja de ser un sistema de responsabilidad tendente a la objetivación de la misma, lo cual, está íntimamente relacionado con los sistemas de protección de consumidores y usuarios frente a daños causados por bienes y prestación de servicios, que depositan en el suministrador o prestador empresario la carga de la prueba de empleo de diligencia adecuada de acuerdo con la naturaleza de los bienes y prestación de servicios.
Interesante figura es la de exhibición de pruebas, anteriormente aludida, que está contenida en el artículo 3 de la Directiva RC IA.
Esta figura tiene como objeto facultar a los órganos jurisdiccionales para ordenar la exhibición de pruebas pertinentes relativas a los sistemas de IA de los denominados de “alto riesgo específico” que se sospechen que hayan causados daños; dirigiéndose esta orden al proveedor de sistemas de IA, a una persona sujeta de obligaciones de proveedor o a un usuario de la IA.
La solicitud deberá estar respaldadas por hechos y pruebas suficientes para poder acreditar la viabilidad de la eventual demanda.
Como podemos intuir, esta figura no se aleja en demasía de las Diligencias Preliminares establecidas en nuestra propia legislación procesal civil, exigiéndose acreditar también un interés legítimo y una justa causa.
Asimismo, para incentivar la cooperación del eventual demandado se introduce la “presunción de incumplimiento del deber de diligencia” cuando el propio demandado incumpla el requerimiento, asistiéndole, eso sí, el derecho de refutar tal presunción.
Así, a diferencia de las Diligencias Preliminares de nuestra ley procesal, en las que la negativa o evitación de práctica de las mismas no es sancionada, sino que se ordena judicialmente su práctica forzosa; en la Directiva RC IA se establece una presunción de falta de diligencia.
El artículo 4 establece la “presunción de relación de causalidad refutable”, debiendo el demandante probar la culpa del demandado con arreglo a las normas aplicables (incluyendo el incumplimiento del deber de exhibición anteriormente aludido), procediendo aplicar esta presunción cuando se considere “probable” que la culpa en cuestión haya influido en la información de salida del sistema de IA, pudiendo evaluarse en función de las circunstancias del caso.
En cualquier caso, tal como ocurre con el sistema de responsabilidad de nuestro ordenamiento, el demandante deberá probar que ese sistema de IA ha causado unos daños.
En este sentido, entendemos que, si bien la víctima debe de probar el daño, podrían plantearse problemas sobre la determinación del mismo en atención a la complejidad de estos sistemas y a los múltiples daños que éstos pueden causar, no ya solo cuantificables, sino incuantificables y de difícil determinación.
Este artículo, a la hora de establecer esta presunción, diferencia entre demandas interpuestas frente a proveedores de sistemas de alto riesgo y las demandas interpuestas frente a usuarios de dichos sistemas.
En el caso de los sistemas de IA de alto riesgo, se establece una excepción a la presunción de causalidad cuando el demandado pruebe que el perjudicado podría acceder razonablemente a pruebas y conocimientos específicos que permitan acreditar adecuadamente el nexo causal, lo que, sin duda, favorece la cooperación en la práctica de las diligencias de exhibición o la garantía de transparencia del sistema.
La presunción, respecto de los sistemas de riesgo no elevado, estará sujeta al criterio del juzgador, quien determinará la aplicabilidad o no de esta presunción en base a la realización de un juicio de dificultad probatoria del nexo causal por el demandante; entendiendo que serán factores para realizar esta ponderación, no ya solo la autonomía u opacidad del sistema, sino que también las circunstancias del propio demandante.
Entendemos que establecer unos criterios de cierto consenso sobre este particular anuncia, en defecto de concreción legal en su trasposición, un amplio desarrollo jurisprudencial que permita establecer unos parámetros de aplicación razonables atendiendo a las circunstancias del caso concreto.
Cuando el demandado sea usuario del sistema IA en el transcurso de una actividad personal, la presunción de causalidad se aplicará si el demandado ha interferido sustancialmente en las condiciones de funcionamiento del sistema IA o, en su caso, si tenía obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema y omitió hacerlo.
Estas presunciones son, naturalmente, refutables por parte del demandado.
La presunción de causalidad refutable supone una figura novedosa en nuestro ordenamiento, en la medida en que la normativa de protección de consumidores y usuarios anteriormente señalada, si bien establece un sistema de responsabilidad objetiva que invierte la carga de la prueba de la acción u omisión del prestador de servicios o suministrador de bienes, exige la prueba de nexo de causalidad entre la actividad empresarial y el daño.
Es más, en este sistema planteado por la presente Directiva puede darse, asimismo, esa inversión de la carga de la prueba sobre el nexo causal entre particulares, entendemos, por otra parte, que por razones de pura facilidad probatoria.
En conclusión, la presente propuesta de Directiva puede suponer un punto de inflexión en lo que a implantación de IA se refiere en la medida en que, aumentando la seguridad jurídica y facilitando el resarcimiento de los daños, pueda aumentarse la confianza por parte de la ciudadanía acerca de ésta.
No debemos olvidar que en lo que a tecnología se refiere, el progreso es exponencial, abriendo la inteligencia artificial un abanico de posibilidades infinitas que debe conciliarse, efectivamente, con la protección de los Derechos Fundamentales, incluyendo, del mismo modo, el de garantía de indemnidad ante un daño.
No obstante, el legislador, a la hora de proceder a su trasposición, tendrá por delante una ardua tarea en la medida en que, como se ha constatado, hay una serie de conceptos que entendemos que requerirán una mayor definición, resultando que, en caso contrario, dichos conceptos, definiciones y hechos con trascendencia jurídica deberán ser objeto de desarrollo jurisprudencial y, por tanto, necesitarán un cierto tiempo para su consolidación, dificultando la adecuación del ordenamiento jurídico al vertiginoso desarrollo tecnológico.
Desde el Departamento de Derecho del Seguro de Belzuz Abogados, estamos a su disposición para analizar su problema en materia de responsabilidad civil y seguros de la manera más profesional, eficaz y solvente.
Insurance Law department | Madrid (Spain)
Belzuz Abogados SLP
This publication contains general information not constitute a professional opinion or legal advice. © Belzuz SLP, all rights are reserved. Exploitation, reproduction, distribution, public communication and transformation all or part of this work, without written permission is prohibited Belzuz, SLP.