Responsabilidad civil derivada del uso de sistemas de IA. situación actual y retos para un futuro reglamento europeo

AutorGonzalo Campos Rivera
CargoSocio de CEUDATA, consultoría jurídica de Protección de Datos
Páginas173-215
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 173
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
RESPONSABILIDAD CIVIL DERIVADA DEL USO DE SISTEMAS
DE IA. SITUACIÓN ACTUAL Y RETOS PARA UN FUTURO
REGLAMENTO EUROPEO*
CIVIL LIBILITY ARISING FROM THE USE OF IA SYSTEMS. CURRENT
SITUATION AND CHALLENGES FOR A FUTURE EUROPEAN REGULATION
G C R**
Resumen: La irrupción de los sistemas de inteligencia artif‌i cial (IA) en la vida humana ha llevado
al cuestionamiento del actual modelo de responsabilidad civil previsto en la Directiva 85/374 y su
normativa de transposición para los daños derivados de productos defectuosos. La posibilidad de que
los sistemas de IA puedan desarrollar una «razón» algorítmica supone un importante reto jurídico
para los Estados Miembro. Como alternativa, proponemos la adaptación del marco normativo
europeo de responsabilidad civil a través de un modelo ecléctico basado en la aminoración de la
carga de la prueba del defecto por parte del damnif‌i cado, la cuasi-objetivación de la responsabilidad
del productor y la gestión de riesgos de producción. Por otro lado, estimamos pertinente la creación
de personalidades jurídicas ad hoc a efectos de imputación de responsabilidad civil al sistema de
inteligencia artif‌i cial que permita a los productores no asumir este tipo de daños.
Palabras clave: Inteligencia artif‌i cial, internet de las cosas, responsabilidad civil, personalidad
jurídica, caja negra.
Abstract: The emergence of artif‌i cial intelligence systems (AI) in human life has led to the
questioning of the current liability model provided in Directive 85/374 and its transposing
legislation for defective products. The possibility that AI systems may develop an algorithmic
«logic» poses a major legal challenge for Member States. As an alternative, we propose the
adaptation of the European regulatory framework for civil liability through an eclectic model
based on the reduction of the burden of proof of defect on the injured party, the quasi-objectivation
of producer liability and the management of production risks. On the other hand, we consider it
appropriate to create ad hoc legal personalities for the purposes of imputation of civil liability to
the artif‌i cial intelligence system that would allow producers not to assume this type of damage.
Keywords: Artif‌i cial intelligence, internet of things, civil liability, legal personality, black box.
* https://doi.org/10.15366/rjuam2021.46.007
Fecha de recepción: 2 de febrero de 2022.
Fecha de aceptación: 5 de abril de 2022.
** Gonzalo Campos Rivera. Socio de CEUDATA, consultoría jurídica de Protección de Datos. Delegado de
Protección de Datos certif‌i cado por la AEPD nº 22-ADK0134. Graduado en Derecho, Universidad de Granada,
Granada, España. Máster Universitario en Protección de Datos, Universidad Internacional de La Rioja (UNIR),
Logroño, España. Estudiante de Máster de Acceso a la Abogacía, Universidad Internacional de La Rioja (UNIR),
Logroño, España. Este trabajo es resultado del TFG titulado Responsabilidad civil derivada del uso de IA. Situación
actual y retos de un futuro Reglamento Europeo, defendido en diciembre de 2021 y dirigido por Jose Antonio Castillo
Parrilla. Siendo premiado como ganador de los premios Eduardo Roca Roca de la Real Academia de Jurisprudencia
y Legislación de Granada en la edición de 2021. Correo electrónico: gonzalocamposdpo@gmail.com
GONZALO CAMPOS RIVERA
174
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
S: I. INTRODUCCIÓN; II. SITUACIÓN ACTUAL DE LA IA Y DAÑOS QUE PUEDE
CAUSAR; III. NECESIDAD DE ADAPTACIÓN DEL ACTUAL MODELO DE RESPON-
SABILIDAD CIVIL POR PRODUCTOS DEFECTUOSOS CON IA Y CREACIÓN DE
PERSONALIDAD JURÍDICA AD HOC PARA LOS SISTEMAS DE IA; IV. PROPUESTA
DE ADAPTACIÓN DEL ACTUAL MODELO DE RESPONSABILIDAD CIVIL POR
PRODUCTOS DEFECTUOSOS CON IA Y FACTORES A TENER EN CUENTA; 1. Seguro
obligatorio, objetivación de la responsabilidad civil, pólizas de seguro y retos para el desarrollo
industrial; 2. Responsabilidad patrimonial de la IA y Consorcio de compensación de seguro; 3.
Responsabilidad por hecho ajeno; 4. Propuesta de adaptación del modelo de responsabilidad
civil por productos defectuosos que usen IA; V. PROPUESTA DE PERSONALIDAD JURÍ-
DICA AD HOC PARA LOS PRODUCTOS QUE USEN IA; VI. CONCLUSIONES: RETOS
A ABORDAR EN UN FUTURO REGLAMENTO EUROPEO; VII. BIBLIOGRAFÍA.
I. INTRODUCCIÓN
La Inteligencia Artif‌i cial (IA) se encuentra en pleno desarrollo1 tras muchos años de
avance en investigación en los que el ser humano ha tratado de sacarle el máximo prove-
cho al desarrollo tecnológico y es por ello, que el desarrollo de la IA continúa siendo una
prioridad en la UE2 para llevar a cabo su proyecto de Mercado Único Digital3.
1 McKINSEY GLOBAL INSTITUTE, «Disruptive technologies: Advances that will transform life, business, and
the global economy; McKinsey Global Institute, 2013». Disponible en
business%20functions/mckinsey%20digital/our%20insights/disruptive%20technologies/mgi_disruptive_technologies_
executive_summary_may2013.pdf>. [Consultado el 10/09/2022]; PARLAMENTO EUROPEO, «Resolución del
Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de
Derecho civil sobre robótica (2015/2103(INL)), “Normas de Derecho civil sobre robótica”, P8_TA(2017)0051»,
p. 1, Considerando B. Disponible en A-8-2017-0051_ES.pdf>.
[Consultado el 10/09/2022]; PARLAMENTO EUROPEO, «Informe de 27 de enero de 2017 con recomendaciones
destinadas a la Comisión sobre normas de Derecho civil sobre robótica, (2015/2103(INL))», p. 3, Considerando B.
Disponible en .europarl.europa.eu/doceo/document/A-8-2017-0005_ES.pdf>. [Consultado el 10/09/2022].
2 JUNKER, J. C., «Directrices políticas para la próxima Comisión Europea – Un nuevo comienzo para
Europa: mi Agenda en materia de empleo, crecimiento, equidad y cambio democrático, publicado en fecha de
15 de julio de 2014. Segunda prioridad “A Connected Digital Single Market”». Disponible en
eu/archives/juncker-commission/priorities/index_en.htm>; COMISIÓN EUROPEA, «Internal Market, Industry,
Entrepreneurship and SMEs: European industrial strategy, Advanced technologies». Disponible en
ec.europa.eu/growth/industry/strategy_es>. [Consultado el 10/09/2022]; COMITÉ ECONÓMICO Y SOCIAL
EUROPEO (CESE), «Dictamen del Comité Económico y Social Europeo sobre la “Inteligencia artif‌i cial: las
consecuencias de la inteligencia artif‌i cial para el mercado único (digital), la producción, el consumo, el empleo
y la sociedad”, 526º Pleno del cese de 31 de mayo y 1 de junio de 2017 (2017/C 288/01)», p. 1, Conclusiones
y recomendaciones 1.1. Disponible en
2016IE5369&from=BG>. [Consultado el 10/09/2022]; . COMISIÓN EUROPEA, «Anexo de Propuesta de
reglamento del Parlamento Europeo y del Consejo, por el que se establece el programa Europa Digital para
el período 2021-2027, Bruselas, 6.6.2018 COM (2018) 434 f‌i nal», p. 2, Objetivo específ‌i co 2. Inteligencia
artif‌i cial. Disponible en
01aa75ed71a1.0007.02/DOC_2&format=PDF>. [Consultado el 10/09/2022].
3 COMISIÓN EUROPEA, «Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité
Económico y Social Europeo y al Comité de las Regiones, Una Estrategia para el Mercado Único Digital de
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 175
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
La rápida evolución de la IA y sus posibles usos han llevado al cuestionamiento de
la suf‌i ciencia de las herramientas normativas actuales, por lo que la Comisión Europea
comenzó el pasado 30 de junio de 2021 una iniciativa sobre la adaptación de las normas de
responsabilidad civil a la era digital y a la IA4 para someter a examen el régimen jurídico
actual. A través de esta iniciativa la Comisión trata de renovar el modelo de responsabilidad
civil actual con el f‌i n de lograr una armonización en esta materia, crear conf‌i anza en los
productos que utilicen IA y garantizar el mejor y adecuado resarcimiento de los damnif‌i -
cados. Para la consecución de tales f‌i nes se antoja necesaria la ponderación de intereses
tanto industriales como sociales en aras de un equilibrio en las obligaciones de productores
y adquirentes que tan presente ha estado en el proceso de legislación europeo en materia
de consumo5.
En este trabajo se pretende valorar el marco actual de responsabilidad civil de produc-
tores y damnif‌i cados por productos defectuosos, poniendo el foco en las def‌i ciencias que éste
puede presentar, para f‌i nalmente concluir en una propuesta de adaptación del ordenamiento
jurídico europeo que incluya las medidas planteadas en contrapartida a las fallas existentes.
El modelo propuesto estimará necesaria la creación de una personalidad instrumental ad
hoc a efectos de imputación de responsabilidad a los sistemas de IA de alto riesgo y de la
implementación de un sistema de responsabilidad cuasiobjetiva basado en la gestión del
Europa, Bruselas, 6.5.2015 COM (2015) 192 f‌i nal». Disponible en -lex.europa.eu/legal-content/ES/
TXT/PDF/?uri=CELEX:52015DC0192&from=HU>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA,
«Propuesta de reglamento del Parlamento Europeo y del Consejo, por el que se establece el programa Europa
Digital para el período 2021-2027, Bruselas, 6.6.2018 COM (2018) 434 f‌i nal», p. 17-19, Considerandos 7,
8, 10 y 19. Disponible en
01aa75ed71a1.0007.02/DOC_1&format=PDF>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA,
«Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo
y al Comité de las Regiones relativa a la revisión intermedia de la aplicación de la Estrategia para el Mercado
Único Digital, Un mercado único digital conectado para todos, Bruselas, 10.5.2017 COM (2017) 228 f‌i nal»,
p. 25. Disponible en les/COM(2017)228_0/de00
000000201617?rendition=false>. [Consultado el 10/09/2022].
4 COMISIÓN EUROPEA, «Iniciativa sobre Responsabilidad civil. Adaptación de las normas de
responsabilidad a la era digital y a la inteligencia artif‌i cial», 30 de junio de 2021. Disponible en
ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Responsabilidad-civil-Adaptacion-de-
las-normas-de-responsabilidad-a-la-era-digital-y-a-la-inteligencia-artif‌i cial_es>. [Consultado el 10/09/2022].
5 «Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones
legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños
causados por productos defectuosos (DO L 21 de 7.8.1985, p. 29)», Considerandos 1 y 9. Disponible en
op.europa.eu/o/opportal-service/download-handler?identif‌i er=b21bef4e-b528-49e2-a0f9-142dc503969a&for
mat=pdfa1b&language=es&productionSystem=cellar&part=>. [Consultado el 10/09/2022]; STJUE de 25 de
abril de 2002, Asunto C-154/00, Comisión de las Comunidades Europeas contra República Helénica, punto 29.
Determina que «los límites que el legislador comunitario ha f‌i jado en el ámbito de aplicación de la Directiva
son el resultado de un complejo proceso de ponderación entre diferentes intereses. Tal como se desprende de
los considerandos primero y noveno de la Directiva, entre tales intereses se encuentran los dirigidos a mantener
una competencia no falseada, a facilitar los intercambios comerciales dentro del mercado común, a proteger a
los consumidores y a garantizar una buena administración de justicia». Disponible en -lex.europa.
eu/legal-content/ES/TXT/PDF/?uri=CELEX:62000CJ0154&from=ES>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
176
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
riesgo6, por lo que habría de tratarse de una teoría ecléctica. De igual modo, se procederá a
la delimitación de aquellos extremos que resulten de necesaria revisión.
II. SITUACIÓN ACTUAL DE LA IA Y DAÑOS QUE PUEDE CAUSAR
Los sistemas de IA están presentes en cada vez más sectores de nuestra vida, entre
otros el servicio al cliente a través de chatbots en línea; el reconocimiento automático de
voz (ASR) o el denominado speech to text; la visión por ordenador, que permite obtener
datos a través de imágenes digitales y realizar recomendaciones, cuya aplicabilidad, ha
hecho estar presentes a estos sistemas en ámbitos de importante trascendencia social como
lo son la medicina y el sector automovilístico; los motores de recomendación, ahora tan
presentes en materia de consumo como la propia compraventa a distancia; comercio bursátil
automatizado, mediante sistemas de software capaces de realizar millones de operaciones
bancarias diarias sin la intervención del ser humano7.
La Comisión Especial para la IA creada por el Parlamento Europeo def‌i nió a la IA
en el art 3.a) de la Resolución sobre Civil liability regime for artif‌i cial intelligence8 como:
«Aquel sistema que está basado en software o integrado en dispositivos de
hardware, y que muestra un comportamiento que simula inteligencia, entre
otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la
interpretación de su entorno, y la actuación, con cierto grado de autonomía, para
lograr objetivos específ‌i cos».
Esta def‌i nición es completada con lo dispuesto en el art 3.b) del mismo texto, que
calif‌i ca como autónomo a:
«Todo sistema de inteligencia artif‌i cial que opera interpretando determinados datos
de entrada y utilizando un conjunto de instrucciones predeterminadas, sin estar
6 ZURITA MARTÍN, I., «Las propuestas de reforma legislativa del Libro Blanco europeo sobre inteligencia
artif‌i cial en materia de seguridad y responsabilidad civil», Actualidad Jurídica Iberoamericana, núm. 14, 2021,
p. 481. Disponible en .
[Consultado el 10/09/2022].
7 IBM CLOUD EDUCATION, «Machine learning», IBM Cloud Learn Hub, entrada de blog de 15 de
julio de 2020. Disponible en
learning%20es%20una%20rama,mejora%20gradual%20de%20su%20precisi%C3%B3n.>. [Consultado el
10/09/2022].
8 PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 20 de octubre de 2020 con
recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia
artif‌i cial (2020/2014(INL), Régimen de responsabilidad civil en materia de inteligencia artif‌i cial». Disponible
en . [Consultado
el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 177
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
limitado a tales instrucciones, a pesar de que el comportamiento del sistema está
limitado y dirigido al cumplimiento del objetivo que se le dio y otras decisiones
pertinentes de diseño tomadas por su desarrollador».
Los sistemas de IA pueden, por lo tanto, mostrar una respuesta autónoma y no predeter-
minada, en muchos casos, aunque dirigida a un objetivo preestablecido. Esto no quiere decir
que la actuación de estos sistemas sea absolutamente impredecible, sino que, en determinados
casos, puede no depender exclusivamente de la programación de su algoritmo. Esta autonomía
no será ilimitada, y es que dentro del propio concepto de IA podemos encontrar diferentes
ramif‌i caciones que las subdividen en grupos cada vez más concretos. El punto de partida y
la principal diferenciación que encontramos es aquella relativa a la IA fuerte y la IA débil.
La IA débil está conformada por aquellos algoritmos capaces de realizar tareas espe-
cíf‌i cas mediante la realización de un previo análisis y un procesamiento de datos a través
de respuestas lógicas, sin necesidad de mantener estados mentales. La IA fuerte en cambio
funcionaría de forma similar a la del cerebro humano a través de una red neuronal biológica
en la que se trascienda, no solo a una capacidad operativa, sino también ref‌l exiva. Este tipo
de IA aún no ha podido ser desarrollado como tal y, de momento, pertenece exclusivamente
al mundo teórico9. Por ello, trataremos de dar respuesta al fenómeno que supone la cotidia-
nidad con la que la IA débil ha entrado en nuestras vidas, en la amplia mayoría de casos, a
través de sistemas de IA machine learning.
La f‌i nalidad que se persigue a través del machine learning o de aprendizaje automático
es que el software sea capaz de responder de forma ef‌i ciente ante situaciones que no hayan
sido previamente contempladas de forma explícita, es decir, a las que no se haya asimilado
una respuesta concreta ante una circunstancia predef‌i nida. Para hacer esto posible, el sistema
ha de realizar un aprendizaje autónomo tomando como punto de partida el entendimiento
del problema a resolver y la identif‌i cación de fuentes de datos relevantes, para posterior-
mente def‌i nir un criterio de evaluación y preparar los datos. A partir de ahí se construye
un modelo estableciendo la técnica del machine learning y el tipo de algoritmo. Esto será
determinante porque en función del tipo de datos y algoritmos, el proceso de entrenamiento
podrá ser supervisado, no supervisado o reforzado. Durante la fase de entrenamiento se pone
a prueba el software para valorar su respuesta ante diferentes situaciones a las que puede
verse expuesto el sistema. Un entrenamiento más profundo permitirá contemplar desde un
prisma más real la respuesta que esperar del modelo, además de posibilitar un análisis más
detallado de los errores y una evaluación general más precisa con la que poder mejora la
precisión del «ciclo de aprendizaje automático»10 y hacer más previsible la respuesta autó-
9 Para más información consultar: HUERGO LORA, A. y DÍAZ GONZÁLEZ, G. M., «La regulación de
los algoritmos», Revista Técnica Tributaria, Vol. 4, núm. 131, 2020, p. 285.
10 REDACCIÓN APD, «4 tipos de inteligencia artif‌i cial que debes conocer», APD, entrada de blog de 2
de septiembre de 2021. Disponible en cial/ >. [Consultado el
10/09/2022].
GONZALO CAMPOS RIVERA
178
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
noma del sistema, pero resulta poco factible prever todas las posibles situaciones a las que
pueda enfrentarse el sistema de IA.
Dentro de lo que denominamos IA débil encontramos dos nuevas ramif‌i caciones que
nos llevarían a catalogar estos sistemas en sistemas de IA reactiva y sistemas de IA de me-
moria limitada11. Los sistemas de IA reactiva son los más sencillos, basados en decisiones
sobre el presente sin ser tenidas en cuenta sus experiencias del pasado. Esto es así porque
su carencia de memoria hace imposible que puedan desarrollar una lógica propia que derive
de un conocimiento adquirido con carácter posterior al programado. Estos sistemas realizan
predicciones sobre un suceso concreto para tomar la decisión más adecuada dentro de todas
aquellas que han sido previamente programadas en su algoritmo. El ejemplo más claro que
encontramos de estos sistemas es el de las computadoras de ajedrez, las cuales procesan
datos sobre el tablero en un momento determinado y realizan sus movimientos en virtud de
una programación previa, sin tener capacidad de aprender de los movimientos de su adver-
sario. Por otro lado, encontramos los sistemas de IA de memoria limitada. Estos sistemas
son capaces de almacenar datos de forma limitada, lo que permite que puedan añadir esta
información procesada para determinar patrones de comportamiento autónomo que les
permitan dar una propia respuesta a situaciones futuras conforme a su programación y al
almacenamiento y procesamiento autónomo de datos. Este tipo de IA es el que encontramos
en el caso de los vehículos autónomos, los cuales realizan un análisis de las condiciones en
las que circulan, valorando elementos como pueden ser la velocidad de los otros coches,
las condiciones climáticas o los obstáculos en la carretera, entre otros, para así concretar
de forma ef‌i ciente el empleo de los elementos de control del vehículo12.
Esto hace que en aquellas situaciones que no hayan sido previamente contempladas
y ante las que no se haya sometido a entrenamiento por resultar imposible la valoración
del total de situaciones potenciales a las que podría enfrentarse el sistema de IA el sistema
pueda mostrar una respuesta no def‌i nida previamente pero asumible gracias a su aprendizaje
autónomo y a su propia lógica en la toma de decisiones, una lógica que en muchas ocasiones
resulta difícil de entender incluso para sus propios programadores. Esto le permitirá hacer
frente a inf‌i nidad de circunstancias con resultados exitosos, pero también será esa misma
característica la que podrá exponer al sistema a resultados dañinos derivados de una toma de
decisiones errónea. Por lo tanto, podemos determinar que un sistema de IApuede causar
11 Para una sencilla comprensión: TABLADA, F., «Inteligencia artif‌i cial: Def‌i nición, tipos y aplicaciones»,
Grupo Atico34, entrada de blog de 18 de junio de 2020. Disponible en lopd.com/
empresas/inteligencia-artif‌i cial/#Memoria_limitada>. [Consultado el 10/09/2022]; «La inteligencia artif‌i cial»,
Syvalue. Disponible en cial/>. [Consultado el 10/09/2022].
12 Para más información consultar: ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots
inteligentes, personalidad jurídica, responsabilidad civil y regulación, 1.ª ed., Navarra, Cizur Menor (Thomson
Reuters Aranzadi), 2018, pp. 27-34; COMISIÓN EUROPEA, «Libro Blanco Hoja de ruta hacia un espacio
único europeo de transporte: por una política de transportes competitiva y sostenible, Bruselas, 28.3.2011 COM
(2011) 144 f‌i nal», p. 20. Disponible en DF/?uri=CELEX:5
2011DC0144&from=es>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 179
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
un daño derivado de su aprendizaje autónomo sin mediar un error o defecto en el propio
sistema13. Algunos autores han denominado a este fenómeno como «razón algorítmica».
Esta sería una «razón» creada por la humana pero independiente a ella14.
Esta razón algorítmica no equivaldría a la singularidad planteada por Chalmers, que-
dando esta aún bastante lejos. El principio de singularidad15 traería a colación la idea de que
los sistemas de IA pudieran automejorarse recursivamente dando lugar a una generación
de computadoras mejoradas en cuanto a diseño y construcción que propiciase un escenario
alejado del control humano. Sin embargo, esta hipotética singularidad partiría de la exis-
tencia de sistemas de IA fuerte, lo que nos aleja del escenario actual.
III. NECESIDAD DE ADAPTACIÓN DEL ACTUAL MODELO EUROPEO
DE RESPONSABILIDAD CIVIL POR PRODUCTOS DEFECTUOSOS
CON IA. CREACIÓN DE PERSONALIDADES JURÍDICAS AD HOC
PARA LOS SISTEMAS DE IA
Tal y como determina la citada propuesta, podemos entender que las pretensiones
planteadas por la Comisión Europea a través de la iniciativa de adaptación de las normas de
responsabilidad a la era digital y a la inteligencia artif‌i cial tienen un fundamento clave, la
prevención de la posible generación de inseguridad jurídica en materia de responsabilidad
civil por utilización de sistemas de IA como consecuencia de la obsolescencia del derecho
positivo.
El primer problema planteado es la posible inaplicación de la Directiva a productos
digitales, como los sistemas de IA, dada su nota de intangibilidad y la dif‌i cultad para de-
terminar si son realmente un producto o un servicio. Al respecto, podemos presumir que
esa intangibilidad no supondría un escollo a la hora de su catalogación como producto al
entender que, pese a su autonomía y capacidades de sustituir o reemplazar a personas físicas
en la realización de determinadas tareas, tanto domésticas como laborales, estos sistemas de
software han de ser considerados bienes muebles pese a su nota de intangibilidad16 y por lo
tanto han de ser considerados como productos. Sus características especiales hacen que estos
13 PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 16 de febrero de 2017, con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)),
Normas de Derecho civil sobre robótica, P8_TA(2017)0051», p. 6, Considerando AI. Disponible en
www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022].
14 PETIT, M., «Por una crítica de la razón algorítmica. Estado de la cuestión sobre la inteligencia artif‌i cial,
su inf‌l uencia en la política y su regulación», Quaderns del CAC, Vol. 21, núm. 44, 2018, p. 12. Disponible en
les/2018-08/Q44_ES.pdf>. [Consultado el 10/09/2022].
15 CHALMERS, D., «The singularity: A philosophical analysis», Journal of Conciousness Studies, núm.
9-10, 2010, p. 22. Disponible en
=rep1&type=pdf>. [Consultado el 10/09/2022].
16 Para más información consultar: WAGNER, G., «Robot liability», SSRN, 14 de julio de 2018, p. 15.
Disponible en . [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
180
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
sistemas sean productos que realizan un servicio, aunque en ocasiones con cierta autonomía.
Esta circunstancia no determina que en el caso de que el servicio realizado por ese producto
sea defectuoso ello sea consecuencia de la realización del servicio, sino que este servicio
defectuoso traería causa del defecto en el propio producto. Por lo que aun cuando podamos
entender que el servicio prestado por un producto es defectuoso, lo realmente defectuoso
seguirá siendo el producto, ya que este no estaría dotado de una conciencia que le permi-
tiese disociar entre la prestación de un servicio correcto y uno erróneo estando en plenas
condiciones de funcionamiento. Asimismo, podría resultar conveniente la modif‌i cación del
término producto para lograr una más clara inclusión de estos bienes en su marco. Respecto
a la inmaterialidad de los productos digitales, Bercovitz17, entre otros, se encargó de arrojar
luz sobre la cuestión de la aplicabilidad de esta Directiva ya que este texto no hace alusión
alguna al requisito de la corporeidad18. Por otro lado, entendemos apropiada la valoración
de Parra Lucán19 respecto a la aplicación de la Directiva a productores e importadores de
componentes del producto f‌i nal, por lo que a estos también les resultará de aplicación el
régimen de responsabilidad previsto en ella.
El segundo de los problemas planteados radica en que la Directiva únicamente pre-
vea el resarcimiento de los daños materiales o físicos, quedando los daños inmateriales,
como los daños morales o la pérdida de la conf‌i anza, fuera del marco de los considerados
como daños resarcibles. En este sentido entendemos que la diversidad de ámbitos, tanto
de la esfera pública como privada, en los que tendrán impacto estas tecnologías motiva la
modif‌i cación del concepto de «daño» para que en este sean incluidos también los daños
inmateriales o morales. De esta forma, compartimos el criterio más reciente del Parlamento
sobre este aspecto20 al entender que la ausencia de modif‌i cación en este aspecto también
17 BERCOVITZ RODRÍGUEZ-CANO, R., «Comentario al artículo 6», en: BERCOVITZ RODRÍGUEZ-
CANO, R., (coord.), en: Comentarios al Texto Refundido de la Ley General para la Defensa de los Consumidores
y Usuarios y otras leyes complementarias, Pamplona (Aranzadi), 2009, p. 109. Para el caso, Rodrigo Bercovitz
lo valoró en cuanto a su norma de transposición, el TRLGDCU de 2017.
18 ZURITA MARTÍN, I., «Las propuestas de reforma legislativa del libro blanco europeo sobre inteligencia
artif‌i cial en materia de seguridad y responsabilidad civil», cit., p. 460; SEUBA TORREBLANCA., «Concepto de
producto», en: SALVADOR CODERECH, P. y GOMEZ POMAR, F., (coord.) en: Tratado de responsabilidad
civil del fabricante, Pamplona (Thomson/Civitas), 2008, pp. 127-128.
19 PARRA LUCÁN, M. A., La protección del consumidor frente a los daños: responsabilidad civil
del fabricante y del prestador de servicios, 1.ª ed., Madrid (Reus), 2011, p. 187; PARRA LUCÁN, M. A.,
«Comentario al artículo 136», en: BERCOVITZ RODRÍGUEZ-CANO, R., (coord.), en: Comentarios al Texto
Pamplona (Aranzadi), 2009, pp. 1653-1669.
20 PARLAMENTO EUROPEO, «Informe con recomendaciones destinadas a la Comisión sobre un régimen
de responsabilidad civil en materia de inteligencia artif‌i cial (2020/2014(INL))». 5 de octubre de 2020, pp. 14-15,
Principio Rector 8. Disponible en .europarl.europa.eu/doceo/document/A-9-2020-0178_ES.pdf>.
[Consultado el 10/09/2022]; PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 20 de
octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en
materia de inteligencia artif‌i cial (2020/2014(INL)), Régimen de responsabilidad civil en materia de inteligencia
artif‌i cial», pp. 12-13, Principio Rector 8. Disponible en
TA-9-2020-0276_ES.pdf>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 181
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
podría dar lugar a la desprotección de los usuarios de productos equipados con sistemas de
IA en materia de derecho a la protección de datos personales, partiendo del procesamiento
masivo de datos a través del cual estos sistemas sustentan su actuación.
El tercer problema estribaría en que la complejidad tecnológica de estos sistemas de
IA propicia la intervención de una pluralidad de «productores» a lo largo de su proceso
de producción. En este contexto, la opacidad de los sistemas podría implicar una excesiva
dif‌i cultad a la hora de demostrar la responsabilidad de un productor en concreto por parte
del damnif‌i cado. Para ello prevemos la continuidad de la solidaridad en la responsabilidad
de productores como una posible solución que permita al damnif‌i cado poder obtener el
resarcimiento del daño sin tener que localizar al productor responsable en concreto.
El cuarto de los problemas que se nos plantea radica en las excesivas dif‌i cultades que
puede suponer al damnif‌i cado la demostración del daño y el defecto en el producto, al esta-
blecer el nexo causal. Para ello planteamos diferentes medios de aminoración de la carga de
la prueba o incluso su inversión como contrapartida al fenómeno black box, a través de los
cuales se prevea que sea el productor quien tenga que demostrar la ruptura del nexo causal
o probar alguna de las causas de exoneración previstas en el artículo 721 de la Directiva
85/374 para exonerarse de responsabilidad. En esta misma línea, la conservación de un
modelo de responsabilidad cuasiobjetiva del productor resulta necesaria para garantizar el
resarcimiento al damnif‌i cado teniendo en cuenta el riesgo potencial que implica la comer-
cialización de estos sistemas de IA y su capacidad de aprendizaje autónomo.
El quinto problema partiría de esta misma cualidad de aprendizaje autónomo del sis-
tema y la posibilidad de que causen daños que quedasen fuera del posible control o respon-
sabilidad del productor al suscitar ciertas dudas si en este caso ese aprendizaje autónomo se
consideraría como «defecto», o si la exclusión de responsabilidad por riesgos del desarrollo
provocaría el irresarcimiento de esos daños. Nuestra propuesta parte de la consideración de
estos daños como defectos en tanto en cuanto supondrían que el producto dañino no habría
cumplido con las expectativas de seguridad a las que una persona tendría legítimamente
derecho, por lo que el productor será responsable directo ante el damnif‌i cado. Igualmente,
en estos casos no sería de aplicación la exclusión de responsabilidad del artículo 7.e) de
la Directiva al tratarse de riegos conocidos con carácter previo a la puesta en circulación
del producto que, si bien en ese momento no constituían un defecto, fueron asumidos y
aceptados para su puesta en circulación, por lo que no resultaría posible interpretar que esos
defectos no podían haber sido conocidos conforme al estado de la ciencia.
El sexto problema derivaría de la implementación de modelos comerciales circulares y
las consecuencias que podrían derivarse de los daños generados por productos reacondicio-
nados, reciclados o destinados a un uso distinto del previsto. El modelo propuesto partiría
de la responsabilidad del productor por defectos existentes con carácter previo a la puesta
en circulación del producto, con la excepción de aquellos generados con posterioridad, cuyo
21 Transpuesto al Ordenamiento Jurídico Español por el artículo 140 TRLGDCU.
GONZALO CAMPOS RIVERA
182
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
riesgo potencial de aparición fuese aceptado y tolerado para la puesta en circulación del
producto y solo en aquellos casos en que dicha asunción de riesgos encuentre su justif‌i cación
en razones de interés general: como sería el caso de los existentes cuando el sistema de IA
cause daños a consecuencia de la aplicación de una lógica algorítmica desarrollada por su
aprendizaje autónomo. En tal caso, se podrá imputar responsabilidad al productor pese a
que el defecto hubiera traído causa de la materialización de un riesgo22 con posterioridad a la
puesta en circulación del producto. Pero los productores no habrían de ser responsables por
los daños causados por defectos en el producto cuando derivasen del reacondicionamiento,
reciclaje o uso del producto para un f‌i n distinto al previsto por el productor. Para ello, será de
suma relevancia la información con la que se dote al adquirente del producto en cada caso,
debiendo así, dotar de mayor relevancia a la información precontractual sobre las caracte-
rísticas del producto y sus posibilidades y limitaciones de reacondicionamiento o reciclaje.
El séptimo y último problema planteado sería el relativo al límite cuantitativo inferior
de 500 euros en la responsabilidad del productor y la duración de los plazos23 de ejercicio
de acciones contra el productor por daños derivados de defectos en el producto. En primer
lugar, podemos entender que a través del sistema planteado de responsabilidad cuasiobjetiva,
necesariamente ponderado de forma casi simbiótica con la gestión de riesgos, estos daños
«menores» habrán de ser asumidos y aceptados en pos de los objetivos industriales de la
UE y los intereses generales de la sociedad en su conjunto. De esta forma, estos daños no
serán resarcibles al ser inalterada dicha excepción. Por otro lado, en lo que a los plazos de
prescripción respecta, hemos de encuadrar esta medida en un marco cuasiobjetivo de res-
ponsabilidad del productor con una carga de la prueba, si no invertida, relativamente laxa.
Lo que implicaría que, no existiendo un límite cuantitativo superior a esa responsabilidad,
resulte pertinente el establecimiento de un límite temporal ponderando así los intereses de
usuarios y productores para la consecución de un equilibrio en el mercado.
Estas son las medidas propuestas, de conformidad con el modelo planteado, para la
adaptación de la Directiva 85/374 a los objetivos24 de la citada iniciativa de la Comisión.
Para su cumplimiento, la Comisión plantea un escenario de referencia y una propuesta de
policy options que vendrían a ser posibles modif‌i caciones y mecanismos de adaptación del
ordenamiento jurídico europeo al marco digital actual. Dentro de esas opciones entendemos
22 Riesgo de causar daños como consecuencia del desarrollo de una razón algorítmica.
23 Plazo de prescripción de 3 años a partir de la fecha en que el demandante tuvo, o debería haber tenido,
conocimiento del daño, del defecto y de la identidad del productor para ejercicio de acción por parte del
damnif‌i cado (art 10, Directiva 85/374) y plazo de prescripción de 10 años desde la puesta en circulación del
producto para el ejercicio de derechos del damnif‌i cado en virtud de la Directiva 85/374 (art 11, Directiva
85/374).
24 (1) Modernizar las normas de responsabilidad para tener en cuenta las características y los riesgos de
las nuevas tecnologías y de los nuevos modelos comerciales digitales y circulares, incluidos los productos y
servicios equipados con inteligencia artif‌i cial; (2) reducir los obstáculos para obtener una indemnización por
daños con el f‌i n de (i) garantizar que las partes perjudicadas estén igualmente protegidas en toda la UE y (ii)
crear conf‌i anza en productos y servicios innovadores, y en los sistemas judiciales, al tiempo que se promueve
la adopción por parte de los consumidores de productos y servicios innovadores. tecnologías, incluida la IA.
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 183
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
que las medidas propuestas se podrán subsumir dentro de la siguiente combinación de policy
options: 1.b + 1.c (II) +2.2c.
Para la adopción de estas medidas, así como la posible implantación del modelo
propuesto, podría jugar un papel fundamental el futuro Reglamento de responsabilidad
civil derivada de la utilización de sistemas de IA del que, pese a haber sido avanzada la
propuesta25, aún no ha sido aprobado el texto def‌i nitivo. A continuación, valoraremos las
posibles aportaciones que podrían realizarse a través de este futuro Reglamento para la
implementación de las medidas planteadas.
Todas las medidas planteadas se basan en la adaptación del modelo actual de responsa-
bilidad civil y la creación de personalidades jurídicas ad hoc de los sistemas de IA a efectos
de imputación de responsabilidad a los mismos.
IV. PROPUESTA DE ADAPTACIÓN DEL ACTUAL MODELO DE
RESPONSABILIDAD CIVIL Y FACTORES A TENER EN CUENTA
1. Seguro obligatorio, objetivación de la responsabilidad civil, pólizas de seguro
y retos para el desarrollo industrial
El Parlamento Europeo considera necesario el seguro obligatorio en sistemas de alto
riesgo26 y ello hará aún más estrecha, si cabe, la relación de la industria 4.0 con el sector
de las aseguradoras.
Esta circunstancia permitiría a los productores realizar una previsión de costes anuales
en responsabilidad civil equivalente al precio de la póliza al inicio de cada periodo, lo que
indirectamente se podría traducir en una mejor gestión del capital que garantice su solvencia
y propicie un escenario fructífero para la inversión en producción de tecnología emergente.
Pero hay una pregunta que llegados a este punto podríamos hacernos, ¿cuál será el precio
de la póliza de seguros para sistemas de IA de alto riesgo teniendo en cuenta la posibilidad
de una responsabilidad objeti va, el fenómeno black box y la posibilidad de que el sistema
25 COMISIÓN EUROPEA, «Propuesta de Reglamento de 21 de abril de 2021 del Parlamento Europeo
y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artif‌i cial (Artif‌i cial
Intelligence Act) y se modif‌i can determinados actos legislativos de la Unión». Disponible en:
europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206>. [Consultado el 10/09/2022].
26 «Informe del Parlamento Europeo de 27 de enero de 2017 con recomendaciones destinadas a la Comisión
sobre normas de Derecho civil sobre robótica, (2015/2103(INL))», p. 19, Considerando 57. Disponible en
. [Consultado el 10/09/2022];
«Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión
sobre normas de Derecho civil sobre robótica (2015/2103(INL)), Normas de Derecho civil sobre robótica,
P8_TA(2017)0051», p. 16, Considerando 57. Disponible en .europarl.europa.eu/doceo/document/
TA-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
184
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
de IA genere daños a causa de su aprendizaje autónomo? Tapia Hermida27 consideró que
podría ser bastante elevado aun sin tener en cuenta las circunstancias propuestas en este
trabajo. Por su parte, la Fondazione Rosselli28 considera que «los costes de dejar a los pro-
ductores innovar en un entorno de responsabilidad objetiva serían extremadamente elevados
y afectarían a los consumidores a largo plazo», pudiendo derivar en un encarecimiento de
las pólizas de seguro29, lo que podría provocar un receso en el desarrollo de la industria,
oponiéndose frontalmente a los intereses principales de la UE en su afán de situarse a la
vanguardia del desarrollo tecnológico. En cualquier caso, en consonancia con el criterio de
Gómez Ligüerre y García Micó30, entendemos que será necesaria la inequívoca delimitación
de lo que habría de entenderse por sistemas de IA de alto riesgo para disipar dudas sobre
los sujetos obligados a asegurarse.
Por otro lado, se ha podido evidenciar a través del análisis económico del derecho que
la objetivación de la responsabilidad no solo incidiría en el aumento del resarcimiento del
damnif‌i cado y el precio de la póliza de seguro, sino que podría suponer un incentivo a la
inversión en la seguridad de los productos de sistemas de IA de alto riesgo. Tal y como se
concluye en el trabajo «Car accidents in the age of robots»31:
«aunque tanto la regla de la negligencia responsabilidad subjetiva como la
de la responsabilidad estricta responsabilidad objetiva pueden diseñarse para
garantizar que se tomen las mejores decisiones de cuidado, sólo la segunda
permite al fabricante disfrutar plenamente del benef‌i cio que genera su inversión
27 TAPIA HERMIDA, A., «La responsabilidad civil derivada del uso de la inteligencia artif‌i cial y su
aseguramiento», Revista de la Asociación Española de Abogados Especializados en Responsabilidad Civil
y Seguro, núm. 76, 2020, p. 128; PARLAMENTO EUROPEO, «Informe del Parlamento Europeo con
recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia
artif‌i cial (2020/2014(INL)) de 5 de octubre de 2020», pp. 12-13, Considerando 25. Disponible en
www.europarl.europa.eu/doceo/document/A-9-2020-0178_ES.pdf>. [Consultado el 10/09/2022].
28 COMISIÓN DE LAS COMUNIDADES EUROPEAS, «Informe de la Comisión al Consejo, al Parlamento
Europeo y al Comité Económico y Social Europeo, Tercer informe sobre la aplicación de la Directiva 85/374/
CEE del Consejo de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias
y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos
defectuosos, modif‌i cada por la Directiva 1999/34/CE del Parlamento Europeo y del Consejo, de 10 de mayo de
1999, Bruselas, 14.9.2006 COM(2006) 496 f‌i nal», p. 7. Disponible en
ES/TXT/PDF/?uri=CELEX:52006DC0496>. [Consultado el 10/09/2022].
29 FONDAZIONE ROSSELLI., «Analysis of the Economic Impact of the Development Risk Clause as
provided by Directive 85/374/EEC on Liability for Defective Products», Study for the European Commission,
2004, p. 132-133. Disponible en .studiolegalepalmigiano.it/wp-content/uploads/2013/12/dev-risk-
clause-study_f‌i nal-report.pdf>. [Consultado el 10/09/2022].
30 GÓMEZ LIGÜERRE. C. y GARCÍA-MICÓ, T.G., «Liability for Artif‌i cial Intelligence and other
emerging technologies», InDret, núm. 1, 2020, p. 510. Disponible en <1524.pdf (indret.com)>. [Consultado
el 10/09/2022].
31 DE CHIARA, A. et al., «Car accidents in the age of robots», International Review of Law and
Economics, núm. 68, 2021, pp. 1-14. Disponible en
S0144818821000466>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 185
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
en I+D, que está asociado a la reducción de la probabilidad de que se produzca
un accidente de tráf‌i co».
Ello podría motivar a los productores a tratar de reducir los costes del seguro obliga-
torio al reducir los riesgos mejorando la seguridad.
Esta objetivación también podría tener un efecto positivo en los incentivos de los
consumidores en la adquisición productos que usen sistemas de IA de alto riesgo. Podemos
pensar en el sector del automóvil, en el que apriorísticamente, la completa automatiza-
ción de los vehículos en un régimen de responsabilidad civil cuasiobjetiva podría afectar
positivamente a la disminución del precio del seguro obligatorio del vehículo ya que, al
reducirse la posibilidad de daños derivados de negligencia en la conducción del vehículo,
esta responsabilidad habría de ser imputada al productor la mayoría de los casos. Por lo que
entendemos que cuanto mayor sea el automatismo del sistema de IA, mayor responsabilidad
es trasladada al productor y, en consecuencia, menor grado de responsabilidad es imputable
al propietario o usuario32.
Este incentivo en la adquisición de sistemas de IA de alto riesgo también podría in-
centivar la mejora de la inversión en seguridad de los productos. Entendiendo que será el
propio mercado el que conduzca a los productores a mejorar la seguridad de sus productos.
Tal y como se determina en el citado artículo, la inversión en seguridad del producto sería
directamente proporcional al número de ventas, ya que un elevado número de ventas moti-
varía que esta inversión fuese socialmente exigida33. Como se concluye, «la responsabilidad
objetiva parece estar mejor posicionada para estimular la inversión. Por lo tanto, debería
favorecerse esta norma […]»34.
Podemos entender que las medidas nombradas son necesarias, aunque no suf‌i cientes,
teniendo en cuenta que no se trata únicamente de la protección a ultranza del consumidor,
sino también de valorar los intereses y las necesidades de todos los operadores del mercado
en el desarrollo y la comercialización de estos productos, para así, no penalizar el desarrollo
tecnológico35. Este ha sido el espíritu de la Directiva 85/374 y así debería continuar siendo
en una futura modif‌i cación o adaptación a la IA.
32 DE CHIARA, A. et al., «Car accidents in the age of robots», cit., p. 3.
33 DE CHIARA, A. et al., «Car accidents in the age of robots», cit., p. 4.
34 DE CHIARA, A. et al., «Car accidents in the age of robots», cit., p.10.
35 PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 16 de febrero de 2017, con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)),
Normas de Derecho civil sobre robótica, P8_TA(2017)0051», p. 1, Considerando B. Disponible en
europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022]; PARLAMENTO
EUROPEO, «Informe de 27 de enero de 2017 con recomendaciones destinadas a la Comisión sobre normas de
Derecho civil sobre robótica, (2015/2103(INL))», p. 3, Considerando B. Disponible en .europarl.
europa.eu/doceo/document/A-8-2017-0005_ES.pdf>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
186
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
2. Responsabilidad patrimonial de la IA y Consorcio de compensación de seguro
Tal y como Lacruz Mantecón36 estima, «para indemnizar lo importante es tener pa-
trimonio, no personalidad, y que la ausencia de patrimonio en los robots hace difícil poder
indemnizar y reparar los daños». Ello propicia que, con carácter previo a la concreción
de las características de una hipotética personalidad jurídica robótica, resulte necesario el
estudio de mecanismos que puedan permitir imputar un patrimonio a los sistemas de IA a
efectos exclusivos del resarcimiento de daños por la responsabilidad que pudieran contraer
si fuesen dotados de esta.
La solución que podríamos entender más adecuada ante este panorama es la constitu-
ción de un sistema de Consorcio de compensación de seguro a nivel europeo que coexistiese
con el seguro de responsabilidad civil obligatorio de los productores de este tipo de produc-
tos. Este sistema de Consorcio de compensación de seguro f‌i nanciaría las indemnizaciones
relativas a la responsabilidad civil contraídas por el sistema de IA por acciones dañosas
derivadas de su aprendizaje autónomo y ajenas a la posible acción o responsabilidad de su
productor. En otro sentido, el seguro obligatorio establecido para los sistemas de alto riesgo
operaría para las responsabilidades que contraiga el productor, y el consorcio de compen-
sación de seguro operaría para aquella responsabilidad civil que contraiga el sistema de IA
por daños causados a consecuencia del desarrollo de una razón algorítmica. Otra misión que
podría desarrollar el Consorcio es la de actuar como fondo de garantía frente a la insolvencia
de aseguradoras privadas tal y como el Parlamento Europeo propone37.
En cuanto a la f‌i nanciación de este hipotético consorcio, podemos entender adecuada la
valoración de dos posibles opciones continuando el razonamiento expuesto: (1) la f‌i nancia-
ción se logre a través de interposición de un recargo en la póliza de seguro obligatorio para
sistemas de IA, o (2) se atribuya la f‌i nanciación del Consorcio al común de la sociedad a través
de la creación de una suerte de impuesto que gravase la adquisición de sistemas de IA de alto
riesgo. En el primero de los casos, podría entenderse como un medio ef‌i ciente para garantizar
la contribución al consorcio de la totalidad de los productores de este tipo de productos sin
suponer, al menos directamente, un gasto para el adquirente. Uno de los problemas que este
supuesto podría presentar es que este recargo traiga como consecuencia un incremento en el
precio de la póliza, que implicase la asunción del coste por parte de los productores y no de
las aseguradoras, pudiendo ser estos incrementos f‌i nalmente repercutidos en el consumidor o
36 LACRUZ MANTECÓN, M., «Potencialidades de los robots y capacidades de las personas», Revista
general de legislación y jurisprudencia, núm. 1, 2019, pp. 97 y 141.
37 PARLAMENTO EUROPEO, «Informe de 27 de enero de 2017 con recomendaciones destinadas a
la Comisión sobre normas de Derecho civil sobre robótica, (2015/2103(INL))», p. 19, Considerando 58.
Disponible en 8-2017-0005_ES.pdf>. [Consultado el
10/09/2022]; PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo de 16 de febrero de 2017, con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)),
Normas de Derecho civil sobre robótica, P8_TA(2017)0051», p. 16, Considerando 58. Disponible en
www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 187
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
destinatario f‌i nal a través de un encarecimiento de los productos. En el segundo de los casos,
tal imputación habría de partir del hecho de que el f‌i n último de la atribución de responsabi-
lidad jurídica a los sistemas de IA de alto riesgo es la protección del avance tecnológico y de
las implicaciones positivas que ello supone para en el desarrollo social.
3. Responsabilidad por hecho ajeno
La responsabilidad por hecho ajeno se encuentra regulada en los arts. 1903 y 1904
CC. El primero, en realidad, enuncia una responsabilidad por hecho propio ya que lo que
fundamentará la atribución de responsabilidad será la culpa in educando, in custodiando,
in vigilando o in eligendo, en la que para el cese de esta responsabilidad, se exige la prueba
de la diligencia de un buen padre de familia38 para la prevención del daño por parte de los
sujetos designados como responsables en el propio precepto, por lo que se considerará un
modelo de responsabilidad subjetiva.
Especial interés nos suscita la responsabilidad vicaria o responsabilidad del empresario
por sus dependientes. Esta responsabilidad es directa y no subsidiaria, siendo el demandante
quien ha de acreditar en el demandado (1) la condición de empresario y (2) la relación de
dependencia. Esta responsabilidad emana del lucro del empresario, el cual, a causa del be-
nef‌i cio obtenido deberá responder por los daños producidos en el desarrollo de su actividad
profesional. Ello derivará del principio qui sentit commodum debet sentire incommodum39.
Este principio vendría a decir:
38 Para una sencilla comprensión del concepto, consultar: WOLTERS KLUWER., «Buen padre de familia»,
Guías Jurídicas Wolters Kluwer. Disponible en
aspx?params=H4sIAAAAAAAEAMtMSbF1jTAAAUNDc2MLtbLUouLM_DxbIwMDCwNzA7BAZlqlS35
ySGVBqm1aYk5xKgDRNX52NQAAAA==WKE>. [Consultado el 10/09/2022]. Entendiéndose como tal la
diligencia debida y exigible según las circunstancias.
39 LÓPEZ DEL MORAL, M. et al., «Inteligencia artif‌i cial y responsabilidad civil: ¿es realmente necesario
un cambio del Ordenamiento Jurídico?», Diario La Ley, núm. 47, 29 de enero de 2021, p. 21. Disponible en:
cial-y-responsabilidad-civil-es-realmente-
necesario-un-cambio-del-ordenamiento-juridico>; STS 252/2017 de 6 abril (RJ 2017\4114). La Sala de lo Penal,
siembra jurisprudencia sobre subsidiariedad en la responsabilidad por dependientes. Fija en su Antecedente de
Hecho Séptimo (1.4.): «Más modernamente, la jurisprudencia de esta Sala a propósito de esta responsabilidad,
569/2012 (RJ 2012, 11231) ) precisa que su razón de ser se encuentra en el principio de derecho según el cual,
quien obtiene benef‌i cios de un servicio que se le presta por otro, debe soportar también los daños ocasionados
por el mismo (principio “cuius commoda, eius est incommoda”) , subrayando la evolución de dicho fundamento
desde la culpa “in vigilando” o “in eligendo” hasta una suerte de responsabilidad objetiva». Delimitando también
en su Antecedente de Hecho Séptimo (1.4.b) que: «Por ello la interpretación de aquellos dos requisitos debe
efectuarse con amplitud (Cfr STS 27-6-2012, nº 569/2012 (RJ 2012, 11231)), apoyándose la fundamentación
de tal responsabilidad civil subsidiaria no solo «en los pilares tradicionales» de la culpa “in eligendo y la culpa
iu vigilando”, sino también sobre todo en la teoría del riesgo, conforme al principio “qui sentire commodum,
debet sentire incommodum” (SSTS. 525/2005 de 27.4, 948/2005 de 19.7 (RJ 2005, 6540)), de manera que
quien se benef‌i cia de actividades que de alguna forma puedan generar un riesgo para terceros debe soportar
las eventuales consecuencias negativas de orden civil respecto de esos terceros cuando resulten perjudicados
GONZALO CAMPOS RIVERA
188
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
«[…] su razón de ser se encuentra en el principio del derecho según el cual, quien
obtiene benef‌i cios de un servicio que se le presta por otro (en este caso, tecnológico), debe
soportar también los daños ocasionados por el mismo (criterio cuius commoda, eius est
incommoda)».
Este precepto ha de ser valorado en conjunción con el artículo 1904 del mismo cuerpo
legal, por el que se establece la posibilidad de ejercicio de acción de repetición que puede
llevar a cabo el responsable de los daños por hecho ajeno contra sus dependientes por la
cantidad que hubiera efectivamente satisfecho.
Extrapolando esta responsabilidad al caso de los sistemas de IA, podríamos entender
que, tal y como la Comisión40 propone, en aplicación del principio de equivalencia funcional,
el sistema de IA podría ser considerado como el dependiente, y el productor como el empre-
sario. El principio de equivalencia funcional41 en la delegación en no humanos consistirá en:
«[…] la prohibición de negar la compensación en una situación que involucra
tecnologías digitales emergentes cuando hubiese habido resarcimiento en una
situación funcionalmente equivalente que involucrara conducta humana y
tecnología convencional».
Por ello también se podría estimar la responsabilidad contractual empresario42 y
extracontractual del usuario no profesional por culpa in eligendo cuando éste designase
un sistema de IA inapropiado para un servicio concreto43, debiendo tomarse el estado de la
ciencia como marco de referencia para delimitar la diligencia del empresario/profesional al
elegir una u otra tecnología y la diligencia debida para el usuario no profesional.
En la asimilación completa del modelo previsto para la responsabilidad por hecho
ajeno a la responsabilidad civil de sistemas de IA de alto riesgos encontraríamos el problema
de que no existiría puramente relación de sometimiento entre el empresario y el sistema de
[…]». Disponible en
0000017d5733488ac28cecc0&marginal=RJ\2017\4114&docguid=Ib516d2e03c3311e78a9e010000000000&
ds=ARZ_LEGIS_CS&infotype=arz_juris;&spos=1&epos=1&td=1&predef‌i nedRelationshipsType=documen
tRetrieval&fromTemplate=&suggestScreen=&&selectedNodeName=&selec_mod=false&displayName=#>.
[Consultado el 10/09/2022].
40 DIRECCIÓN GENERAL DE JUSTICIA Y CONSUMIDORES (COMISIÓN EUROPEA), «Report on
Liability for Artif‌i cial Intelligence and other emerging technologies», 27 de noviembre de 2019, p. 45. Disponible
en 1ea-8c1f-01aa75ed71a1/language-
en >. [Consultado el 10/09/2022].
41 LÓPEZ DEL MORAL, M. et al., «Inteligencia artif‌i cial y responsabilidad civil: ¿es realmente necesario
un cambio del Ordenamiento Jurídico», cit., p. 19.
42 Entiéndase aplicable a la responsabilidad del profesional por sus dependientes.
43 DIRECCIÓN GENERAL DE JUSTICIA Y CONSUMIDORES (COMISIÓN EUROPEA), «Report on
Liability for Artif‌i cial Intelligence and other emerging technologies», 27 de noviembre de 2019, p. 45. Disponible
en 1ea-8c1f-01aa75ed71a1/language-
en >. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 189
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
IA, ya que, al carecer este de conciencia, difícilmente podríamos hablar de sometimiento.
Pese a ello, podríamos entender que el régimen de responsabilidad vicaria previsto para
empresarios por sus empleados dependientes podría continuar rigiendo en la misma materia
cuando el empleado fuese sustituido por un sistema de IA.
4. Propuesta de adaptación del modelo de responsabilidad civil por productos
defectuosos que usen IA
La propuesta de un modelo de personalidad jurídica, así como de una serie de mo-
dif‌i caciones sobre el actual modelo de responsabilidad que permita la adaptación de la
normativa vigente en materia de responsabilidad civil por uso de IA debería partir de una
valoración de las implicaciones de la industria tecnológica en la seguridad de la sociedad,
garantizando siempre el resarcimiento de los daños causados por esta tecnología introdu-
cida. La ponderación entre estos dos intereses nos conduce a valorar la propuesta de una
teoría ecléctica44, a caballo entre la responsabilidad objetiva/cuasiobjetiva y la gestión de
riesgos. De esta manera se pretende que la protección de los damnif‌i cados no implique
necesariamente un receso en el desarrollo industrial. Esta cuestión ya fue planteada por
la Comisión45 y el Parlamento46, y podemos entender que el desarrollo industrial favorece
directamente a la sociedad y que la asunción de unos riesgos determinados ha de realizarse
en pos de una mayor seguridad en el presente y el futuro. Por lo que, en consonancia con el
criterio de los redactores de las Reglas Modelo sobre Evaluación de Impacto de la IA del
European Law Institute47, la gestión de riesgos ha de cobrar un especial protagonismo en
el planteamiento del modelo para dotar a este de equilibrio.
El modelo propuesto podría ser un modelo de responsabilidad cuasiobjetiva del pro-
ductor, conservando las exclusiones de responsabilidad del art 7 de la Directiva 85/374 de
productos defectuosos. Sin embargo, en lo que respecta a las relaciones internas en el ejerci-
44 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 116.
45 COMISIÓN EUROPEA., «Libro Blanco sobre la inteligencia artif‌i cial - un enfoque europeo orientado a
la excelencia y la conf‌i anza, 19.2.2020 COM (2020) 65 f‌i nal», p. 2. Disponible en
sites/default/f‌i les/commission-white-paper-artif‌i cial-intelligence-feb2020_es.pdf>. [Consultado el 10/09/2022].
46 PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo de 16 de febrero de 2017, con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)),
Normas de Derecho civil sobre robótica, P8_TA(2017) 0051», p. 16, Considerando 53. Disponible en
A-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022];
PARLAMENTO EUROPEO, «Informe de 27 de enero de 2017 con recomendaciones destinadas a la Comisión
sobre normas de Derecho civil sobre robótica, (2015/2103(INL))», p. 19, Considerando 53. Disponible en
. [Consultado el 10/09/2022].
47 SCHNEIDER, J-P y WENDEHORST, C., «Response to the public consultation on the White Paper: On
artif‌i cial Intelligence – A European approach to excellence and trust, COM (2020) 65 f‌i nal», European Law
Institute, p. 4. Disponible en .pdf (europeanlawinstitute.eu)>. [Consultado
el 10/09/2022].
GONZALO CAMPOS RIVERA
190
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
cio de acción de repetición entre los productores y el propio sistema de IA, la subjetivación
de la culpa sería necesaria ante el carácter solidario y cuasiobjetivo de la responsabilidad
de los productores en las relaciones con los damnif‌i cados. Esto nos podría llevar a valorar
el carácter abierto de esta futurible responsabilidad subjetiva entre productor y sistema de
IA de alto riesgo más bien como un modelo de culpas presuntas48.
La necesidad de traer a colación esta responsabilidad subjetiva de culpas presuntas no
es otra que la corrección terminológica si partimos de la perspectiva procesal de que para
que un productor pueda interponer acción de repetición contra el sistema de IA, este habría
debido ser necesariamente sentenciado al resarcimiento de los daños causados a un sujeto
damnif‌i cado como consecuencia de su responsabilidad cuasiobjetiva. Por lo que hemos
de entender que para su exoneración de responsabilidad civil, el productor habrá de lograr
la demostración de ausencia de culpa a través de la evidencia de la ausencia de errores en
la producción, así como la muestra de la diligencia exigible, teniendo en cuenta el grado
de especialización técnica y riesgos que entrañan estas tecnologías para, posteriormente,
demostrar la culpabilidad del sistema de IA a razón del desarrollo de una razón algorítmica
como motivo para la causación del daño.
Esta culpa del sistema es la denominada por Ercilla García49 como culpa in singula-
ritatem, def‌i nida por él mismo como aquella existente e imputable al sistema «cuando la
acción del robot se aleje de una lógica humana y el robot haya obrado conforme a principios
lógicos por él concebidos». Esta culpa in singularitatem partiría del principio de singulari-
dad de Chalmers50, principio que, si bien es cierto que en los supuestos de IA débil quizás
no podría llegar subsumirse por completo, podemos interpretar que el desarrollo de una
razón algorítmica derivada del aprendizaje autónomo del sistema permite la atribución de
cierta analogía terminológica para aquellos casos en que la razón algorítmica desarrollada
por el sistema IA sea la causa del daño. Esta culpa nos lleva a plantearnos si es conveniente
seguir la línea planteada por Ercilla García51 e implantar ex novo la posibilidad de ejercicio
de actio singularitatem. Esta acción no guardaría diferencias con la clásica acción de repeti-
ción más que en la terminología y en su carácter autónomo, pero podría plantearse como un
mecanismo para la despersonalización de los sistemas de IA y la remarcación del carácter
instrumental de su personalidad jurídica a través de la creación de una institución autónoma
para la acción procesal contra ella y limitada a efectos de responsabilidad civil. Esta acción
podría recordarnos a la clásica actio peculio que empleaban los terceros interesados contra
el peculio por las deudas contraídas por el servus romano en su administración.
48 YZQUIERDO TOLSADA, M., Responsabilidad civil extracontractual: parte general: delimitación y
especies, elementos, efectos o consecuencias. 6.º ed., Madrid (Dykinson), 2020, pp. 268-269.
49 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 42.
50 CHALMERS, D., «The singularity: A philosophical analysis», cit., pp. 7-65.
51 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 119.
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 191
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
Los esclavos por aquel entonces eran def‌i nidos como «instrumentos animados»52 en
el sentido más utilitarista de la expresión. Es decir, como auténticas máquinas humanas.
El esclavo era considerado como una cosa, una res objeto de propiedad del dominus. Pero,
pese a ser considerado como cosa, se encontraba dotado de inteligencia, voluntad y perso-
nalidad física, esto hacía que la relación de sometimiento se asemejase en cierto modo a la
de potestas en el caso de los pater familias. Sin ser una relación de propiedad estricta, el
servus ostentaba un estatus jurídico de alieni iuris53. Su condición de esclavo lo convertía
en servile caput54, impidiéndole ello ser titular de derechos y obligaciones55. Esta carencia
de posibilidad de ser titular de derechos y obligaciones, para Buckland56, presentaba una
excepción, el peculio. Este consistía en un conjunto de bienes que el servus recibía del
dominus a efectos de su administración, permitiéndole disponer de los benef‌i cios que con
ella generase. Las relaciones jurídicas que mantenía el servus con terceros en la adminis-
tración de esta masa de bienes no le vinculaban a él propiamente sino al peculio, por lo que
los benef‌i cios obtenidos en tales negocios no serían parte del patrimonio del dominus sino
que serían integrados en el peculio. Lo que sí pertenecería al dominus serían los créditos
y las obligaciones que se derivasen de la administración del peculio por parte del servus.
En este contexto, el tercero disponía de la denominada actio peculio. A través de esta
institución, el dominus resultaba responsable de las deudas contraídas frente a terceros por el
peculio administrado por el esclavo, con un límite cuantitativo, el valor del propio peculio.
Esto suponía un acercamiento a la responsabilidad del esclavo, pese a que la responsabilidad
última seguiría siendo del dominus. La relación que se puede establecer entre la clásica
institución citada y la actio singularitatem propuesta radicaría principalmente en que: (1)
ambas se dirigen frente a un patrimonio atribuido a una entidad no dotada de personalidad
jurídica plena57; (2) en ambos casos, el patrimonio al que se dirigirían sería un patrimonio
ajeno al del causante del nacimiento de la responsabilidad58; (3) a través de ambas institu-
ciones se pretende la satisfacción de una responsabilidad pecuniaria. Sin embargo, pese a
52 ARISTÓTELES, P., Libro primero, capítulo II. De la esclavitud.
53 DIGESTO, De diversis regulis iuris antiqui (D. 50, 17), Libro quincuagésimo, Título 17, ULPIANO en
el quadragésimo tercer Libro a SABINO: Quod attinet ad ius ci vile, servi pro nullis habentur; non tamen et
iure naturali, quia, quod ad ius naturale attinet, omnes homines aequales sunt. Lo que en su traducción literal
viene a decir que: respecto al derecho civil, los siervos no son considerados personas; pero no por el derecho
natural, porque respecto al derecho natural, todos los hombres son iguales.
54 BUCKLAND., The Roman law of slavery: The condition of the slave in private law from Augustus to
Justinian, Cambridge (University Press), 1908, pp. 129-131. Disponible en
ca/econ/ugcm/3ll3/buckland/RomanLawSlavery.pdf>. [Consultado el 10/09/2022].
55 D. 50. 17. 22., ULPIANO en el vigésimo octavo Libro a SABINO: In personam servilem nulla cadit
obligatio. Lo que en su traducción literal viene a decir que: Ninguna obligación recae sobre un esclavo.
56 BUCKLAND., The Roman law of slavery: The condition of the slave in private law from Augustus to
Justinian, cit., p. 187-206.
57 En el caso planteado de la IA de alto riesgo se pretende que esta responsabilidad sea limitada, mientras
que en el caso del servus del Derecho romano, este no estaba dotado de personalidad jurídica.
58 De la misma forma que el peculio no pertenecía al esclavo, el patrimonio con el que se dote al Consorcio
creado a tal efecto no será propiedad del sistema de IA de alto riesgo.
GONZALO CAMPOS RIVERA
192
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
sus similitudes, presentará importantes diferencias en cuanto a su legitimación activa 59 y
su legitimación pasiva60. Motivando que, pese a las similitudes, pueda entenderse mejor
como una institución cercana a la acción de repetición con la salvedad de que esta habría
de ser ejercida contra un sistema de IA.
La solidaridad en la responsabilidad de los productores estriba en la falta de transparen-
cia de los algoritmos en la industria de la robótica y la IA que harían que, si ya fuese difícil
para el damnif‌i cado prueba del defecto en el producto o la demostración del nexo causal,
señalar al responsable en concreto fuera una tarea que suscitaría grandes problemas, más
aún, teniendo en cuenta la posibilidad de culpa del propio sistema de IA. Pero la realidad
es que para el desarrollo industrial no resulta factible la exigencia de una transparencia
excesiva, ya que, de haberla, estos algoritmos no serían tan valiosos y por lo tanto podría
perderse rentabilidad en su producción, frenando así el desarrollo tecnológico en la indus-
tria. Por ello, pese a que la responsabilidad del productor sea cuasiobjetiva y solidaria, la
responsabilidad entre los diferentes productores, aseguradora y el sistema de IA, de cara al
ejercicio de acción de repetición, ha de ser subjetiva.
Ponderar los intereses de los intervinientes nos lleva a estudiar posibles soluciones a la
falta de transparencia en estos algoritmos y al fenómeno black box. Este problema sobre la
dif‌i cultad del conocimiento de la lógica empleada por el algoritmo desde el ingreso de datos
brutos hasta la transformación en conocimiento útiles en los sistemas de machine learning se
traduce en grandes dif‌i cultades a la hora de demostrar la relación entre un daño y un fallo en
el sistema, o el nexo de causalidad61. En este contexto, tanto la imputación subjetiva como
la objetiva pueden resultar cuestiones sumamente complicadas para el damnif‌i cado y así
ha sido mostrado por la UE en diferentes documentos62 en los que la suavización/inversión
59 La actio peculio estaría prevista para reclamar una deuda por los acreedores del servus, mientras que
en el caso de la actio singularitatem, esta acción estaría prevista para aquellos casos en que el productor,
previamente declarado responsable, pretenda repetir frente al sistema de IA de alto riesgo por estimar que los
daños causados fueron derivados del desarrollo de una razón algorítmica del sistema, por lo que en un caso la
legitimación activa la ostentarían los acreedores del peculio y en el otro los productores de IA de alto riesgo.
60 En el caso del servus romano, la actio peculio se dirigía al patrimonio administrado por el esclavo y en
el caso de la actio singularitatem la acción se dirigirá directamente contra el sistema de IA al estar este dotado
de una personalidad jurídica limitada.
61 GUTIÉRREZ DAVID, M. E., «Administraciones inteligentes y acceso al código fuente y los algoritmos
públicos. Conjurando riesgos de cajas negras decisionales», Derecom, núm. 30, 2021, p. 165. Disponible en
. [Consultado el 10/09/2022]; PARLAMENTO
EUROPEO, «Informe con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la
inteligencia artif‌i cial, la robótica y las tecnologías conexas (2020/2012(INL)), Bruselas, a 8 de octubre de 2020,
A9-0186/2020, apartado 23». Disponible en
ES.pdf>. [Consultado el 10/09/2022]; BATHAEE, Y., «The Artif‌i cial Intelligence Black Box and the Failure
of Intent and Causation», Harvard Journal of Law & Technology, vol. 31, núm. 2, 2018, p. 905.
62 COMISIÓN EUROPEA., «Libro Verde. La responsabilidad civil por producto defectuoso, Bruselas,
28.07.1999 COM (1999) 396 f‌i nal», p. 19-20. Disponible en
handler?identif‌i er=95a1cf9d-5a74-43c3-bd8a-3b407c29709e&format=pdf&language=es&productionSyste
m=cellar&part=>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA, «Informe de la Comisión sobre la
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 193
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
de la carga de la prueba, mecanismos de rendición de cuentas, o implementación de la
transparencia han sido objeto de debate. Hemos de tener en cuenta que en la actualidad el
53% de los litigios en materia de responsabilidad por productos defectuosos son archivados
por falta de pruebas del defecto o el nexo causal63. Es por ello que merece traer a colación
la posibilidad de valorar la inversión de la carga de la prueba del defecto o del nexo causal,
trasladándole esta al productor, en aplicación del principio de facilidad probatoria64. No
siendo este el único mecanismo que podría ofrecer una posible respuesta a este fenómeno,
existen otras f‌i guras que pueden ser también valoradas como posible alternativa. Estas po-
drían ser la inclusión de la presunción judicial; la prueba prima facie o falsa presunción65;
aplicación de la Directiva 85/374 relativa a la responsabilidad por productos defectuosos, Bruselas, 31.1.2001
COM (2000) 893 f‌i nal», p. 14. Disponible en .do?uri=COM
:2000:0893:FIN:ES:PDF>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA, «Informe de la Comisión al
Consejo, al Parlamento Europeo y al Comité Económico y Social Europeo, Tercer informe sobre la aplicación
de la Directiva 85/374/CEE del Consejo de 25 de julio de 1985, relativa a la aproximación de las disposiciones
legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños
causados por productos defectuosos, modif‌i cada por la Directiva 1999/34/CE del Parlamento Europeo y del
Consejo, de 10 de mayo de 1999, Bruselas, 14.9.2006 COM (2006) 496 f‌i nal», pp. 9-10. Disponible en
eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52006DC0496>. [Consultado el 10/09/2022];
COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico
y Social Europeo, Cuarto informe sobre la aplicación de la Directiva 85/374/CEE del Consejo de 25 de julio de
1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados
miembros en materia de responsabilidad por los daños causados por productos defectuosos, modif‌i cada por la
Directiva 1999/34/CE del Parlamento Europeo y del Consejo, de 10 de mayo de 1999, Bruselas, 8.9.2011 COM
(2011) 547 f‌i nal», pp. 7-8. Disponible en
52011DC0547&from=PL>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA, «Informe de la Comisión al
Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo sobre la aplicación de la Directiva
del Consejo relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los
Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (85/374/
CEE), Bruselas, 7.5.2018 COM (2018) 246 f‌i nal», p. 10. Disponible en
ES/TXT/PDF/?uri=CELEX:52018DC0246&from=FR>. [Consultado el 10/09/2022]; COMISIÓN EUROPEA,
«Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, Informe
sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artif‌i cial, el internet
de las cosas y la robótica, Bruselas, 19.2.2020 COM (2020) 64 f‌i nal», p. 2. Disponible en
europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52020DC0064&from=ES>. [Consultado el 10/09/2022].
63 COMISIÓN EUROPEA, «Report from the Commission to the European Parliament, the Council and the
European Economic and Social Committee on the Application of the Council Directive on the approximation
of the laws, regulations, and administrative provisions of the Member Estates concerning liability for defective
products (85/374/EEC), SWD (2018) 158 f‌i nal», Commission sta working document, p. 25. Disponible
en . [Consultado el
10/09/2022].
64 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 125.
65 LÓPEZ DEL MORAL, M. et al., «Inteligencia artif‌i cial y responsabilidad civil: ¿es realmente necesario
un cambio del Ordenamiento Jurídico?», cit., p. 26; YÁÑEZ, A., «Presunción y contraprueba del daño», Diario
La Ley, núm. 8948, 2017. Disponible en .
[Consultado el 10/09/2022]; STJUE de 21 de junio de 2017, asunto C-621/15 en la que el TJUE analiza la
aplicación de la prueba prima facie.
GONZALO CAMPOS RIVERA
194
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
la doctrina res ipsa loquitur66; la doctrina market share liability67 o la preponderance of the
evidence rule68 como medio para compatibilizar la falta de transparencia en los algoritmos y
las garantías de resarcimiento de los daños generados por productos defectuosos. La elección
de un sistema u otro podría quedar al arbitrio de los Estados Miembros tal y como ocurre en
el caso de los mecanismos de estimación del daño o los medios de prueba del nexo causal69.
En relación con la imputación de costes periciales, recogiendo el testigo de lo ya plan-
teado por la Comisión70, podría resultar conveniente que las costas periciales corriesen a
cargo del productor hasta la f‌i nalización del procedimiento, en el que le serán devueltas si la
demanda no prospera. Las pruebas periciales serán fundamentales para la prueba del nexo
causal ya que la valoración de las posibles fallas en la toma de decisiones del sistema o la
identif‌i cación de un fallo en el propio algoritmo requerirán de conocimientos especializados
con los que no contará el damnif‌i cado en la gran mayoría de casos.
Teniendo en cuenta que la responsabilidad derivada de productos defectuosos por el
uso de sistemas de IA de alto riesgo es en primera instancia y principalmente del productor,
esta responsabilidad ha de ser directa, no pudiendo así el damnif‌i cado ejercer acción in-
demnizatoria contra el propio sistema de IA en virtud de a la Directiva 85/374 de productos
defectuosos. Ello también sería una consecuencia previsible de la falta de transparencia en
la industria y las dif‌i cultades que le supondría al propietario de un bien demostrar la culpa
de un sistema de IA sin contar con la información necesaria sobre el fallo. El mantenimiento
de una relativa opacidad en la industria tecnológica ha de implicar que sean los productores
quienes se dirijan contra el sistema de IA y no los propietarios o damnif‌i cados. Este mismo
razonamiento podría parecer, al menos a priori, aplicable al caso de la posibilidad de ejer-
cicio de acción indemnizatoria de los propietarios o damnif‌i cados contra los productores.
66 La diferencia principal entre la prueba prima facie y la doctrina res ipsa loquitur radica principalmente
en el aspecto cuantitativo y cualitativo de las pruebas existentes. La primera se aplica cuando existe un mínimo
probatorio suf‌i ciente para que la carga de la prueba sea aminorada, mientras que, en la segunda, la valoración
de las circunstancias del caso nos lleva de forma lógica y razonable a presumir la culpa de un agente sin
requerir de prueba cuando los hechos son palmarios. YZQUIERDO TOLSADA, M., Responsabilidad civil
extracontractual: parte general: delimitación y especies, elementos, efectos o consecuencias, cit., pp. 106-108.
67 Para más información consultar: RUDA GONZÁLEZ, A., «La responsabilidad por cuota de
mercado a juicio» Indret, núm. 147, 2003. Disponible en
download/82562/107408>. [Consultado el 10/09/2022].
68 RUDA GONZÁLEZ, A., «La responsabilidad por cuota de mercado a juicio», cit., p. 2; PORAT, A. y
STEIN, A., «Indeterminate Causation and Apportionment of Damages: An Essay On Holtby and Allen», Oxford
Journal of Legal Studies, Vol. 23, núm. 4, 2003, pp. 667-702.
69 COMISIÓN EUROPEA., «Informe de la Comisión sobre la aplicación de la Directiva 85/374 relativa a la
responsabilidad por productos defectuosos, Bruselas, 31.1.2001 COM (2000) 893 f‌i nal», pp. 15-16. Disponible
en .do?uri=COM:2000:0893:FIN:ES:PDF>. [Consultado el
10/09/2022].
70 COMISIÓN EUROPEA., «Libro Verde. La responsabilidad civil por producto defectuoso, Bruselas,
28.07.1999 COM (1999) 396 f‌i nal», p. 19. Disponible en
handler?identif‌i er=95a1cf9d-5a74-43c3-bd8a-3b407c29709e&format=pdf&language=es&productionSystem
=cellar&part=>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 195
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
Pero en este caso, podemos entender que la f‌l exibilización de la carga de la prueba, la po-
sibilidad de que los costes periciales sean imputados a los productores hasta la f‌i nalización
del procedimiento, y la responsabilidad solidaria y cuasiobjetiva de los productores, podrían
suponer factores suf‌i cientes para permitir que el damnif‌i cado pueda exigir la satisfacción
de los daños directamente frente al productor.
En lo relativo al carácter de responsabilidad cuasiobjetiva del productor que determina
la Directiva 85/374, este ha suscitado grandes polémicas por las exenciones de responsabili-
dad recogidas en el artículo 7. Concretamente el art 7 e) establece la cláusula de exención de
responsabilidad por riesgo del desarrollo, en virtud de la cual, el productor podrá eximirse
de esta responsabilidad si demostrase que el estado de la ciencia no le permitió conocer el
defecto en el producto71. Podemos concluir que esta cláusula es necesaria para el desarrollo
de la industria entendiendo que los riesgos que se puedan generar no son razón de suf‌i ciente
peso como para argumentar el receso en el desarrollo industrial en materia de sistemas de
IA que pueda suponer derogar tal exención. Esto no implicaría que tal exoneración debie-
se operar en el caso de los daños causados por sistemas de IA como consecuencia de su
aprendizaje autónomo. En este caso, la autonomía del producto sería el factor generador del
daño, siendo conocido conforme al estado de la ciencia y tolerado por los benef‌i cios que la
IA reporta a la sociedad. Igualmente, la cláusula de exoneración por riesgos del desarrollo
tampoco podría resultar de aplicación en el periodo de prueba del producto, ya que este
tipo de periodos de prueba implican, nuevamente, un riesgo conocido. Además, podemos
entender que el mantenimiento de esta cláusula ha de entenderse intrínseco, no ya al carácter
objetivo de la responsabilidad, sino a la función social del objeto innovador de este tipo de
industria y a la estabilización del precio de la póliza de seguro, lo que se traduciría en una
estimulación de la innovación técnica sin aumentar el precio de los productos 7 2. Por ello, la
gestión de riesgos habrá de jugar un papel fundamental tanto en la puesta en circulación del
producto como en la fase de prueba. Esta gestión de riesgos habrá de estimarse (1) desde la
71 ZURITA MARTÍN, I., «Las propuestas de reforma legislativa del libro blanco europeo sobre inteligencia
artif‌i cial en materia de seguridad y responsabilidad civil», cit., p. 478; SALVADOR CODERCH., P. et al.,
«Los riesgos de desarrollo», InDret, núm. 1/2001, 2001, p. 6. Disponible en
article/download/81057/105532>. [Consultado el 10/09/2022].
72 COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité
Económico y Social Europeo, Cuarto informe sobre la aplicación de la Directiva 85/374/CEE del Consejo de
25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas
de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos,
modif‌i cada por la Directiva 1999/34/CE del Parlamento Europeo y del Consejo, de 10 de mayo de 1999,
Bruselas, 8.9.2011 COM(2011) 547 f‌i nal», p. 10. Disponible en
TXT/PDF/?uri=CELEX:52011DC0547&from=PL>. [Consultado el 10/09/2022]; LOVELLS, «Product liability
in the European Union. A report for the European Commission», MARKT/2001/11/D, 2003. Disponible en
. [Consultado el 10/09/2022]; FONDAZIONE
ROSSELLI., «Analysis of the Economic Impact of the Development Risk Clause as provided by Directive
85/374/EEC on Liability for Defective Products», Study for the European Commission, 2004. Disponible en
nal-report.pdf>.
[Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
196
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
perspectiva de la puesta en circulación del producto como un f‌i ltro necesario a la seguridad
de los usuarios y (2) desde la perspectiva de la facilitación de ensayos de funcionamiento
de estos productos en la fase de prueba como el balance entre el riesgo asumido en dicha
prueba y las expectativas de común benef‌i cio futuro en caso de que ésta prosperase.
Para asegurar la correcta gestión de riesgos en la fase de desarrollo de estos productos,
conviene referenciar el trabajo de Schneider y Wendehorst73 en el que se pone de manif‌i esto
la importancia que puede cobrar la evaluación de impacto para el alcance de las mejores
condiciones de conf‌i anza y excelencia. Esta evaluación de impacto podría ser realizada en
términos similares a los previstos en el artículo 35 del Reglamento General de Protección
de Datos (RGPD), valorando aspectos propios de los sistemas de IA 74. De igual modo,
los autores hacen énfasis en la relevancia del accountability by design ya planteado por
Kaminsky75, sobre el que podemos entender que, en caso de ser implementado, debe ser
moderado para no caer en la imposición de revelación de secretos comerciales.
En esta línea, el Parlamento Europeo dispuso en el Código de Conducta Ética para
ingenieros en robótica76 que el riesgo provocado por la llegada de la robótica no podía in-
crementar el riesgo ya existente en la vida cotidiana. Podemos interpretar este límite como
un requisito mínimo de seguridad impuesto a los productores de productos con sistemas de
IA para la comercialización y salida al mercado de los mismos. Pero el umbral propuesto
por el Parlamento Europeo ha de ser matizado para no caer en valoraciones falaces sobre
el riesgo potencial que un sistema de IA genera para la sociedad.
Podemos entender cuestionable la crítica de la autonomía de los sistemas de IA por
el riesgo potencial que puedan suponer, siempre que los benef‌i cios que se puedan derivar
de ella sean obviados. A modo de ejemplo, se estima que la aparición de los vehículos
autónomos implicará una reducción del 90% de los accidentes de tráf‌i co al reducir al 0%
el error humano y con vistas a reducir también al 0% el número de víctimas mortales en
73 SCHNEIDER, J-P y WENDEHORST, C., «Response to the public consultation on the White Paper: On
artif‌i cial Intelligence – A European approach to excellence and trust, COM (2020) 65 f‌i nal», cit., p. 5.
74 Entre otros, ámbitos como (1) cuestiones de transparencia; (2) mecanismos de responsabilidad aplicables;
(3) riesgos de carácter legislativo en el uso de IA; (4) ri esgos de daños a la dimensión física y la dimensión
social de los interesados; (5) dependencia de los sistemas.
75 KAMINSKY, M. E., «Binary governance: lessons from the GDPR´s approach to algorithmic
accountability». Southern California Law Review, núm. 92, 2019, p. 1557. Disponible en .
colorado.edu/cgi/viewcontent.cgi?article=2374&context=faculty-articles>. [Consultado el 10/09/2022].
76 PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 16 de febrero de 2017, con
recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)),
Normas de Derecho civil sobre robótica, P8_TA(2017)0051», p. 22. Disponible en
europa.eu/doceo/document/TA-8-2017-0051_ES.pdf>. [Consultado el 10/09/2022]; PARLAMENTO
EUROPEO, «Informe de 27 de enero de 2017 con recomendaciones destinadas a la Comisión sobre normas
de Derecho civil sobre robótica, (2015/2103(INL))», pp. 25-26. Disponible en .europarl.europa.
eu/doceo/document/A-8-2017-0005_ES.pdf>. [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 197
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
carretera77, objetivo que la UE sólo podría llegar a plantearse a través de la automatización
de los vehículos. Este más que notable aumento de la seguridad78 podría verse eclipsado
por los riesgos mínimos que esta tecnología supondría, y ello implicaría que tolerásemos
el riesgo para la vida de un mayor número de personas, asumiendo un elevado porcentaje
de daños por error humano, pero no asumiésemos el mínimo riesgo que supondría aceptar
la posibilidad de errores ocasionados por el propio sistema a razón de su aprendizaje autó-
nomo en pos de la seguridad que se incrementaría. Por ello, a la hora de valorar los riesgos
que estos productos implicarían para la vida cotidiana, resulta pertinente que estos fuesen
valorados en conjunción con los riesgos que vendrían a solventar, pudiéndose entonces
pensar que la utilidad y benef‌i cios sociales que implica el desarrollo industrial en el sector
tecnológico justif‌i carían los riesgos que estos productos pudieran suponer para la vida
cotidiana. En este sentido, merece la pena destacar el planteamiento de Basozabal79, quien
comentaría respecto al principio de protección de la norma en la responsabilidad objetiva
y el principio de conservación de los contratos lo siguiente:
«[…] de manera similar a como en un contrato las partes pueden f‌i jar los límites
de la cobertura, en el caso de la responsabilidad objetiva ex lege es el legislador
el que establece –digámoslo así– un “contrato social” por el que un potencial
benef‌i cio común justif‌i ca que las empresas encargadas de suministrarlo encuentren
ciertos privilegios en su explotación, fijando a través de la limitación de su
responsabilidad patrimonial un cierto equilibrio entre el riesgo que causan, el
benef‌i cio particular que obtienen y el benef‌i cio común que generan».
Esta cuestión ya fue planteada por el grupo de expertos de la Comisión80, y entendemos
que habría de tomarse como referencia la necesidad de la implementación legislativa de este
77 COMISIÓN EUROPEA, «EU road safety policy framework 2021 – 2030, Next steps towards “Vision
Zero”». Disponible en er=d7ee4b58-
4bc5-11ea-8aa5-01aa75ed71a1&format=pdf&language=en&productionSystem=cellar&part=>. [Consultado
el 10/09/2022]; COMISIÓN EUROPEA, «Libro Blanco, Hoja de ruta hacia un espacio único europeo de
transporte: por una política de transportes competitiva y sostenible, Bruselas, 28.3.2011 COM (2011) 144
f‌i nal», p. 11. Disponible en 1:0144:FIN
:ES:PDF>. [Consultado el 10/09/2022].
78 Por todos, COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Consejo y al
Comité Económico y Social Europeo, Informe sobre las repercusiones en materia de seguridad y responsabilidad
civil de la inteligencia artif‌i cial, el internet de las cosas y la robótica, Bruselas, 19.2.2020 COM (2020) 64
f‌i nal», p. 3. Disponible en tent/ES/TXT/PDF/?uri=CELEX:52020DC006
4&from=ES>. [Consultado el 10/09/2022].
79 BASOZABAL ARRUE, X., Responsabilidad extracontractual objetiva: parte general, 1.º ed., Madrid
(Agencia Estatal Boletín Of‌i cial del Estado), 2015, p. 136. Disponible en
juridica/abrir_pdf.php?id=PUB-PR-2015-39>. [Consultado el 10/09/2022].
80 DIRECCIÓN GENERAL DE JUSTICIA Y CONSUMIDORES (COMISIÓN EUROPEA),«Report on
Liability for Artif‌i cial Intelligence and other emerging technologies», 27 de noviembre de 2019, p. 32. Disponible
en 1ea-8c1f-01aa75ed71a1/language-
en>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
198
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
criterio si el objetivo fuera el alcance del mayor benef‌i cio social mediante la explotación
de los benef‌i cios que aporta la industria tecnológica.
Este régimen de responsabilidad cuasiobjetivo basado en la gestión del riesgo habrá
de suponer la aceptación de un margen de actuación de la industria tecnológica en cuanto
a la producción de productos que incorporen IA siempre y cuando ese riesgo se encuadre
en un marco tolerable. Este margen tolerable de riesgos de producción supondrá la f‌i jación
del límite cuantitativo inferior de 500 euros como umbral resarcible para el damnif‌i cado.
Podemos concluir que este límite cuantitativo resulta adecuado en el planteamiento de
un sistema de gestión de riesgos y cuasiobjetivación de la responsabilidad en el que no
se establece un límite cuantitativo superior a las indemnizaciones por responsabilidad
civil del productor, entendiendo que estos daños «menores» habrán de ser incluidos en el
margen establecido como daños tolerables y aceptados. No resultaría adecuado, por tanto,
que aquellos daños que deriven del desarrollo de una razón algorítmica del sistema de IA
se determinasen como daños aceptados y no resarcibles si no concurriese el requisito de
que su valoración económica se encuentre por debajo del límite inferior f‌i jado. Esto se
debería a que, en el caso de los daños derivados del desarrollo de una razón algorítmica,
lo aceptado es el riesgo, no el daño. Y parece razonable, que el límite del riesgo tolerable
y del daño tolerable no se determinen atendiendo a los mismos criterios. Siendo esto así,
para la determinación de los daños tolerables, habríamos de poner el foco en aquellos daños
cuyo irresarcimiento no generase graves consecuencias para el damnif‌i cado. Mientras que
para la determinación de los riesgos tolerables el límite podría ser mucho más amplio, pero
siempre teniendo en cuenta que los daños generados como consecuencia de la materializa-
ción de un riesgo tolerado o aceptado serán daños resarcibles, y los daños aceptados –por
no superar el límite económico inferior previamente f‌i jado– no lo serán. Esto último puede
parecer atentar contra el principio de reparación integral y protección de la norma 81. Pero
suscribiendo a Díez-Picazo82, entendemos que:
«[…] el ordenamiento no busca proteger a las personas frente a todos los riesgos
que la vida social les pueda ocasionar. Hay, se ha dicho siempre, un margen de
riesgo tolerado que es necesario para la vida social misma».
En vista de ello, entendemos lo viable del planteamiento de un modelo de responsabi-
lidad cuasiobjetiva que no pretenda la reparación integral del daño, sino el desarrollo indus-
trial, la minimización de sus consecuencias negativas y la maximización de sus benef‌i cios83 .
81 BASOZABAL ARRUE, X., Responsabilidad extracontractual objetiva: parte general, cit., p. 113.
82 DÍEZ-PICAZO, L., «La culpa en la responsabilidad civil extracontractual», Anuario de Derecho Civil,
2001, Vol. 54, núm. 3, p. 1027. Disponible en
abrir_pdf.php?id=ANU-C-2001-30100901028>. [Consultado el 10/09/2022].
83 BASOZABAL ARRUE, X., Responsabilidad extracontractual objetiva: parte general, cit., p. 136: «La
responsabilidad objetiva no es un criterio más débil de imputación que requiera, como compensación, que se
limite su potencial indemnizador; las limitaciones obedecen a motivos ajenos al discurso indemnizatorio y
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 199
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
Tal y como dispone la resolución del Parlamento con recomendaciones a desarrolla-
dores de IA84, no nos resulta difícil entender que el seguro obligatorio de estos productos
supondría un claro benef‌i cio para el resarcimiento, asegurando así la solvencia de los pro-
ductores en cuanto a la indemnización al damnif‌i cado. Este seguro operaría en el ámbito
del resarcimiento al damnif‌i cado, mientras que el consorcio de compensación de seguros
operaría en el marco del ejercicio de acción de repetición o actio singularitatem del pro-
ductor frente al sistema, no cabiendo la posibilidad de ejercicio de esta acción por parte
de cualquier sujeto que no fuese productor por no resultar en tal caso la vía idónea para la
obtención del resarcimiento de los daños.
En lo que respecta a la responsabilidad del empresario en el empleo de sistemas de
IA para el ejercicio de su actividad profesional consideramos que podría ser empleado el
sistema de responsabilidad recogido en el Código Civil Español para la responsabilidad
de los profesionales por sus dependientes, aunque con ciertas matizaciones. Podemos
estimar pertinente la aplicación del principio de equivalencia funcional85en el caso de que
un empresario o profesional decidiese valerse de un sistema de IA para la realización de
una labor dentro del marco de su actividad. En virtud de este principio, el sistema de IA
pasaría a considerarse como un empleado y el empresario o profesional a responder por los
daños generados por su dependiente por culpa in eligendo, in vigilando o in controlando
de igual modo que lo haría en caso de haber contratado a una persona para desarrollar esa
función. La responsabilidad, al igual que en el artículo 1903 del Código Civil Español, ha
de ser directa del empresario y solidaria entre los empresarios u/o profesionales al cargo.
Ahora bien, dentro de las matizaciones con las que deberá contar este sistema f‌i guraría la
prohibición de ejercicio de acción de repetición contra el propio sistema de IA por el propio
empresario. Esto encontrará sentido en el hecho de que el empresario no será responsable
f‌i nal de los defectos en el producto y, por tanto, de los daños que pueda causar un sistema
de IA por el desarrollo de una razón algorítmica derivada de su aprendizaje autónomo,
si bien, habría de responder frente a los consumidores damnif‌i cados por responsabilidad
general del profesional por sus dependientes. Esta responsabilidad correspondería a los
lógicamente tienen que ver con la viabilidad, la protección o el fomento de las actividades que se benef‌i cian
de esos límites».
84 PARLAMENTO EUROPEO, «Informe con recomendaciones destinadas a la Comisión sobre un régimen
de responsabilidad civil en materia de inteligencia artif‌i cial (2020/2014 (INL)) de 5 de octubre de 2020», p. 12,
Considerando 23. Disponible en .europarl.europa.eu/doceo/document/A-9-2020-0178_ES.pdf>.
[Consultado el 10/09/2022]; PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 20 de
octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en
materia de inteligencia artif‌i cial (2020/2014 (INL)), Régimen de responsabilidad civil en materia de inteligencia
artif‌i cial», p. 10, Considerando 23. Disponible en
2020-0276_ES.pdf>. [Consultado el 10/09/2022].
85 GÓMEZ LIGÜERRE. C. y GARCÍA-MICÓ, T.G., «Liability for Artif‌i cial Intelligence and other emerging
technologies», cit., p. 503; DIRECCIÓN GENERAL DE JUSTICIA Y CONSUMIDORES (COMISIÓN
EUROPEA), Report on Liability for Artif‌i cial Intelligence and other emerging technologies, 27 de noviembre
de 2019, p. 45. Disponible en
8c1f-01aa75ed71a1/language-en>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
200
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
productores, en todo caso, en aplicación de la Directiva 85/374 de productos defectuosos
y al propio sistema de IA en última instancia. El empresario únicamente responderá por
culpa in eligendo, in vigilando o in controlando tal y como hasta ahora se viene haciendo
en aplicación del régimen del artículo 1903 del Código Civil Español.
En la atribución de culpa in eligendo, el demandante deberá probar (1) que el sistema
de IA empleado no era el adecuado para las funciones que le fueron atribuidas o (2) que
la naturaleza y características del propio sistema no lo hacían plenamente apto para esas
funciones, sirviendo como marco de referencia el estado de la ciencia. La responsabilidad
in eligendo no podría traducirse en la obligación del empresario de adquirir el sistema de
IA más avanzado y seguro del mercado, sino en la obligación de que adquiriese aquel que
resulte adecuado para el uso pretendido, ya que tal condición tampoco es exigida en el
caso de la contratación convencional de personas. Estos podrían ser los criterios a tener
en cuenta para la imputación de culpa in eligendo, sin embargo, esta imputación de culpas
no presentará las dif‌i cultades que en cambio sí presentaría la responsabilidad por culpa in
controlando o in vigilando.
En la mayoría de los casos en los que un empresario empleé un sistema de IA en el de-
sarrollo de las funciones que podría ocupar un ser humano, el propio empresario no contará
con capacidades ni aptitudes suf‌i cientes para controlar o supervisar la actuación del sistema,
ya que esto implicaría un conocimiento profundo sobre programación e informática. Por lo
tanto, parece razonable que para evitar esta responsabilidad in controlando o in vigilando,
el empresario debería realizar auditorías con una periodicidad razonable teniendo en cuenta
las características específ‌i cas del sistema de IA que se vaya a emplear, así como las del uso
concreto que se vaya a dar a ese sistema.
El consumidor que sufra un daño derivado de la acción u omisión de un sistema de IA
contará por lo tanto con dos posibilidades atendiendo a la casuística: (1) actuar contra el
empresario o profesional que le prestaba un servicio a través de un producto defectuoso por
culpa in eligendo, in controlando o in vigilando, o (2) actuar contra el productor en virtud
de lo dispuesto en la Directiva 85/374 de productos defectuosos. Hemos de recordar que
en este caso la responsabilidad del empresario será subjetiva y la del productor objetiva,
siendo ambos responsables en diferentes esferas. Por ello cuando el empresario sea a su
vez el propietario, como puede suceder con el caso de Uber y los vehículos autónomos,
el damnif‌i cado habrá de diferenciar entre el tipo de daño y la esfera en la que se hubiera
producido, ya que de ello dependerá tanto la normativa aplicable al caso como el carácter
de la responsabilidad del demandado86.
El propietario del sistema que cause un daño también habrá de responder en caso de
no haber mantenido una conducta adecuada en el mantenimiento del producto tendente a la
prevención del daño. Será aquí cuando entre en juego el valor de la información con la que
86 Siendo objetiva la responsabilidad del productor y subjetiva la responsabilidad del empresario en
aplicación del modelo propuesto.
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 201
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
cuente cada propietario sobre el mantenimiento del bien, sin llegar a suponer esto, como pos-
tula Ercilla García87, un derecho a la integridad material del bien. Esta obligación, que le será
imputada a todo propietario de un sistema de IA de alto riesgo, derivará del deber original
de evitar causar daños a terceros. Tal y como Ercilla García88 entiende este planteamiento,
el propietario podría incurrir en culpa in curando, siendo esta la derivada de la causación
de un daño por parte de un sistema de IA cuando este traiga causa en un fallo provocado por
el incorrecto mantenimiento de las condiciones adecuadas de funcionamiento del sistema.
El último extremo que habríamos de valorar resultaría de la posibilidad de que un
sistema de IA fuese reacondicionado, reciclado, reparado o manipulado de cualquier forma
y como consecuencia de esa alteración se produzca un daño resarcible. Para estos casos
podemos entender necesario el mantenimiento del límite de la responsabilidad del empre-
sario hasta la puesta en circulación del producto, pues en caso de reacondicionamiento, esta
responsabilidad debería ser imputable a quien manipuló o alteró los elementos de software
o de hardware del sistema de IA. Un elemento a valorar sería la información facilitada a los
adquirentes por parte de los productores acerca de los riesgos que puede implicar en cada
caso concreto la alteración de la composición de estos sistemas, así como la utilización del
producto para un f‌i n distinto al previsto por los productores. Esta información habría de
conformar el contenido mínimo e indispensable en aquellos contratos que tengan por objeto
la transmisión del dominio, el derecho de uso o explotación de bienes compuestos de IA
de alto riesgo. Mostrar la diligencia debida será responsabilidad del propietario/usuario
de productos que usen IA de alto riesgo, no pudiendo éste, emplear el sistema de IA para
f‌i nalidades distintas de las previstas en la información precontractual.
Podemos entender que a través del sistema de gestión de riesgos y los estándares
mínimos de calidad y seguridad de un producto, el productor ha de pasar por unos f‌i ltros
necesarios a la hora de la puesta en circulación del producto, por lo que una vez superado
ese límite temporal, la responsabilidad del productor únicamente debería extenderse a los
defectos existentes con carácter previo a la puesta en circulación del producto pero evi-
denciados a posteriori, con excepción de aquellos derivados de la respuesta autónoma del
sistema de IA por el desarrollo de una razón algorítmica como ya fue abordado ut supra.
Con este modelo tratamos de ponderar los intereses industriales y la f‌i nalidad última
de la regulación, que es el resarcimiento de los daños en la medida propuesta. Pero en el
estatus actual de res que ostentan los sistemas de IA no resulta posible la imputación de
responsabilidad por carecer de facultad para asumir derechos u obligaciones. Por lo que
se antoja necesario realizar una propuesta sobre una posible personalidad jurídica de los
sistemas de IA a efectos de imputación de responsabilidad civil.
87 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 35.
88 ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad jurídica,
responsabilidad civil y regulación, cit., p. 38.
GONZALO CAMPOS RIVERA
202
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
V. PROPUESTA DE PERSONALIDAD JURÍDICA AD HOC PARA LOS
PRODUCTOS QUE USEN IA
Ante un fenómeno tan particular, puede no resultar sencillo «reciclar» íntegramente
modelos ya existentes o tratar de adaptar un modelo de personalidad jurídica al caso que
nos ocupa, pero muchos de esos modelos anteriores y aquellos actuales que puedan resultar
útiles han de ser tenidos en cuenta a la hora de proponer un posible nuevo modelo, por lo
que proponemos la creación de una tertium genus que, aunque se inspire en precedentes
históricos, guarde ciertas diferencias con estos en aquellos aspectos en que sea estrictamente
necesario para la coherencia del modelo propuesto ex novo.
Partiendo de ese carácter ex novo la personalidad jurídica que podemos entender ade-
cuada para el caso, debería ser una personalidad jurídica instrumental ad hoc. Esto quiere
decir que ha de existir por y para un f‌i n humano, concreto y fundamentado en la seguridad
en la producción de los sistemas de IA y en el benef‌i cio que esta aporta a la sociedad en
su conjunto. El interés que se protege no es el del sistema de IA, sino el de los producto-
res que no tendrían que asumir este tipo de daños, sin que ello implique una exención de
responsabilidad y por lo tanto el irresarcimiento del daño, lo que acabaría repercutiéndose
en el damnif‌i cado que acabaría por no ver satisfecho su derecho a la reparación del daño.
Esta personalidad instrumental habría de ser limitada a efectos de cumplir con la
f‌i nalidad que le fuera atribuida, que no será otra que el efectivo resarcimiento de la respon-
sabilidad civil que se pudiera derivar de la actuación dañosa de un sistema de IA de alto
riesgo con causa en el desarrollo de una razón algorítmica.
La personalidad jurídica será necesaria para imputar culpa al sistema, ahora bien, el
sistema de IA no cuenta con un patrimonio propio, por ello será necesario dotarlo de uno, y
podríamos entender que la opción más adecuada la encontramos en el sistema de Consorcio
de compensación de seguro. A través de este sistema, sería el consorcio el encargado de
realizar la representación en tribunales del sistema de IA a efectos, no de la defensa de la IA
como ente subjetivo, sino en defensa de los intereses industriales y de aquellos asociados
al bien común de la sociedad. Este consorcio podría también servir de fondo de garantía
frente a la insolvencia de los productores o de las propias aseguradoras, suponiendo así, no
solo una garantía para el productor, sino también para el damnif‌i cado. Igualmente, puede
ser objeto de valoración el empleo del consorcio como aseguradora de aquellos productores
cuyo aseguramiento sea rechazado por los organismos privados acreditados para ello.
La relación que existiría entre el consorcio y el sistema de IA podría asimilarse a la de
los esclavos romanos y su dominus en lo relativo a la relación triangular respecto al pecu-
lio, salvo que, en este modelo, quien ocupara el lugar del esclavo romano contaría con una
personalidad jurídica limitada. Las similitudes existentes entre ambas f‌i guras han llevado
a diversos autores a teorizar sobre la asimilación del estatus jurídico del servus romano y
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 203
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
la previsión de un régimen para los sistemas de IA autónomos89. A efectos de responsa-
bilidad civil extracontractual los eslavos romanos no podían ser responsables ya que no
contaban con un estatus jurídico, por ello esa obligación se trasladaba a su dominus, quien
respondía con el límite que representaba la masa de bienes que conformaba el peculio. En
este sentido podemos entender que la asimilación al modelo de los esclavos romanos nos
llevaría a contemplar en el lugar del esclavo al sistema de IA; valorar al peculio como el
patrimonio del consorcio; y a quien realiza las aportaciones al Consorcio como su domi-
nus. Pero el clásico régimen jurídico previsto para el esclavo en el Derecho romano, pese
a suponer un punto intermedio entre la ausencia de personalidad jurídica y la ostentación
de esta, presentaría insalvables diferencias que motivan ciertas variaciones en el modelo.
El modelo del servus y el dominus estaría orientado a la responsabilidad de quien realice
la dotación patrimonial del sistema de IA a efectos de las responsabilidades derivadas de
la administración de esos bienes con el límite cuantitativo de su valor. Igualmente, partiría
de la posibilidad del esclavo de ostentar derechos derivados de su personalidad física y
de la existencia de capacidad de obrar, sin llegar a ser una solución para la imputación de
responsabilidad al sistema de IA en caso de que este fuese completamente entendido como
un esclavo para el Derecho romano. Por ello, en un acercamiento al modelo, el patrimonio
del Consorcio no pertenecería al propio sistema, sino que pertenecería, al igual que en el
caso de los esclavos romanos, a quien realizase estas aportaciones, que podría ser (1) la
sociedad en su conjunto o (2) los productores o aseguradoras a través de recargos en la
póliza de seguro obligatorio. En cualquier caso, quien realizase las aportaciones a dicho
patrimonio, no podría retirarlo, como sí ocurría en el caso del peculio. Por lo que, una vez
hecha la aportación, el patrimonio aportado pasará a ser de exclusiva administración por los
órganos de representación del Consorcio de compensación de seguro creado al efecto, no
siendo en este caso quien ostentase la posición del esclavo quien administrase el peculio,
sino una personalidad jurídica externa ajena a esa relación triangular. Ese patrimonio estará
destinado al único f‌i n de la representación procesal de los intereses industriales y de la so-
ciedad, así como al pago de la responsabilidad civil devengada por la actuación culposa de
un sistema de IA de alto riesgo como consecuencia del desarrollo de una razón algorítmica
derivada de su aprendizaje autónomo.
La nota de instrumentalidad de la personalidad jurídica ad hoc se traduciría en la
ausencia de derechos, tanto personales como de cualquier otra clase, incluyendo el dere-
cho de representación y los vinculados a la adquisición de la propiedad patrimonial. Una
fórmula que resultaría interesante a la hora de valorar esta capacidad de representación
sería la vigente en el artículo 6.4 de la Ley de Enjuiciamiento Civil Español prevista para
la herencia yacente. En la herencia yacente encontramos un antecedente de atribución de
89 Entre otros: ROGEL VILDE, C., «Robots y personas». Revista general de legislación y jurisprudencia,
núm. 1, 2018, pp. 79-90; DÍAZ ALABART, S., Robots y responsabilidad civil, 1.ª ed., Madrid (Reus), 2018,
pp. 58 y ss; ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes, personalidad
jurídica, responsabilidad civil y regulación, cit., pp. 21 y ss; LACRUZ MANTECÓN, M., «Potencialidades
de los robots y capacidades de las personas», cit., pp. 85-129.
GONZALO CAMPOS RIVERA
204
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
facultades de administración y representación de una masa patrimonial cuando se osten-
te un interés legítimo y exista una atribución legal. La herencia yacente no cuenta con
personalidad jurídica, lo que no impide que sea titular de determinados derechos a nivel
procesal. De acuerdo con lo previsto en el Art. 6.4 LEC, por el que se dispone que podrán
ser parte en los procesos ante los tribunales civiles «las masas patrimoniales o los patri-
monios separados que carezcan transitoriamente de titular o cuyo titular haya sido privado
de sus facultades de disposición y administración». Este precedente supone, por tanto, un
ejemplo de atribución de facultades de gestión, administración y representación de una
masa de bienes en aquellos que, sin ser propietarios, lo sean en potencia y por ello ostenten
un interés legítimo en su protección, cuando este se encuentre reconocido en una norma
de rango legal. De esta forma, podría establecerse una cierta analogía entre los «herederos
yacentes»90 y el Consorcio de compensación de seguros, entendiendo que la asimilación a
un régimen cercano a esta f‌i gura podría resultar ser un mecanismo ef‌i ciente para dotar al
sistema de IA de una limitada capacidad procesal, relegada en aquellos interesados en su
defensa siempre que esta capacidad venga establecida en una norma con rango legal, sin
necesidad de dotar al sistema de un derecho propio de representación procesal. En este caso
encontraríamos una masa patrimonial compuesta por un conjunto de bienes como son los
sistemas de IA de alto riesgo que podría ser administrada y representada en tribunales por
el Consorcio de compensación de seguros, al representar este, el interés de la sociedad en
el desarrollo industrial tecnológico y las utilidades que se derivan de él, ostentando así un
interés legítimo en su representación. A estos efectos, el fundamento de su representación
no se respaldaría en un interés del propio sistema sino en un interés humano, por considerar
en todo momento que la ostentación de capacidad procesal ha de radicar necesariamente en
su carácter instrumental, suponiendo esta capacidad de representación un derecho para los
designados legalmente como representantes y no para los sistemas de IA que compongan
la masa patrimonial representada.
VI. CONCLUSIONES: RETOS PARA UN FUTURO REGLAMENTO
Tal y como plantea la iniciativa de la Comisión, evitar la fragmentación en la legisla-
ción de los Estados Miembros en materia de responsabilidad civil derivada de la utilización
de sistemas de IA es una prioridad para alcanzar los objetivos de Mercado Único Digital.
Para ello, el mecanismo legislativo que podemos entender idóneo es el reglamentario. Al
respecto hemos de precisar que actualmente se encuentra en proceso de aprobación el texto
def‌i nitivo del futuro reglamento sobre responsabilidad civil de sistemas de IA. A través de
este futuro reglamento la UE pretende lograr una armonización total, sin dejar lugar a la
posible fragmentación normativa que pudiera derivarse de transposiciones dispares. Esta
uniformidad será necesaria para facilitar el resarcimiento de los damnif‌i cados de manera
90 HERNÁNDEZ DÍAZ-AMBRONA, M. D., La herencia yacente, Barcelona (J.M. Bosch Editor), 2006.
Disponible en . [Consultado el 10/09/2022].
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 205
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
uniforme en toda la UE con independencia del Estado Miembro en el que se hallen, así como
para impedir que este factor suponga una barrera al comercio europeo y a los objetivos de
Mercado Único Digital. Por ello, hemos de concluir en los siguientes aspectos:
1. Los riesgos que suponen el fenómeno black box y la conservación de secretos
comerciales para el resarcimiento del damnif‌i cado, resultan necesarios para el
mantenimiento de un mercado competitivo que asegure el desarrollo tecnológico
y social en aras de los benef‌i cios que de él se deriven.
2. Esta ponderación de intereses nos lleva a proponer una adaptación del marco
normativo vigente en diferentes ámbitos:
a. Implantación de un modelo ecléctico: la valoración de la responsabilidad
objetiva del productor y la gestión de riesgos en la producción.
b. Responsabilidad cuasiobjetiva del productor, conservando las exclusiones de
responsabilidad del art 7 de la Directiva 85/374 de productos defectuosos.
c. Aminoración de la carga de la prueba a través de los medios propuestos. Estos
serán la inversión de la carga de la prueba del daño y el defecto o el nexo
causal en virtud del principio de facilidad probatoria; presunción judicial;
aplicación de la doctrina market share liability; implementación de la prueba
prima facie o falsa presunción; aplicación de la doctrina res ipsa loquitur;
aplicación de la doctrina preponderance of evidence rule.
d. Inclusión de los daños inmateriales o morales en los daños contemplados
como resarcibles en la Directiva 85/374.
e. Responsabilidad de carácter solidario de los productores de sistemas de IA.
f. Seguro de responsabilidad civil obligatorio para los productores de IA de alto
riesgo.
g. Responsabilidad directa del productor por los daños causados por sistemas
de IA, cuando estos daños sean causados por el desarrollo de una «razón
algorítmica» del sistema de IA que trajera causa de su aprendizaje autónomo.
h. Posibilidad de repetición contra el sistema de IA por los daños causados por el
desarrollo de una «razón algorítmica» derivada de su aprendizaje autónomo.
i. Aplicación del principio del principio de equivalencia funcional en la utiliza-
ción de un sistema de IA en sustitución de un trabajador humano. En virtud
del principio de equivalencia funcional los responsables/empresarios habrán
de responder de los daños causados por los sistemas de IA que utilicen para
la realización de su actividad profesional de la misma forma en que hubieran
sido responsables de haber contratado personal humano.
GONZALO CAMPOS RIVERA
206
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
j. Adaptación del concepto de producto para dotar de mayor claridad la inclusión
de los sistemas de IA y de las tecnologías digitales en tal categoría.
3. Por otro lado, el desarrollo de la IA requiere de la conf‌i guración de personalida-
des jurídicas ad hoc a las que imputar responsabilidad civil y un patrimonio para
garantizar el resarcimiento patrimonial.
4. Las características de esta personalidad jurídica de los sistemas de IA habrían de
ser:
a) Personalidad jurídica instrumental limitada a efectos de resarcimiento de
responsabilidad civil e imputación de culpa.
b) Tertium genus inspirado en precedentes como la herencia yacente o el régimen
jurídico previsto en Derecho romano para los esclavos.
c) Atribución de patrimonio a los sistemas de IA a efectos del resarcimiento de
los daños causados por el desarrollo de una «razón algorítmica» derivada de
su aprendizaje autónomo.
d) Sistema de Consorcio de compensación de seguros como medio para la
atribución y administración del patrimonio imputado a los sistemas de IA a
efectos de resarcimiento del daño.
5. Podemos entender que el futuro Reglamento Europeo de responsabilidad civil
derivada de la utilización de IA es el medio idóneo para alcanzar la armonización
total de los ordenamientos jurídicos de los Estados Miembros y valorar la posibi-
lidad de implementar las adaptaciones que se proponen.
6. Podemos considerar que el futuro reglamento podría ser una herramienta adecuada
para prever la creación de una personalidad jurídica instrumental ad hoc para los
sistemas de IA, debiendo así especif‌i car el modelo de responsabilidad subjetiva
que les será aplicado en cuanto al posible ejercicio de acción de repetición contra
ellos.
7. El patrimonio imputado a los sistemas de IA sería el que ostente el Consorcio de
compensación de seguros de sistemas de IA creado a tal efecto. Por lo que también
entendemos que el futuro Reglamento podría suponer un medio adecuado para
prever la creación de dicha institución, determinando sus estructuración interna
y externa, delimitando los medios de f‌i nanciación, su estructura administrativa,
ubicación, etc. Dicho Consorcio, habrá de ser, necesariamente, una institución
europea, no debiendo haber lugar a la determinación de un margen de discrecio-
nalidad de los Estados Miembros en esta materia.
8. Consideramos que un medio de ratif‌i cación de facto del carácter instrumental
de la personalidad jurídica propuesta para los sistemas de IA puede partir de la
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 207
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
creación de una acción de repetición especial contra el sistema de IA denominada
actio singularitatem.
9. Entendemos también que este futuro reglamento debería prever la creación de un
Registro Europeo de Sistemas de IA de alto riesgo en el que se encuentren regis-
trados todos que los sistemas de IA de alto riesgo desde el mismo momento de su
puesta en circulación. Esta circunstancia permitiría la localización del sistema a
efectos de imputación de responsabilidad civil con mayor facilidad, así como el
sencillo control de la documentación necesaria para la puesta en funcionamiento
del producto.
10. Entendemos que, para la aplicación del modelo propuesto, el seguro obligatorio de
productores de sistemas de IA de alto riesgos tendrá un papel fundamental tanto
en la previsión del gasto en responsabilidad civil por parte de los productores,
como para garantizar la solvencia de los productores y el resarcimiento de los
daños causados. Con la implementación del seguro obligatorio, los gastos de los
productores en materia de responsabilidad civil derivada del carácter defectuoso
de un sistema de IA de alto riesgo se limitarían al coste anual de la póliza, por lo
que podrán realizar una previsión anual de dichos costes, posibilitando una mejora
en la gestión de su patrimonio.
11. Este reglamento podría incidir en la responsabilidad de empresarios y propieta-
rios de sistemas de IA tomando como base el modelo planteado, delimitando los
diferentes tipos de culpa (in eligendo, in vigilando, in controlando), los posibles
responsables, los tipos de daño resarcible, así como todos los extremos que resulten
necesarios.
VII. BIBLIOGRAFÍA
Bibliografía citada
ARISTÓTELES, P. Libro primero, capítulo II. De la esclavitud.
AQUILINO YÁÑEZ, A., «Presunción y contraprueba del daño», Diario La Ley,
núm. 8948, 2017. Disponible en esuncion-y-
contraprueba-del-dano/>. [Consultado el 10/09/2022].
BASOZABAL ARRUE, X., Responsabilidad extracontractual objetiva: parte general,
1.º ed., Madrid (Agencia Estatal Boletín Of‌i cial del Estado), 2015. Disponible en
< https://www.boe.es/biblioteca_juridica/abrir_pdf.php?id=PUB-PR-2015-39>.
[Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
208
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
BATHAEE, Y., «The Artif‌i cial Intelligence Black Box and the Failure of Intent and
Causation», Harvard Journal of Law & Technology, vol. 31, núm. 2, 2018, pp.
890-938.
BERCOVITZ RODRÍGUEZ-CANO, R., «Ámbito de aplicación», en: BERCOVITZ
RODRÍGUEZ-CANO, R., (coord.), en: Comentarios al Texto Refundido de la Ley
General para la Defensa de los Consumidores y Usuarios y otras leyes comple-
mentarias, ed., Pamplona (Aranzadi), 2009, pp. 107-109.
BUCKLAND., The Roman law of slavery: The condition of the slave in private law
from Augustus to Justinian, Cambridge (University Press), 1908. Disponible en
.
pdf>. [Consultado el 10/09/2022].
CHALMERS, D., «The singularity: A philosophical analysis», Journal of Concious-
ness Studies, núm. 9-10, pp. 7-65. Disponible en
viewdoc/download?doi=10.1.1.228.3745&rep=rep1&type=pdf>. [Consultado el
10/09/2022].
COMISIÓN EUROPEA. «Propuesta de Reglamento de 21 de abril de 2021 del Par-
lamento Europeo y del Consejo por el que se establecen normas armonizadas en
materia de inteligencia artif‌i cial (Artif‌i cial Intelligence Act) y se modif‌i can deter-
minados actos legislativos de la Unión». Disponible en:
eu/legal-content/ES/TXT/?uri=celex:52021PC0206>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA., «Informe de la Comisión sobre la aplicación de la Direc-
tiva 85/374 relativa a la responsabilidad por productos defectuosos», Bruselas,
31.1.2001 COM (2000) 893 f‌i nal. Disponible en
LexUriServ/LexUriServ.do?uri=COM:2000:0893:FIN:ES:PDF>. [Consultado
el 10/09/2022].
COMISIÓN EUROPEA, «Internal Market, Industry, Entrepreneurship and SMEs:
European industrial strategy, Advanced technologies». Disponible en
ec.europa.eu/growth/industry/strategy_es>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA., «Libro Verde. La responsabilidad civil por producto de-
fectuoso, Bruselas, 28.07.1999 COM (1999) 396 f‌i nal», p. 19-20. Disponible en
er=95a1cf9d-
5a74-43c3-bd8a-3b407c29709e&format=pdf&language=es&productionSystem=
cellar&part=>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «Anexo de Propuesta de reglamento del Parlamento Eu-
ropeo y del Consejo, por el que se establece el programa Europa Digital para el
período 2021-2027, Bruselas, 6.6.2018 COM (2018) 434 f‌i nal», p. 2, Objetivo
específ‌i co 2. Inteligencia artif‌i cial. Disponible en -lex.europa.eu/
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 209
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
resource.html?uri=cellar:321918fd-6af4-11e8-9483-01aa75ed71a1.0007.02/
DOC_2&format=PDF>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «Comunicación de la Comisión al Parlamento Europeo, al
Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones,
Una Estrategia para el Mercado Único Digital de Europa, Bruselas, 6.5.2015 COM
(2015) 192 f‌i nal». Disponible en
TXT/PDF/?uri=CELEX:52015DC0192&from=HU>. [Consultado el 10/09/2022]
COMISIÓN EUROPEA, «Comunicación de la Comisión al Parlamento Europeo, al
Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones
relativa a la revisión intermedia de la aplicación de la Estrategia para el Mercado
Único Digital, Un mercado único digital conectado para todos, Bruselas, 10.5.2017
COM (2017) 228 f‌i nal», p. 25. Disponible en
documents-register/api/f‌i les/COM(2017)228_0/de00000000201617?rendition=f
alse>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «EU road safety policy framework 2021 – 2030, Next
steps towards “Vision Zero”». Disponible en
service/download-handler?identif‌i er=d7ee4b58-4bc5-11ea-8aa5-01aa75ed71a1
&format=pdf&language=en&productionSystem=cellar&part=>. [Consultado el
10/09/2022].
COMISIÓN DE LAS COMUNIDADES EUROPEAS, «Informe de la Comisión al
Consejo, al Parlamento Europeo y al Comité Económico y Social Europeo, Tercer
informe sobre la aplicación de la Directiva 85/374/CEE del Consejo de 25 de julio
de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias
y administrativas de los Estados miembros en materia de responsabilidad por los
daños causados por productos defectuosos, modif‌i cada por la Directiva 1999/34/
CE del Parlamento Europeo y del Consejo, de 10 de mayo de 1999, Bruselas,
14.9.2006 COM(2006) 496 f‌i nal», p. 7. Disponible en
eu/legal-content/ES/TXT/PDF/?uri=CELEX:52006DC0496>. [Consultado el
10/09/2022].
COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Consejo
y al Comité Económico y Social Europeo, Cuarto informe sobre la aplicación
de la Directiva 85/374/CEE del Consejo de 25 de julio de 1985, relativa a la
aproximación de las disposiciones legales, reglamentarias y administrativas de
los Estados miembros en materia de responsabilidad por los daños causados por
productos defectuosos, modif‌i cada por la Directiva 1999/34/CE del Parlamento
Europeo y del Consejo, de 10 de mayo de 1999, Bruselas, 8.9.2011 COM (2011)
547 f‌i nal», pp. 7-8. Disponible en
TXT/PDF/?uri=CELEX:52011DC0547&from=PL>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
210
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Consejo
y al Comité Económico y Social Europeo sobre la aplicación de la Directiva del
Consejo relativa a la aproximación de las disposiciones legales, reglamentarias
y administrativas de los Estados miembros en materia de responsabilidad por los
daños causados por productos defectuosos (85/374/CEE), Bruselas, 7.5.2018 COM
(2018) 246 f‌i nal», p. 10. Disponible en
TXT/PDF/?uri=CELEX:52018DC0246&from=FR>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «Informe de la Comisión al Parlamento Europeo, al Con-
sejo y al Comité Económico y Social Europeo, Informe sobre las repercusiones
en materia de seguridad y responsabilidad civil de la inteligencia artif‌i cial, el
internet de las cosas y la robótica, Bruselas, 19.2.2020 COM (2020) 64 f‌i nal», p.
2. Disponible en
LEX:52020DC0064&from=ES>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «Iniciativa sobre Responsabilidad civil. Adaptación de las
normas de responsabilidad a la era digital y a la inteligencia artif‌i cial», 30 de junio
de 2021. Disponible en
your-say/initiatives/12979-Responsabilidad-civil-Adaptacion-de-las-normas-de-
responsabilidad-a-la-era-digital-y-a-la-inteligencia-artif‌i cial_es>. [Consultado el
10/09/2022].
COMISIÓN EUROPEA, «Libro Blanco Hoja de ruta hacia un espacio único europeo
de transporte: por una política de transportes competitiva y sostenible, Bruselas,
28.3.2011 COM (2011) 144 f‌i nal», p. 20. Disponible en
eu/legal-content/ES/TXT/PDF/?uri=CELEX:52011DC0144&from=es>. [Con-
sultado el 10/09/2022].
COMISIÓN EUROPEA., «Libro Blanco sobre la inteligencia artif‌i cial - un enfoque
europeo orientado a la excelencia y la conf‌i anza, 19.2.2020 COM (2020) 65 f‌i nal»,
p. 2. Disponible en les/commission-
white-paper-artif‌i cial-intelligence-feb2020_es.pdf>. [Consultado el 10/09/2022].
COMISIÓN EUROPEA, «Report from the Commission to the European Parliament,
the Council and the European Economic and Social Committee on the Applica-
tion of the Council Directive on the approximation of the laws, regulations, and
administrative provisions of the Member Estates concerning liability for defec-
tive products (85/374/EEC), SWD (2018) 158 f‌i nal», Commission sta working
document, p. 25. Disponible en
TXT/?uri=CELEX%3A52018DC0246>. [Consultado el 10/09/2022].
DIRECCIÓN GENERAL DE JUSTICIA Y CONSUMIDORES (COMISIÓN EU-
ROPEA), «Report on Liability for Artif‌i cial Intelligence and other emerging
technologies», 27 de noviembre de 2019, p. 45. Disponible en < https://op.europa.
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 211
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/
language-en >. [Consultado el 10/09/2022].
COMITÉ ECONÓMICO Y SOCIAL EUROPEO (CESE), «Dictamen del Comité
Económico y Social Europeo sobre la “Intelige ncia artif‌i cial: las consecuencias
de la inteligencia artif‌i cial para el mercado único (digital), la producción, el con-
sumo, el empleo y la sociedad”, 526º Pleno del cese de 31 de mayo y 1 de junio
de 2017 (2017/C 288/01)», p. 1, Conclusiones y recomendaciones 1.1. Disponible
en
5369&from=BG>. [Consultado el 10/09/2022].
DE CHIARA, A. et al., «Car accidents in the age of robots», International Review of
Law and Economics, núm. 68, 2021, pp. 1-14. Disponible en
direct.com/science/article/pii/S0144818821000466>. [Consultado el 10/09/2022].
DÍAZ ALABART, S., Robots y responsabilidad civil, 1.ª ed., Madrid (Reus), 2018.
DÍEZ-PICAZO, L., «La culpa en la responsabilidad civil extracontractual», Anuario
de Derecho Civil, 2001, pp. 1009-1027. Disponible en -
teca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-C-2001-30100901028>.
[Consultado el 10/09/2022].
DIGESTO., De diversis regulis iuris antiqui (D. 50, 17), Libro quincuagésimo, Título
17.
ERCILLA GARCÍA, J., Normas de derecho civil y robótica. Robots inteligentes,
personalidad jurídica, responsabilidad civil y regulación, 1.ª ed. Cizur Menor
(Thomson Reuters Aranzadi), 2018.
FONDAZIONE ROSSELLI., «Analysis of the Economic Impact of the Development
Risk Clause as provided by Directive 85/374/EEC on Liability for Defective
Products», Study for the European Commission, 2004, p. 132-133. Disponible
en
clause-study_f‌i nal-report.pdf>. [Consultado el 10/09/2022].
GÓMEZ LIGÜERRE. C., GARCÍA-MICÓ, T.G., «Liability for Artif‌i cial Intelligence
and other emerging technologies», InDret, núm. 1, 2020, p. 501-511. Disponible
en <1524.pdf (indret.com)>. [Consultado el 10/09/2022].
GUTIÉRREZ DAVID, M.E., «Administraciones inteligentes y acceso al código fuen-
te y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales»,
Derecom, núm. 30, 2021, pp. 143-228. . Disponible en
es/descarga/articulo/7980499.pdf>. [Consultado el 10/09/2022].
GONZALO CAMPOS RIVERA
212
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
HERNÁNDEZ DÍAZ-AMBRONA, M. D., La herencia yacente, Barcelona ((J.M.
Bosch Editor)), 2006. Disponible en
te-1151>. [Consultado el 10/09/2022].
HUERGO LORA, A., DÍAZ GONZÁLEZ, G. M., «La regulación de los algoritmos»,
Revista Técnica Tributaria, Vol. 4, núm. 131, 2020, p. 285-285.
IBM CLOUD EDUCATION, «Machine learning», IBM Cloud Learn Hub, entrada
de blog de 15 de julio de 2020. Disponible en
cloud/learn/machine-learning#:~:text=Machine%20learning%20es%20una%20
rama,mejora%20gradual%20de%20su%20precisi%C3%B3n.>. [Consultado el
10/09/2022].
JUNKER, J. C., «Directrices políticas para la próxima Comisión Europea Un nuevo
comienzo para Europa: mi Agenda en materia de empleo, crecimiento, equidad y
cambio democrático, publicado en fecha de 15 de julio de 2014. Segunda priori-
dad “A Connected Digital Single Market”». Disponible en
archives/juncker-commission/priorities/index_en.htm>.
KAMINSKY, M. E., «Binary governance: lessons from the GDPR´s approach to
algorithmic accountability». Southern California Law Review, núm. 92, 2019,
p. 1557. Disponible en
cgi?article=2374&context=faculty-articles>. [Consultado el 10/09/2022].
LACRUZ MANTECÓN, M., «Potencialidades de los robots y capacidades de las per-
sonas», Revista general de legislación y jurisprudencia, núm. 1, 2019, pp. 85-129.
«La inteligencia artif‌i cial», Syvalue. Disponible en
cia-artif‌i cial/>. [Consultado el 10/09/2022].
LÓPEZ DEL MORAL, M., QUESADA LÓPEZ, I. M., ANTÓN SANCHO, M., «In-
teligencia artif‌i cial y responsabilidad civil: ¿es realmente necesario un cambio del
Ordenamiento Jurídico?», Diario La Ley, núm. 47, 29 de enero de 2021, Disponible
en: cial-y-respon-
sabilidad-civil-es-realmente-necesario-un-cambio-del-ordenamiento-juridico>.
McKINSEY GLOBAL INSTITUTE, «Disruptive technologies: Advances that
will transform life, business, and the global economy; McKinsey Global Ins-
titute, 2013». Disponible en .com/~/media/mckinsey/
business%20functions/mckinsey%20digital/our%20insights/disruptive%20
technologies/mgi_disruptive_technologies_executive_summary_may2013.pdf>.
[Consultado el 10/09/2022];
PARLAMENTO EUROPEO, «Informe de 27 de enero de 2017 con recomenda-
ciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica,
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 213
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
(2015/2103(INL))», p. 3, Considerando B. Disponible en
europa.eu/doceo/document/A-8-2017-0005_ES.pdf>. [Consultado el 10/09/2022].
PARLAMENTO EUROPEO, «Informe con recomendaciones destinadas a la Comi-
sión sobre un régimen de responsabilidad civil en materia de inteligencia artif‌i cial
(2020/2014(INL))». 5 de octubre de 2020, pp. 14-15, Principio Rector 8. Dis-
ponible en
ES.pdf>. [Consultado el 10/09/2022]
PARLAMENTO EUROPEO, «Informe con recomendaciones destinadas a la Comi-
sión sobre un marco de los aspectos éticos de la inteligencia artif‌i cial, la robótica
y las tecnologías conexas (2020/2012(INL)), Bruselas, a 8 de octubre de 2020,
A9-0186/2020, apartado 23». Disponible en
doceo/document/A-9-2020-0186_ES.pdf>. [Consultado el 10/09/2022]
PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 16 de fe-
brero de 2017, con recomendaciones destinadas a la Comisión sobre normas de
Derecho civil sobre robótica (2015/2103(INL)), Normas de Derecho civil sobre
robótica, P8_TA(2017)0051», p. 6, Considerando AI. Disponible en .
europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.pdf>. [Consultado el
10/09/2022].
PARLAMENTO EUROPEO, «Resolución del Parlamento Europeo, de 20 de octubre
de 2020 con recomendaciones destinadas a la Comisión sobre un régimen de
responsabilidad civil en materia de inteligencia artif‌i cial (2020/2014(INL), Ré-
gimen de responsabilidad civil en materia de inteligencia artif‌i cial». Disponible
en
0276&from=ES>. [Consultado el 10/09/2022].
PARRA LUCÁN, M. A., «Ámbito de aplicación», en: BERCOVITZ RODRÍGUEZ-
CANO, R., (coord.), en: Comentarios al Texto Refundido de la Ley General para
Pamplona (Aranzadi), 2009, pp. 77-295.
PARRA LUCÁN, M. A., La protección del consumidor frente a los daños: responsabi-
lidad civil del fabricante y del prestador de servicios, 1.ª ed., Madrid (Reus), 2011.
PETIT, M., «Por una crítica de la razón algorítmica. Estado de la cuestión sobre la
inteligencia artif‌i cial, su inf‌l uencia en la política y su regulación», Quaderns del
CAC, Vol. 21, núm. 44, 2018, pp. 5-15. Disponible en .cac.cat/sites/
default/f‌i les/2018-08/Q44_ES.pdf>. [Consultado el 10/09/2022].
PORAT, A., STEIN, A., Indeterminate Causation and Apportionment of Damages: An
Essay On Holtby and Allen, Oxford Journal of Legal Studies, (Oxford University
Press) Vol. 23, núm. 4, 2003, pp. 667-702.
GONZALO CAMPOS RIVERA
214
RJUAM, n.º 46, 2022-II, pp. 173-215 ISSN: 1575-720-X
LOVELLS, «Product liability in the European Union. A report for the European
Commission», MARKT/2001/11/D, 2003. Disponible en
camara.es/estaticos/upload/0/001/1478.pdf>. [Consultado el 10/09/2022].
ROGEL VILDE, C., «Robots y personas». Revista general de legislación y jurispru-
dencia, núm. 1, 2018, pp. 79-90.
RUDA GONZÁLEZ, A., «La responsabilidad por cuota de mercado a juicio» Indret,
núm.º 147, 2003. Disponible en
load/82562/107408>. [Consultado el 10/09/2022].
SALVADOR CODERCH, P., SOLÉ FELIÚ, J., SEUBA TORREBLANCA, J. C.,
LUNA YERGA, A., RUIZ GARCÍA, J. A., CARRASCO MARÍN, J., «Los riesgos
de desarrollo». Madrid, 26-28 de febrero de 2001, Indret 1/200. Disponible en
. [Consultado
el 10/09/2022].
SCHNEIDER, J-P y WENDEHORST, C., «Response to the public consultation on
the White Paper: On artif‌i cial Intelligence – A European approach to excellence
and trust, COM (2020) 65 f‌i nal», European Law Institute, p. 4. Disponible en
. [Consultado
el 10/09/2022].
SEUBA TORREBLANCA., «Concepto de producto», en: SALVADOR CODERECH,
P., GOMEZ POMAR, F., (coord.) en: Tratado de responsabilidad civil del fabri-
cante, Pamplona (Thomson/Civitas), 2008, p. 105-134.
TABLADA, F., «Inteligencia artif‌i cial: Def‌i nición, tipos y aplicaciones», Gru-
po Atico34, entrada de blog de 18 de junio de 2020. Disponible en
protecciondatos-lopd.com/empresas/inteligencia-artif‌i cial/#Memoria_limitada>.
[Consultado el 10/09/2022].
TAPIA HERMIDA, A., «La responsabilidad civil derivada del uso de la inteligencia
artif‌i cial y su aseguramiento», Revista de la Asociación Española de Abogados
Especializados en Responsabilidad Civil y Seguro, núm. 76, 2020, pp. 80-104.
WAGNER, G., «Robot liability», SSRN, 14 de julio de 2018, p. 15. Disponible en
. [Consultado
el 10/09/2022].
WOLTERS KLUWER., «Buen padre de familia», Guías Jurídicas Wolters Kluwer.
Disponible en
x?params=H4sIAAAAAAAEAMtMSbF1jTAAAUNDc2MLtbLUouLM_DxbI
wMDCwNzA7BAZlqlS35ySGVBqm1aYk5xKgDRNX52NQAAAA==WKE>.
[Consultado el 10/09/2022]
Responsabilidad civil derivada del uso de sistemas de IA. Situación actual y retos para un futuro reglamento europeo 215
RJUAM, n.º 46, 2022-II, pp. 173-215ISSN: 1575-720-X
YZQUIERDO TOLSADA, M., Responsabilidad civil extracontractual: parte gene-
ral: delimitación y especies, elementos, efectos o consecuencias. 6.º ed., Madrid
(Dykinson), 2020.
ZURITA MARTÍN, I., «Las propuestas de reforma legislativa del Libro Blanco
europeo sobre inteligencia artif‌i cial en materia de seguridad y responsabilidad
civil», Actualidad Jurídica Iberoamericana, núm. 14, 2021, p. 481. Disponible
en g/wp-content/uploads/2021/03/11._Isabel_Zurita_pp._438-487.
pdf>. [Consultado el 10/09/2022].
Jurisprudencia citada
Sentencia del Tribunal de Justicia de la Unión Europea de 25 de abril de 2002, Asunto
C-154/00. Disponible en
uri=CELEX:62000CJ0154&from=ES>. [Consultado el 10/09/2022].
Sentencia del Tribunal de Justicia de la Unión Europea de 21 de junio de 2017, asunto
ad6adc50000017d5733488ac28cecc0&marginal=RJ\2017\4114&docguid=Ib5
16d2e03c3311e78a9e010000000000&ds=ARZ_LEGIS_CS&infotype=arz_ju-
ris;&spos=1&epos=1&td=1&predefinedRelationshipsType=documentRet
rieval&fromTemplate=&suggestScreen=&&selectedNodeName=&selec_
mod=false&displayName=#>. [Consultado el 10/09/2022].
Normativa citada
«DIRECTIVA 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproxima-
ción de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros
en materia de responsabilidad por los daños causados por productos defectuosos (DO L 21
de 7.8.1985, p. 29), modif‌i cada por la Directiva 1999/34/CE del Parlamento Europeo y del
Consejo, de 10 de mayo de 1999, (DO L 141 de 4.6.1999, p. 20) y la rectif‌i cación (DO L 283
de 6.11.1999, p. 20)». Disponible en
handler?identif‌i er=b21bef4e-b528-49e2-a0f9-142dc503969a&format=pdfa1b&language
=es&productionSystem=cellar&part=>. [Consultado el 10/09/2022].

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR