Protección frente a los daños causados por productos y sistemas de inteligencia artificial

Páginas93-132
III. PROTECCIÓN FRENTE A LOS DAÑOS
CAUSADOS POR PRODUCTOS Y SISTEMAS
DE INTELIGENCIA ARTIFICIAL
3.1. INSUFICIENCIA DEL MARCO NORMATIVO EXISTENTE ANTE AL-
GUNOS DESAFÍOS JURÍDICOS EN MATERIA DE SEGURIDAD Y RES-
PONSABILIDAD CIVIL A LA LUZ DE LAS CARACTERÍSTICAS DE
LOS PRODUCTOS Y SISTEMAS DE IA
Vivimos en una sociedad de bienestar y consumo, donde las nuevas tecno-
logías digitales emergentes (como la IA, el IoT y la robótica), conducen a la
creación de nuevos productos y servicios que permiten nuevas oportunidades
para nuestra economía y sociedad, al tiempo que mejoran nuestra vida diaria.
Entre las oportunidades que nos brindan dichas tecnologías se hallan la
mejora de los productos, los procesos y modelos empresariales, así como la
posibilidad de que los fabricantes europeos sean más eficientes. Por otra par-
te, además de aumentar la productividad y la eficiencia, la IA ayuda a luchar
contra el cambio climático, a mejorar las condiciones de trabajo, a integrar
a personas con discapacidad, a facilitar nuevos descubrimientos y a resolver
algunos de los problemas más acuciantes, tales como el tratamiento de enfer-
medades crónicas, la predicción de enfermedades, la reducción de las tasas de
mortalidad por accidentes de tráfico, etc.
Además de las citadas oportunidades, dichas tecnologías también pueden
crear un riesgo de perjudicar intereses jurídicamente protegidos. Riesgo que
podría verse exacerbado conforme logren mayor implantación las distintas
aplicaciones informáticas. Así, resulta esencial analizar si el actual marco ju-
rídico en materia de seguridad y responsabilidad civil sigue siendo adecuado
para proteger a los usuarios.
94 María Jorqui Azofra
La Comisión Europea ha estado trabajando en este ámbito. A estos efec-
tos, ha publicado varios informes, entre los que destaca aquel que evalúa las
implicaciones de las tecnologías digitales emergentes para los marcos de res-
ponsabilidad a nivel nacional y de la UE 201; y otro, recientemente publicado,
sobre la revisión de la Directiva 85/374/CEE 202.
Estos nuevos productos y servicios basados en la IA deben verse acompa-
ñados de una confianza en su seguridad. La confianza en los mismos es una
condición previa para que los adopten la industria y los usuarios 203. La amplia-
ción de los controles preventivos unida al desarrollo de la tecnología tiene
como principal objetivo no defraudar la razonable expectativa de los consu-
midores de que dichos productos y servicios no conlleven peligros o causen
daños.
Así, aunque la IA ofrece muchas ventajas, también puede resultar per-
judicial. Los daños pueden afectar a la seguridad y la salud de las personas,
con consecuencias como la muerte, y menoscabos al patrimonio, así como
ocasionar la pérdida de privacidad. También pueden estar vinculados a una
gran variedad de riesgos. El marco regulador debe centrarse en cómo mini-
mizar estos, especialmente los más significativos. El Libro blanco identifica
dos tipos esenciales de riesgos (sobre los derechos y sobre la seguridad) 204, y
201 Expert Group on Liability and New Technologies – New Technologies Formation.
Liability for artificial intelligence and other emerging digital technologies. 2019. Este Informe
se extiende más allá del régimen de responsabilidad por productos cubierto por la Directiva
sobre responsabilidad por productos defectuosos. Revisa tanto éste como otros sistemas de
responsabilidad que existen en la UE y estudia en qué medida se encuentran adaptados para
abordar los problemas de responsabilidad que surgen de las tecnologías digitales emergentes,
incluida la IA.
202 Centre for Strategy & Evaluation Services (CSES), Dirección General de Mercado
Interior, Industria, Emprendimiento y Pymes (Comisión Europea) Impact assessment
study on the revision of the Product Liability Directive (PLD) 85/374/EEC No. 887/PP/GRO/
IMA/20/1133/11700: final report. 28-09-2022. Este estudio apoya una evaluación de impacto
sobre la revisión de la Directiva de Responsabilidad por Productos 85/374/CEE. Los objetivos
eran: recopilar datos e información para identificar y analizar los problemas relacionados con
la pertinencia y la adecuación a la finalidad de la Directiva; desarrollar opciones políticas para
abordar los problemas identificados y garantizar que la Directiva siga siendo adecuada a su fina-
lidad en el contexto de la era digital y la economía circular.
203 European Commission White Paper On Artificial Intelligence - A European approach
to excellence and trust COM(2020) 65 final.
204 Se encuentran expuestos a riesgos, por ejemplo, los siguientes derechos: a no ser
discriminado por razón de sexo, raza u origen étnico, religión o credo, discapacidad, edad
u orientación sexual; a la protección de los datos personales; a una tutela judicial efectiva; a
la libertad de expresión, etc. Entre las diferentes causas que pueden originar que estos dere-
chos se vean afectados, están, por ejemplo: las deficiencias en el diseño de los sistemas de IA,
que pueden dar lugar a fallos en su funcionamiento; la infracción de la normativa relativa a la
Responsabilidad por daños causados por por productos y sistemas de IA 95
también determina que el marco normativo esté orientado a su evitación o
minimización.
El Libro blanco promueve, en este sentido, un marco normativo para la
IA que genere un ecosistema de confianza. En este se definen las opciones
existentes para alcanzar el doble objetivo de promover la adopción de la IA y
de abordar los riesgos vinculados a determinados usos de esta nueva tecnolo-
gía. La AIA pretende conseguir el segundo objetivo para desarrollar un eco-
sistema de confianza mediante la proposición de un marco jurídico destinado
a lograr que la IA sea fiable. Así, la AIA se basa en los valores y derechos fun-
damentales de la UE y tiene por objeto inspirar confianza en los ciudadanos
y otros usuarios para que adopten soluciones basadas en la IA, al tiempo que
trata de alentar a las empresas a que desarrollen este tipo de soluciones. Se
adopta un enfoque antropocéntrico, pues la IA debe ser un instrumento para
las personas y su fin último debe ser incrementar el bienestar humano. Por
consiguiente, las normas relativas a la IA deben estar centradas en las perso-
nas, con la finalidad de que estas tengan la seguridad de que la tecnología se
usa de un modo seguro y de conformidad con la ley.
Además de perseguir este objetivo, íntimamente vinculado con los valo-
res europeos, la aprobación de un marco normativo europeo pretende lograr
como fin la libre circulación de la tecnología, para lo que resulta ineludible
evitar la fragmentación del mercado único, de modo que los requerimientos
legales impuestos a los desarrollos de la IA sean los mismos en toda la Unión.
En 1985 se aprobó la Directiva comunitaria 85/374/CEE, de 25 de ju-
lio, relativa a la aproximación de las disposiciones legales, reglamentarias y
administrativas de los Estados miembros en materia de responsabilidad por
los daños causados por productos defectuosos. Entre sus principales objetivos
se hallaba el de lograr una aproximación de las legislaciones de los Estados
miembros con el fin de impedir que la diversidad legislativa en los diferentes
países de la Comunidad Económica Europea provocara desequilibrios en la
competencia comercial. Asimismo, se pretendió, tras sentar las bases legales
de una responsabilidad por el carácter defectuoso del producto, limitar la
misma a determinadas clases de daños, en cierta cuantía y durante determina-
protección de datos personales al recopilar la información necesaria para el entrenamiento y
programación de los algoritmos, etc. Por lo que se refiere a la seguridad, también los riesgos
pueden proceder de defectos en la presentación del producto inteligente, que puede no tener
las debidas instrucciones de uso y mantenimiento; o del efecto en el producto inteligente de
otros productos que estén interconectados con él; o de la función de autoaprendizaje del pro-
pio producto, etc. Aunque algunos de estos riesgos no se limitan a los productos o servicios que
dependen de la IA, el uso de esta última puede aumentar o agravar los riesgos. Véase European
Commission White Paper On Artificial Intelligence - A European approach to excellence and
trust COM(2020) 65 final, p. 12.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR