Agentes artificiales, opacidad tecnológica y distribución de la responsabilidad penal

AutorIván Salvadori
CargoProf. Dr. de Derecho penal, Derecho penal informático y Derecho penal internacional, Departamento de Ciencias Jurídicas, Universidad de Verona, Italia
Páginas137-174
ISSN: 0210-4059 CUADERNOS DE POLÍTICA CRIMINAL
Número 133, I, Época II, mayo 2021, pp. 137-174
AGENTES ARTIFICIALES,
OPACIDAD TECNOLÓGICA Y DISTRIBUCIÓN
DE LA RESPONSABILIDAD PENAL*
Artificial agents, technological opacity
and distribution of criminal liability
IVÁN SALVADORI**
Fecha de recepción: 26/12//2020
Fecha de aprobación: 05/04/2021
RESUMEN: El presente trabajo tiene como objetivo comprobar si los mo-
delos tradicionales de atribución de responsabilidad penal siguen sien-
do válidos en relación con hechos lesivos resultantes de la acción de un
agente artificial o de la interacción ente agentes humanos y artificia-
les. Después de identificar los principales efectos que el desarrollo de
la Inteligencia Artificial y del Machine Learning puede tener sobre el
Derecho penal, procederemos a clasificar los diferentes tipos de agentes
artificiales sobre la base de sus niveles de automatización y autonomía,
estableciendo si, en la actualidad, pueden ser considerados “autores” de
un delito y estar sujetos, como agentes humanos, a una pena. Excluyendo
esta posibilidad, se identificarán los criterios para la atribución de res-
ponsabilidad penal a quienes están “detrás” de los agentes artificiales y
de los robots por hechos perjudiciales relacionados con ellos. A conti-
nuación, se determinarán los casos en los que un agente artificial puede
ser utilizado como medio de ejecución de un delito o convertirse en obje-
* Este artículo ha sido desarrollado en el marco del proyecto de excelencia
“Automazione, Diritto e responsabilità” (AUDIRR) del Departamento de Ciencias Jurídicas
la Universidad de Verona, del cual es responsable científico el prof. Lorenzo Picotti.
** Prof. Dr. de Derecho penal, Derecho penal informático y Derecho penal inter-
nacional, Departamento de Ciencias Jurídicas, Universidad de Verona, Italia; ivan.salva-
dori@univr.it. Traducción al español a cargo de la Dr. Aixa Gálvez Jiménez. Profesora de
Derecho Penal en la Universidad de Granada.
138 IVÁN SALVADORI
CUADERNOS DE POLÍTICA CRIMINAL ISSN: 0210-4059
Número 133, I, Época II, mayo 2021, pp. 137-174
to material de un delito. En conclusión, se identificarán posibles solucio-
nes para resolver algunos de los complejos problemas jurídico-penales
asociados al desarrollo de la Inteligencia Artificial.
PALABRAS CLAVE: Agentes artificiales, Inteligencia Artificial, Opacidad
tecnológica, Responsabilidad penal, Responsabilidad por producto
defectuoso.
ABSTRACT: The paper focuses on the criminal liability of artificial agents
and the ‘humans behind’ Artificial Intelligence. Firstly, it classifies
the artificial agents on the basis of their structure and their level of
automation and autonomy. Secondly, it excludes the possibility to consider
an autonomous agent as a recipient of criminal punishment. Hence, it
determines under what conditions humans should be held criminally
responsible for developing, programming, producting and using artificial
agents that cause harm to others. The paper also analyses when an
artificial agent can be considered as a tool to commit a crime or a ‘victim’
of a crime. Finally, it suggests possible criteria to solve some criminal
issues related to the technological opacity and the AI development.
KEY WORDS: Artificial agents, Artificial Intelligence, Technological
Opacity, Criminal Liability, Product Liability
SUMARIO: I. Introducción.- II. Aplicación de la Inteligencia Artificial y
su posible impacto en el Derecho penal.- III. De la automati-
zación a la autonomía: clasificación de los agentes artificia-
les.- IV. Los agentes artificiales como autores del delito.- V. La
distribución de la responsabilidad penal entre el hombre y los
agentes artificiales: 1. La responsabilidad a título doloso. 2. La
responsabilidad imprudente.- VI. Lesión del agente artificial y
responsabilidad plurisubjetiva.- VII. El agente artificial como
medio de ejecución de un delito.- VIII. El agente artificial
como objeto material del delito.- XI. Consideraciones finales.
I. INTRODUCCIÓN
En los últimos años, gracias al desarrollo incesante de la Inteligencia
Artificial (en adelante IA) y el Aprendizaje automático –Machine Learnig
(en adelante ML)–, los agentes artificiales (de ahora en adelante a.a.), y
más en general, los sistemas de inteligencia artificial (de aquí en adelante
s.i.a.) están apoyando, o en algunos casos, sustituyendo al hombre en la
realización de actividades que, hasta hace poco, se pensaba que solo po-
dían lograr realizarse con la inteligencia humana1.
1 Sobre este tema véase el reciente libro blanco de la COMISIÓN EUROPEA (2020).
Libro blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia
Agentes artificiales, opacidad tecnológica y distribución de la responsabilidad penal 139
ISSN: 0210-4059 CUADERNOS DE POLÍTICA CRIMINAL
Número 133, I, Época II, mayo 2021, pp. 137-174
El término a.a. (agente artificial), a menudo se equipara incorrecta-
mente con otro, más específico, el de “agente autónomo” o “agente inte-
ligente”, que se utiliza para identificar los software y los s.i.a. capaces de
desarrollar una función para otro agente (humano o artificial)2.
Basta pensar en los a.a. y los robots empleados en el sector médico-
quirúrgico o para asistir a enfermos o ancianos (elder care robotic), co-
ches autónomos o algoritmos de justicia predictiva3. No se trata de meros
instrumentos o de objetos, sino de verdaderos agentes artificiales capaces
de interactuar con la realidad circulante, con otras maquinas inteligen-
tes y con el hombre y capaces de tomar, en muy poco tiempo, decisiones
complejas de indudable relevancia social4.
La aplicación de la IA y de la ML en muchos ámbitos de la vida co-
tidiana está aportando extraordinarios beneficios a la sociedad; pero al
mismo tiempo, genera riesgos nuevos e impredecibles y plantea proble-
mas éticos y legales complejos.
Las repercusiones de la IA también son notables en las categorías tra-
dicionales de Derecho penal (acción, autoría, causalidad, imprudencia,
y la confianza”. Disponible en: https://ec.europa.eu/info/sites/info/files/commission-white-pa-
per-artificial-intelligence feb2020_it.pdf (fecha de consulta: 8 de mayo de 2021); OECD (2020).
Identifying and Measuring Developments in Artificial Intelligence: Making the Impossible
Possible”. Disponible en: https://www.oecd-ilibrary.org/docserver/5f65ff7e-en.pdf?expires=15
95826534&id=id&accname=gues t&checksum=4BA4A0 36BF685672C6EC2D3CA8F49CB
(fecha de consulta: 8 de mayo de 2021); EUROPEAN COMMISSION (2020). “European Enterprise
Survey on the Use of Technologies Based on Artificial Intelligence”. Disponible en: https://
op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 (fe-
cha de consulta: 8 de mayo de 2021).
2 En este sentido KOOPS, B.J., HILDEBRANDT, M., JAUT-CHIFFELLE, D.O. (2010). Bridging
the Accountability Gap: Rights for New Entities in the Information Society?”. Minn. J. L. Sci.
& Tech., n.° 497, pág. 497 y ss.; en términos más generales véase FLORIDI L., SANDERS J.W.
(2014). In the Morality of Artificial Agents”. Mind and Machines, pág. 349 y ss.
3 Para una breve descripción de los diferentes tipos de robots véase MÜLLER, M.
(2014). Roboter und Recht. Eine Einführung”. Aktuelle Juristische Praxis, n.° 5, pág. 595
y ss., pág. 596 y ss. Sobre las múltiples formas de interacción y colaboración entre hu-
manos y máquinas inteligentes véase SIMMLER, M., FRISCHKNECHT, R. (2020). A Taxonomy
of Human-Machine Collaboration. Capturing Automation and Technical Autonomy”. AI &
Society, pág. 1 y ss.
4 En relación véase FLORIDI, L., SANDERS, J.W. (2014). In the Morality of Artificial
Agents”, cit., pág. 349 y ss.; CALO, R. (2015). Robotics and the Lessons of Cyberlaw”.
California L. Rev., n.° 103, pág. 513 y ss., pág. 515, pág. 530 y ss.; FREITAS, P.M., ANDRADE,
F., NOVAIS, P. (2013). Criminal Liability of Autonomus Agents: From the Unthinkable to the
Plausible”, en CASANOVAS, P., PAGALLO, U., PALMARINI, M., SARTOR, G. (Eds.), AI Approaches
to the Complexity of Legal Systems, London, pág. 145 y ss., en particular pág. 146, que
identifican las principales características de los agentes artificiales en la autonomía, reac-
tividad, proactividad y adaptabilidad de conductas.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR