La responsabilidad penal de los agentes de inteligencia artificial: entre la ficción y una realidad que se aproxima
Autor | Ricardo Posada Maya |
Páginas | 561-581 |
— 561 —
LA RESPONSABILIDAD PENAL DE LOS AGENTES DE
INTELIGENCIA ARTIFICIAL: ENTRE LA FICCIÓN Y UNA
REALIDAD QUE SE APROXIMA*
R P M
Profesor de Derecho Penal Universidad de Los Andes, Bogotá-Colombia.
SUMARIO: 1. La inteligencia artificial y la robótica: nuevos modelos de riesgos
sociales. 1.1. El estado de las cosas. 1.2. Hacia nuevas propuestas de
imputación penal de los actos de los agentes tecnológicos avanzados.
2. Modelos de responsabilidad penal frente a la inteligencia artifi-
cial. 2.1. La clasificación de los agentes tecnológicos inteligentes. 2.2.
Principios fundamentales. 3. Conclusiones. Bibliografía.
1. LA INTELIGENCIA ARTIFICIAL Y LA ROBÓTICA: NUEVOS MODE-
LOS DE RIESGOS SOCIALES
1.1. El estado de las cosas
Hasta hace poco tiempo, “la cuestión de la inteligencia artificial (en adelante
IA) y la robótica” era simplemente un fenómeno de ciencia ficción, que hoy deja de
serlo por la necesidad de una profunda e innovadora regulación jurídica. A partir
de los años 40 del siglo XX (con el test de Turing), los avances en la tecnología de
última generación han permitido documentar el comienzo de una nueva era que
produce otra clase de riesgos, muertes y daños causados por agentes tecnológicos
inteligentes y autónomos denominados como machina sapiens 1 (vehículos autóno-
mos 2, drones, robots asistenciales y médicos, armas militares, grandes ordenadores,
etcétera).
Daños e infracciones que no siempre resultan imputables a los creadores, di-
señadores, fabricantes, proveedores y usuarios de estas máquinas 3, y que pueden
afectar seriamente los bienes jurídicos de los ciudadanos, la economía, el derecho y
* El presente artículo se inscribe en la línea de aspectos fundamentales del derecho penal
sustantivo y procesal penal del Grupo de Investigaciones en Derecho Penal y Justicia Transicional
“Cesare Beccaria” de la Universidad de Los Andes, Colombia.
1 HALLEVY, 2013, pp. 1 y ss. Sobre tales riesgos, v. POSADA MAYA, 2017 a, pp. 21 y ss.
2 Sobre los vehículos autónomos v. LEENES; LUCIVERO, 2014, pp. 207 y ss.
3 WENG; CHEN; SUN, 2009, p. 273; DAHIYAT, 2010, p. 120.
562 R P M
la justicia 4, el modo de vida y el mercado de trabajo, la educación, el medio ambien-
te y las políticas sociales, impactando los procesos decisorios y reemplazando las
actividades humanas en todos los niveles sociales 5. Se trata de acontecimientos que
incluso podrían incentivar fenómenos como el transhumanismo (rehabilitación e in-
tervención corporal basadas en componentes tecnológicos), que pueden derivar en
complejas situaciones de discriminación global o en la quiebra de las clases sociales
mediante la concentración de la riqueza por parte de los empresarios informáticos 6.
Nos enfrentamos a riesgos sociales y daños cada vez más frecuentes, cuya pre-
vención y sanción no han sido reguladas por el derecho penal moderno, debido
a la idea de que solo se pueden declarar penalmente responsables y castigar a su-
jetos que, además de tener cierta capacidad de determinación e inteligencia, po-
sean la facultad moral para comprender la dimensión de sus propios actos técni-
cos y auto-reflexionar sobre ellos (según una concepción retributiva de la sanción
penal) 7. Desde luego, la última atribución solo pertenece por el momento a los
seres humanos.
Sin duda, se puede afirmar que la teoría del delito moderna se ha erigido sobre
una noción antropomórfica 8 de la responsabilidad penal, que implica la capacidad de
realizar “actiones humanae” 9 (acciones u omisiones típicas y antijurídicas), enten-
didas como el producto final e ideal del espíritu de una persona biológica. Injusto
penal que se vincula luego al sujeto mediante la categoría de la culpabilidad, al
examinar su exigibilidad concreta en un sentido ontológico, normativo y comunicativo
Sin embargo, estas exigencias dogmáticas también han permitido rechazar la
responsabilidad penal de los animales, las cosas –incluso las tecnológicas que do-
minan componentes mecánicos avanzados que les permiten movimientos dinámi-
cos 11– y de las personas jurídicas (societas delinquere non potest 12). Sin embargo, hoy
4 NISSAN, 2017, pp. 441-464.
5 RADUTNIY, 2017, pp. 133 y ss.
6 Res. P8_TA (2017)0051 del 16.02.2017.
7 GLESS; SILVERMAN; WEIGEND, 2016, pp. 414 y 415, afirman que no es extraordinaria
la responsabilidad por daños causados por entidades en el derecho privado o corporativo estadou-
nidense, más pragmático que el derecho continental, para ajustar sus modelos de imputación a los
“actos de los no humanos y las personas jurídicas”; HUBBARD, 2016, pp. 29-33.
8 ABBAGNANO, 1997, p. 83, advierten que “Este nombre señala la tendencia a interpretar
todo tipo o especie de realidad en los términos del comportamiento humano o por semejanza o
analogía con este comportamiento”; DANAHER, 2016, p. 306.
9 Idem, 1997, p. 629. GLESS; SILVERMAN; WEIGEND, 2016, p. 416, señalan que “El tema
de la responsabilidad potencial de un robot nos lleva de vuelta a la pregunta fundamental de lo
que significa ser una ‘persona’”.
10 Una regla semejante se aplica en el common law, mediante la exigencia de actus reus y mens
rea. V. HALLEVY, 2010, pp. 177 y ss. Sin embargo, en este, el modelo la responsabilidad penal de
los agentes de IA es mucho más simple: se trata de un problema práctico, no teórico.
11 Es una idea mayoritaria en la doctrina penal. V. POSADA ECHAVARRÍA, 2012, pp. 924-
925. En general, la objeción –no tan clara hoy– es que las normas humanas no se pueden traducir
al lenguaje informático. V. HALLEVY, 2010, p. 173; idem, 2013, p. 40.
12 LUZÓN PEÑA, 2016, p. 253; PÉREZ, 1987, p. 341; POSADA ECHAVARRÍA, 2012, pp.
914-932; ROXIN, 1997, pp. 258-259. Sobre la responsabilidad de las personas jurídicas: CConst.,
Sent. C-320/30.06.1998 (a favor); C-674/1998 y C-847/1999 (en contra y afirmando el princi-
Para continuar leyendo
Solicita tu prueba