El sistema penal en la encrucijada ante el reto de la inteligencia artificial

AutorMario Caterini
CargoUniversidad de Calabria
Páginas1-19
https://idp.uoc.edu
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
1
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
ARTÍCULO
El sistema penal en la encrucijada
ante el reto de la inteligencia
articial
Mario Caterini
Universidad de Calabria
con la colaboración de
Pere Simón Castellano
Universidad Internacional de La Rioja
Fecha de presentación: octubre de 2021
Fecha de aceptación: diciembre de 2021
Fecha de publicación: marzo de 2022
Resumen
El artículo aborda la posibilidad de que la inteligencia artificial se utilice como herramienta no solo para
averiguar la verdad de los hechos relativos a un proceso penal, sino también para interpretar y resolver
cuestiones estrictamente jurídicas. Dado que, en la actualidad, los «sistemas expertos» desarrollados
para este fin utilizan los precedentes jurisprudenciales como base de conocimiento, se argumenta que
tales algoritmos, en un Estado de derecho, no pueden funcionar sobre la base de la regla puramente
estadística de «más probable que no», sino que deben programarse sobre la base de la regla política-
mente correcta de «más allá de toda duda razonable», que debe extenderse también a la duda sobre la
interpretación de la ley. El sistema de inteligencia artificial, por tanto, ante una jurisprudencia contra-
dictoria, tendría que proponer la interpretación más favorable al reo y el juez solo podría apartarse de
ella a condición de refutar de forma razonada la verosimilitud del precedente más favorable.
Palabras clave
inteligencia artificial; teoría del derecho penal; principio de legalidad; duda razonable; favor rei
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
2
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
The criminal justice system to the test of articial intelligence
Abstract
The paper illustrates the possibility of using AI not only as an instrument to check the facts in a criminal
trial but even to interpret and resolve significant legal matters. Currently, the “expert systems” deve-
loped for this purpose take advantage of the judicial precedents as the basis of knowledge: given that,
it is argued that these algorithms cannot work in a Constitutional State based on the statistical rule of
“more likely than not”, but they should be programmed according to the “political” alternative rule of
‘beyond all reasonable doubt’, which should be extended even to doubt in interpreting the law. Thus, in
the case of opposing judicial precedents, AI systems should suggest the most favourable interpretation
for the defendant, and the judge should dissent only by explaining why he does not hold plausible the
most favourable judicial precedent.
Keywords
artificial intelligence; criminal law theory; principle of legality; reasonable doubt;
favor rei
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
3
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
1. La certeza del ius dicere
«articial»: ¿ha llegado el futuro?
Aquel juez «ser inanimado» del que hablaba Montesquieu,
¿qué era sino una especie de robot?
1
En efecto, a la luz de
la teoría de la separación de poderes estatales, se puede
decir que la Ilustración entendió la aplicación en el caso
concreto de la ley como una especie de algoritmo e imagi-
nó al juez como una especie de máquina silogística.
2
Una
«justicia automática» realizable con las tecnologías mo-
dernas, en efecto, sería una especie de afirmación de la
aspiración original de la Ilustración y, en última instancia,
del Estado de derecho (Borrusso, 1997b, pág. 37; Borrusso,
1997a, pág. 656).
El mismo perfecto silogismo judicial defendido por Beccaria
muestra sus evidentes afinidades con el actual razona-
miento informatizado: evitando cualquier forma de inter-
pretación –caracterizada casi siempre por una declinación
ideológica o política– considerando solo la norma como
una premisa lógico-formal prodrómica de una solución
unívoca.
3
De hecho, las operaciones más fácilmente compu-
tarizadas serían las de carácter lógico en las que el jurista
realiza silogismos o razonamientos formales. Las razones
para utilizar el procedimiento algorítmico en derecho, por
tanto, radicarían en las exigencias de certeza que serían
más fácilmente garantizadas;
4
exigencias cuya satisfacción
requeriría un lenguaje particularmente claro, no ambiguo
sino formal, que solo los algoritmos prometerían.
1. Montesquieu (1748, pág. 327): «Mais les juges de la nation ne sont [...] que la bouche qui prononce les paroles de la loi; des êtres inanimés».
2. El método «matemático» o «axiomático» aplicado por el derecho tiene ascendencia en la obra de Thomasius, Heineccius y Wölfl; cfr.
Taddei Elmi (2014, pág. 89). Después de todo, Leibniz (1935, pág. 31) consideraba poder «reducir todo razonamiento humano a una
especie de cálculo que sirva para descubrir la verdad, dentro de los límites de lo posible ex datis, es decir, dado lo que nos es dado o
conocido». En el razonamiento leibniziano, así como la objetividad de los números es independiente de las propias matemáticas y se
mantiene independientemente de si hay algo que contar y alguien que importa, el derecho –que opera por medio de la lógica– tiene su
valor independientemente del hecho de que haya algo o alguien que juzgar, o de la determinación de quién es el juzgador (Ibíd., 1961, pág.
86; Pagallo, 2005). Por lo demás, como fue señalado por Zagrebelsky (2018, pág. 34), el pensamiento leibniziano es el trasfondo de ese
positivismo jurídico que en cierto modo da lugar a modelos jurídico-informáticos. En cambio, sobre los pródromos que se pueden obtener
del pensamiento de Hobbes sobre la sistematización «geométrica» y la formalización del derecho según un modelo «calculable», véanse
Cossutta (2003, pág. 124) y Scorsi (2006, pág. 15).
3. «En todo delito el juez debe hacer un silogismo perfecto: el mayor debe ser la ley general; el menor la acción conforme, o no, con la ley; la
consecuencia, la libertad o la pena. Cuando el juez se ve obligado o quiere hacer solo dos silogismos, se abre la puerta de la incertidumbre».
Cfr. Beccaria (1780, pág. 15).
4. Weber (1995, pág. 87) auspiciaba un «modo de pensar jurídico formal» porque solamente «el derecho formal es calculable […], predecible
en su aplicación» y el capitalismo necesita «un derecho que se pueda calcular de manera similar al de una máquina».
5. Papa (2020, pág. 80), en referencia a la transición a lo digital, habla de escenarios completamente inéditos, sobre todo en el plano de la
interpretación, dado que «el contenido significativo de cada norma puede ser destilado, “limpiado” del ruido del texto e identificarse en
su perfil puramente regulatorio».
La informatización del derecho, por tanto, parece tender
a una especificación del lenguaje jurídico, partiendo de
la necesidad de claridad del siglo XVIII y tratando de
superar la oscuridad de las leyes ya denunciadas por la
Ilustración (Beccaria, 1780, pág. 19). Hoy, sin embargo,
sería una especie de «purificación» del lenguaje «na-
tural» tradicionalmente utilizado en el ordenamiento
jurídico, a favor de un lenguaje «formal» capaz de repro-
ducir reglas jurídicas según modelos adecuados para los
sistemas informáticos. La jurisprudencia cibernética, por
tanto, realizaría el principio in claris non fit interpretatio:
la claridad estaría garantizada por un lenguaje «simbó-
lico» que derribaría la interpretación arbitraria en favor
de una aplicación automática del derecho en la que una
prótasis es inevitablemente seguida cada vez por la mis-
ma apódosis (Cossutta, 2003, pág. 112). La formalización
del tipo penal abstracto en aquella concreta, por tanto,
determinaría la predictibilidad matemática de las conse-
cuencias jurídicas de un caso tanto como para afirmar
que el ius dicere podría transformarse en la ejecución de
un algoritmo.
5
2. Los algoritmos predictivos en
el ámbito jurídico: modelos y
defectos de funcionamiento
Para un jurista no es propiamente obvio responder a la pre-
gunta: ¿qué es un algoritmo? En resumen, se puede decir
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
4
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
que se trata de una secuencia finita de instrucciones repe-
tibles y únicas que indican una combinación de acciones
que realizar para resolver un problema, transformando los
datos entrantes (input) en información de valor saliente
(output).
6
En consecuencia, las decisiones automáticas o
robóticas son aquellas que involucran los denominados
algoritmos de razonamiento que, dadas unas premisas,
llegan a conclusiones mediante una programación lógica
expresada con un lenguaje capaz de realizar operaciones
automáticas a partir de dicho conocimiento preliminar
(Sartor, 2016, pág. 133). Es comprensible, sin embargo,
que la fiabilidad de estas decisiones dependa, por un lado,
de la fiabilidad de las premisas, es decir, de la database
utilizada y, por otro lado, del procedimiento utilizado.
7
Los métodos actualmente utilizados no buscan –como en
el pasado con resultados decepcionantes (Clément, 2018,
pág. 104; Ferrié, 2018, pág. 498)–reproducir con precisión,
es decir, replicar, el funcionamiento del pensamiento hu-
mano, sino que se definen como sistemas expertos basa-
dos en el conocimiento (knowledge-based systems o KBS)
porque utilizan, precisamente, el conocimiento basado en
el dominio relativo, con el objetivo de resolver problemas
que suelen requerir la competencia específica de una per-
6. El algoritmo, por tanto, debe tener las características de finitud (conducir a la solución en un número definido de pasos), generalidad
(resolver una clase de problemas y no solo uno), univocidad (la ejecución de las operaciones debe tener lugar siempre de la misma manera,
independientemente de la ejecución material) y repetibilidad (dadas las mismas input, debe proporcionar las mismas output). Para una
exhaustiva definición técnica de algoritmo, remitimos a Sipser (2013, págs. 191). En la literatura teórico-jurídica, véase Cossutta (2003,
pág. 110).
7. En general, Hart (1988, pág. 13); con referencia al «razonamiento» jurídico, Lucatuorto (2006, pág. 222): «la eficiencia de un sistema experto
depende del volumen de conocimiento almacenado en la aplicación y que consta no solo de hechos simples (el llamado conocimiento
declarativo), sino también de procedimientos de solución (el llamado conocimiento procedimental)».
8. Muchos años atrás, Feigenbaum (1977) definió un sistema experto como un programa para calcular que utiliza conocimiento y técnicas
de razonamiento para resolver problemas que normalmente requerirían la ayuda de un experto.
9. En el ámbito del sistema penal, esta necesidad de «transparencia» del razonamiento de la IA está relacionada con las garantías del debido
proceso: sobre este tema, véase Rizer y Watney (2018). Si no es posible reconocer los motivos de la decisión elaborada, la confianza en el
ordenamiento jurídico y su observancia se verán comprometidas: cfr. Tegmark (2017). Además, la necesidad de satisfacer tales exigencias
de transparencia es imprescindible a la luz del derecho a impugnar las decisiones: sobre este argumento y sobre el impacto de la IA en los
derechos fundamentales, véase el informe de la agencia de la Unión Europea para los derechos fundamentales (2020, pág. 13), disponible
en: https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights.
10. Las investigaciones han demostrado que el funcionamiento de estos algoritmos no se basa en la creación y explicación de las causas y
los efectos de un fenómeno, sino en el modelo puramente estadístico. El software, por tanto, sigue siendo una black box, una caja donde
la información interactúa sin poder entender por qué se alcanza un determinado resultado, un camino que, sin embargo, es el inverso al
que utiliza la mente humana en un proceso: «In traditional criminal investigations, police “move data to the question.” They may want
to know, say, who killed X or who stole from Y. So, they gather evidence, moving data to the specific question at issue. Big data analysis
does the opposite: store everything, and then “move the question to the data”» (Henderson, 2018, pág. 532).
11. Es necesario recordar que los estudios sobre legal semantic web han obtenido recientemente resultados relevantes también en lo que
respecta al razonamiento automático o no monótono sobre las normas, por lo que desarrolla las llamadas ontologías jurídicas, es decir,
sistemas de representación del conocimiento basados en los standard y en los criterios del semantic web capaces de captar diversos
aspectos del conocimiento jurídico: desde conceptos fundamentales, incluidos los deónticos, hasta conceptos específicos de los tipos
de dominio. Sobre este tema, remitimos, con más referencias bibliográficas extensas, a Francesconi (2020, pág. 5 ss.). Recientemente,
también Del Gamba (2020, cap.
XII
).
sona experta.
8
El objetivo principal de un sistema experto
es proporcionar las mismas respuestas que ofrecería una
persona experta, aunque siguiendo un método diferente.
El sistema, por otro lado, también debería poder explicar
las decisiones tomadas y la lógica detrás de estas.
9
Además, en los últimos tiempos, la inteligencia artificial
ha mostrado un cambio en el paradigma operativo de los
algoritmos, que ahora no se limitan a deducir de forma de-
terminista las consecuencias de los axiomas predetermi-
nados por el programador, en cambio, mediante sistemas
de aprendizaje automático (machine learning), producen
los criterios de inferencia que, sin embargo, siguen siendo
en gran parte desconocidos incluso para los propios pro-
gramadores.
10
La referencia es a las denominadas redes
neuronales, que son capaces de autocorregirse, derivando
modelos de big data y operando a través de aquellos pro-
cedimientos analógicos que caracterizan el razonamiento
humano y, en particular, el interpretativo (Di Giovine, 2020,
págs. 952-953). «Por otro lado, estos algoritmos predicti-
vos no están construidos para responder la pregunta de
por qué sucederá una determinada cosa, sino solo para
indicar con la mayor precisión posible la probabilidad de
que esta suceda» (Simoncini, 2020, pág. 53).
11
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
5
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
En el ámbito jurídico, por tanto, se puede decir que el
arquetipo de decisión automatizada que se contempla
actualmente no busca imitar el proceso mental que lleva
a cabo el intérprete (Taruffo, 1998, págs. 316-317),
12
sino
que, a partir de correlaciones entre palabras y otros
parámetros, elabora modelos derivados de precedentes
jurisprudenciales para definir propensiones decisionales
capaces de resolver el caso concreto (Rouviére, 2018, pág.
530; Godefroy, 2018, págs. 1979-1985).
13
Este proceso de automatización pasa por varios steps de
artificialidad del razonamiento jurídico.
14
lgunos productos,
ya en el mercado, proporcionan herramientas de investiga-
ción jurisprudencial muy avanzadas, capaces de delinear
la probable orientación del juez.
15
Otras herramientas,
desarrolladas principalmente en el campo académico,
tienden en cambio a construir un software real de toma de
12. Taruffo ha puesto en evidencia las dificultades de insertar el razonamiento jurídico en los modelos predefinidos: «If one considers the
evident features of complexity, variability, flexibility and discretion that are typical of judicial decisions, any approach aimed at interpreting
the judicial reasoning according to logical rules and models may appear as doomed to failure. In fact, the history of the logical theories of
judicial reasoning is largely a history of misunderstandings, errors, manipulations and defeats. […] On the one hand, one may observe that the
main attempts to “computerize” the reasoning of the judge were so rough, and unable to interpret the complex nature of decision-making,
that they could not succeed in producing reliable models of the judge’s reasoning. These attempts, one might add, are a good proof of the
impossibility of interpreting such a reasoning in terms of AI. On the other hand, one may consider that the decision-making procedure is
so complex, variable, uncertain, fuzzy and value-laden, that it could never be reduced to logical models. Any logical model, one might say,
would necessarily leave aside important features of the decision-making reasoning that cannot be reduced to logical forms. Therefore,
such a model would be basically false as a description and inappropriate as a prescriptive model for judges».
13. Para una reseña de los distintos softwares desarrollados en beneficio de los sistemas legales, hasta el «Luima» que parece permitir el
discernimiento entre cuestiones de hecho y de derecho extrapolando «reglas» de diversos documentos y textos legales y, por tanto, no
solo de precedentes jurisprudenciales, remitimos a Ashley (2017, pág. 313).
14. Sobre la sutil distinción entre algoritmos para apoyar al juez y algoritmos que sugieren una decisión, véase Rulli (2018, pág. 537).
15. En Estados Unidos se puede hacer referencia al sistema Watson/Ross de IBM. En Francia, se recuerda el software Predictice en materia
civil, que cuenta con el análisis en un segundo de millones de medidas jurisprudenciales y en el que la base de datos está constituida
no solo por los artículos de la ley, sino también por las decisiones de los tribunales de apelación y de la Corte de Casación. Tras la
aprobación de la ley sobre la République numérique de 6 de octubre de 2016, Francia, en Europa, es el país donde se desarrolla el debate
sobre la denominada «justicia predictiva». En efecto, para garantizar una mayor transparencia en el trabajo de los tribunales y de las
Cortes, la Administración debe poner a disposición online todas las decisiones judiciales tomadas en territorio francés, que ascienden
aproximadamente a 3 millones por año. Esto ha llevado a la creación de una enorme base de datos Open Access, que está impulsando la
creación de software capaz de explotar comercialmente la información.
16. La referencia prioritaria es el algoritmo desarrollado en 2016 por un equipo de investigación de la University College de Londres, capaz
de ofrecer predicciones altamente fiables sobre el posible desenlace de las disputas ante el Tribunal Europeo de Derechos Humanos. El
algoritmo, tomando en consideración la jurisprudencia del Tribunal (584 decisiones), se ha considerado idóneo para evaluar la violación
o no de los artículos 3, 6 y 8 de la Convención en nuevos casos concretos puestos en conocimiento de este, con un margen de éxito de
hasta el 79 %. Cfr. Aletras, Tsaraptsanis, Preotiuc-Pietro y Lampos (2016). Sobre el tema, también Medvedeva, Vols y Wieling (2019, págs.
237). Otro ejemplo podría ser el del software denominado Case Crunch Alpha (www.case-crunch.com), desarrollado por estudiantes de
derecho de la Universidad de Cambridge, que ha «desafiado» a cien de los mejores juristas en la predicción de soluciones a controversias
ante el Financial Ombudsman, hasta ganar la competencia, ya que de 750 casos predijo correctamente el 88,6 %, frente al 62,3 % de
los expertos de carne y hueso.
17. Por ejemplo, siempre en Francia, Doctrine.fr e JurisData Analytics, definidos como search engine en la European Etical Charter on the use
of Artificial Intelligence in judicial systems and their environment, pág. 18, adoptada el 3-4 diciembre de 2018 por la European Commission
for the Efficiency of Justice (CEPEJ), disponible en: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c
decisiones potencialmente capaz de calcular el resultado
de una controversia y, por lo tanto, de reemplazar al juez.
16
A diferencia de los tradicionales motores de búsqueda,
también muy avanzados,
17
los primeros son capaces de
«comprender el lenguaje humano», de identificar las co-
rrelaciones entre las palabras para derivar su significado,
de hacer conexiones lógicas y de proponer soluciones con
la probabilidad de éxito en el litigio (Castelli y Piana, 2018,
págs. 156-157; Gabellini, 2019, págs. 1307-1309). Los deno-
minados software decisionales, por otro lado, aprovechan
los progresos en la elaboración del lenguaje natural y en
el aprendizaje automático, elaborando estadísticamente
algunos grupos lexicales de palabras en las sentencias para
verificar la frecuencia, pero no son capaces de identificar
las razones de una decisión o de realizar un real y propio
análisis jurídico. En definitiva, el llamado algoritmo de razo-
namiento no puede desarrollar una argumentación jurídica
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
6
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
como lo hace la mente humana, sino que solo podría reem-
plazar al juez en la preparación de una decisión basada en
la elaboración de precedentes jurisprudenciales. También
es evidente que el aprendizaje y el análisis automático del
«hecho» objeto de un proceso son más precisos que los
relativos al «derecho», es decir, al razonamiento jurídico.
Quienes han estudiado el tema, en efecto, observan que
«judge primarily reacts to the fact of the case, rather than
to legal arguments».
18
El éxito en Estados Unidos del software Compas para el
cálculo de la reincidencia, también apoyado por la juris-
prudencia,
19
es un ejemplo concreto de la mayor compati-
bilidad de los expert systems con los hechos y menos con
el derecho. Más allá de las dudas sobre su efectiva capaci-
dad predictiva, muy controvertida (Skeem y Eno Louden,
2007), dejando también de lado las fuertes dudas sobre su
legitimidad por los riesgos de discriminación
20
y el secreto
de los criterios que regulan su funcionamiento (Kehl, Guo
y Kessler, 2017), este sistema se ocupa de la predicción de
hechos futuros (la realización de delitos) a partir de hechos
pasados (antecedentes penales, estilos de vida, personali-
dades y actitudes, familia, exclusión social, etc.), por tanto,
condiciones que no incumben a la argumentación jurídica o
que le interesan solo marginalmente.
21
La doctrina española es profusa en el estudio y crítica
de la citada decisión del caso Wisconsin vs. Loomis, en la
18. Cfr. Aletras, Tsarapatsanis, Preotiuc-Pietro y Lampos (2016): «Our empirical analysis indicates that the formal facts of a case are the most
important predictive factor. This is consistent with the theory of legal realism suggesting that judicial decision-making is significantly
affected by the stimulus of the facts».
19. El sistema Compas (Correctional Offenders Managment Profilying for Alternative Sanctions) realiza un análisis estadístico basado en 137
indicadores clave que derivan de la información obtenida mediante una entrevista con el imputado y los datos judiciales relacionados con
este, comparados con los estadísticos de muestras poblacionales. Los derechos y las licencias para explotar el software son propiedad
de una empresa y, por lo tanto, los criterios utilizados por el algoritmo están cubiertos por el secreto comercial. La Corte Suprema de
Wisconsin sostuvo que el uso de este software no afecta al derecho a un juicio justo; cfr. State of Wisconsin vs. Eric L. Loomis, 881 N.W.2d,
749 (Wis. 2016), disponible en: www.courts.ca.gov/documents/BTB24-2L-3.pdf. En veinte años, el software Compas ha sido utilizado en
más de un millón de casos, como ha sido estimado por Dressel y Farid (2018, pág. 1).
20. El peligro de tomar decisiones discriminatorias es alto, aunque parece que los algoritmos para estimar el riesgo de reincidencia están
programados para evitar influencias de raza o nivel socioeconómico. Consúltese, por ejemplo, Iowa Risk Revised (IRR), que utiliza el
trabajo, el estado de la vivienda y los delitos previos como factores inevitablemente influidos por la raza. En la doctrina estadounidense,
recientemente Villasenor y Foggo (2020, págs. 295-332). Más en general, véanse Rizer y Watney (2018, págs. 210-213) y Huq (2019, págs.
1043-1055). También O’Neil (2016, págs. 14, 40, 162), según el cual los algoritmos podrían reproducir y multiplicar los errores de los
jueces en el proceso penal, porque, por un lado, sigue siendo un ser humano quien los procesa y, por otro, el big data replica las mismas
desigualdades del pasado, codificando las reglas y los errores de las experiencias pasadas, en lugar de inventar un nuevo futuro libre de
errores o al menos mitigado en su medida.
21. Sobre el sistema Compas y sus numerosos perfiles problemáticos, en Italia más recientemente, entre muchos, véanse Basile (2019, pág.
19), Quattrocolo (2019, pág. 142), Gialuz (2019, pág. 5) y Donati (2020, pág. 421).
22. Sobre las otras áreas posibles de impacto de la IA en el sistema penal, remitimos a la exhaustiva panorámica de Basile (2021).
que se aplicó el algoritmo Compas sin que, en paralelo,
se garantizaran las obligaciones de información y trans-
parencia, al menos, explicabilidad, del código (De Miguel
Beriain y Pérez Estrada, 2019, págs. 546-549; Martínez
Garay, 2018, pág. 499; Simón Castellano, 2021a, págs.
136-137). Se ha llegado a afirmar que, desde la óptica de
los derechos fundamentales, los tribunales no pueden
admitir valoraciones de riesgo realizadas con algoritmos
o sistemas de inteligencia jurídica artificial secretos, y
mucho menos si son propiedad de empresas privadas que
consideran los códigos algorítmicos secretos de empresa
(Simón Castellano, 2021a, pág. 171). La falta de una regula-
ción expresa y el marco normativo atomizado no ayudan
a encontrar respuestas homogéneas para toda Europa
(Simón Castellano, 2021b).
Estas herramientas para la valoración del riesgo vincula-
das a los procesos de sentencing sí pueden brindar apoyo
al juez en la aplicación de la ley, especialmente en aquellos
casos en los que hay que valorar el nivel residual de riesgo
(medidas cautelares personales o libertad condicional,
entre otros), pero hay que encontrar un equilibrio y medir
el grado de compatibilidad con los principios propios del
derecho penal.
22
De nuevo, la doctrina española ha puesto
el foco sobre consideraciones sustantivas y éticas rela-
cionadas con garantías y derechos fundamentales (Miró
Llinares, 2018, págs. 120-130; Nieva Fenoll, 2018, págs. 131 y
ss., en lo relativo a independencia e imparcialidad judicial,
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
7
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
y págs. 150 y ss. en lo referente a la intimidad; Valls Prieto,
2017), hasta llegar a explorar las garantías –explicabilidad,
trazabilidad, auditabilidad, jurisdiccionalidad por defecto
y en el diseño, así como las vinculadas al órgano de crea-
ción, implementación y mejora continua del algoritmo,
etc., relativas a los sistemas de inteligencia jurídica artifi-
cial para la valoración del riesgo (Simón Castellano, 2021a,
págs. 161-225).
3. La «factualización» cibernética del
derecho
A la luz de lo escrito hasta ahora, el posible uso de la inteli-
gencia artificial en el mundo del derecho parece destinado
a reforzar el valor asumido de los precedentes jurispru-
denciales. Es bastante evidente que esto parece menos
problemático en los sistemas de common law, cosa distinta
debería ocurrir en los de civil law, en los que el juez debería
estar sujeto únicamente a la ley según el principio de estric-
ta legalidad, por cierto, cada vez más discutido por el valor
que han asumido en la práctica los precedentes judiciales.
23
En efecto, el problema ha surgido en sistemas de civil law en
los que el uso de la IA está más desarrollado, por ejemplo,
en Francia,
24
aunque quizás en términos menos llamativos
teniendo en cuenta que el software ahí desarrollado opera
en el ámbito civil. En el escenario francés, la doctrina ha
hablado de factualisation du droit: el algoritmo, en efecto,
procesa los hechos y argumentos jurídicos de la misma ma-
nera, estandarizándolos como datos informáticos homogé-
neos útiles para el cálculo (Croze, 2017, pág. 101; Jeuland,
2017; Cholet, 2018, pág. 233). La ley se convierte así en un
mero dato entre muchos y todo hecho considerado por el
algoritmo, como el precedente jurisprudencial, se convierte
en una fuente legal, legítima o no.
23. Sobre el tema, entre tantos otros, Ferrajoli (2001, pág. 44) y Caterini (2012, pág. 99).
24. V. supra notas 15 y 17.
25. En el sentido de la indistinguibilidad del hecho del derecho, aunque con distintos acentos, entre muchos otros, Ubertis (1979, pág. 25),
Mazzarese (1992, pág. 294) y Vogliotti (2007, pág. 54). En sentido contrario, Barberis (2005, pág. 233).
26. Sobre la naturaleza circular o espiral de la valoración judicial, véanse las obras ahora clásicas de Hassemer (1968-2007) y de Esser (1972).
En Italia, Taruffo (1989, pág. 321), Barberis (1990, pág. 257) y Zaccaria (1998, pág. 155).
27. Ya Kelsen (1966, pág. 12) colocó las bases para la superación del silogismo judicial a través de la absorción de la questio facti en la questio
iuris. Con la feliz expresión de Papa (2020, pág. 86), se podría decir una «amplitud creativa» entre hecho y derecho que se consuma en
la decisión del juez-hombre.
28. «En derecho, la inteligencia artificial nunca podrá vivir en el presente. Ésta siempre atribuirá sentido a los acontecimientos históricos
según un mecanismo de reminiscencia». Cfr. Papa (2020, pág. 86).
Esta «factualización» informatizada del derecho parece
recordar la teoría según la cual quaestio facti y quaestio
iuris no son discernibles, ni teórica ni prácticamente.
25
En realidad, a diferencia del modelo robótico, esta tesis
rechaza el mito del juez bouche de la loi: la interpretación
es vista como una operación cognitiva unitaria que pone
en contexto homogéneo tanto la reconstrucción del hecho
como su calificación jurídica. Para identificar la quaestio
facti, según esta doctrina, es necesario hacer una selec-
ción del hecho a partir de su contextualización jurídica
(Irti, 2017, pág. 21), mientras que el reconocimiento del
derecho implica siempre un juicio basado también en el
hecho, porque el primero no se refiere a una norma des-
vinculada del segundo. La norma adquiere sentido porque
se refiere al caso concreto, con un vínculo indisoluble
entre el hecho tal como fue obtenido a la luz de la norma
y la propia norma tal como ha sido interpretada a la luz del
hecho (Ubertis, 1979, pág. 70).
26
De esta forma, mientras
que la doctrina propone la incorporación del hecho al de-
recho,
27
la factualización informatizada de la ley prefigura
la operación inversa: la ley se convierte en uno de los
tantos hechos considerados por el algoritmo, siendo así
esta incorporada en el hecho.
Todo esto determinaría una mutación genética del ius
dicere. Los algoritmos, en efecto, actualmente no parecen
ser capaces de buscar, identificar e interpretar la norma
aplicable según el tradicional principio iura novit curia,
pero agotan su supuesto «juzgar» en el mero recurso a
los precedentes jurisprudenciales.
28
Una solución de este
tipo, al fin y al cabo, sería menos incoherente con aque-
lla tendencia a simplificar la motivación de la sentencia
mediante el fortalecimiento del rol de los precedentes
jurisprudenciales, que se originó en el sistema civil y que
no ha dejado de encontrar espacio también en el derecho
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
8
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
penal.
29
Por otro lado, si esta tendencia se implemen-
tara e integrara mediante un sistema experto en IA, las
garantías vinculadas a la motivación de la sentencia se
eludirían aún más.
30
En los ordenamientos jurídicos de ius
civile, en efecto, decidir sobre todo significa motivar, de
manera dialéctica, y no puede agotarse en la aplicación de
precedentes jurisprudenciales según una lógica binaria.
La interpretación jurídica casi siempre implica la elección
entre hipótesis alternativas, explicando las razones de
esta preferencia (Irti, 2016, págs. 84-85; Contento, 2004,
pág. 69; Guastini, 1995, pág. 19), sin que ello encuentre
importantes posibilidades de subrogación con la aparente
objetividad mecánica de un algoritmo que no puede dar
tal explicación (Bichi, 2018, págs. 223-225).
4. La implementación algorítmica de
la regla de la lenidad
Se ha dicho que la interpretación jurídica casi siempre admite
varias opciones plausibles, siempre que todas estén funda-
mentadas racionalmente. Ante diversos resultados herme-
néuticos posibles, el algoritmo podría elegir según el criterio
de «más probable que no», parámetro estadístico que, entre
los precedentes jurisprudenciales, favorece y selecciona la
orientación más consolidada por ser más frecuente.
Se ha clarificado, en efecto, que la IA proporciona herra-
mientas basadas en un enfoque estadístico también con
capacidades avanzadas de cálculo y autoaprendizaje,
capaces de captar diversas correlaciones entre la infor-
mación y de proporcionar rápidamente una respuesta.
Funcionando de esta manera, los algoritmos serían útiles
29. En el sistema civil italiano, en los nuevos arts. 281 sexies c.p.c., 360 bis c.p.c. y 118 co. 1, disp. att. c.p.c., y en el sistema penal en los arts.
544, co. 1 c.p.p., 610, co. 1 c.p.p. y 618, co. 1 bis, c.p.p. Sobre el tema general de la vincularidad del precedente, entre tantos, remitimos a
Manes (2018, pág. 2222) y Donini (2018, pág. 79).
30. Escéptica del funcionamiento real de estas garantías, Di Giovine (2020, págs. 960-961).
31. Sobre los criterios que se utilizan hoy en día para establecer cuándo una orientación puede definirse como consolidada o de «derecho
viviente», recientemente remitimos a Perrone (2019, pág. 75).
32. Es famoso, en efecto, que, al menos en cuanto al estándar probatorio del hecho, el sistema penal se diferencia del civil en que el primero
se basa en el criterio de «más allá de toda duda razonable» y el segundo en el de «más probable que no». Sobre estas distinciones, en
los manuales se remite a Tonini (2010, pág. 238). En la jurisprudencia, cfr. Cass. pen., 20 junio 2013, n. 37373, en Dir. giust., online, 13 de
septiembre de 2013. En la jurisprudencia estadounidense, sin embargo, ha habido sentencias desde hace algún tiempo en las que se ha
expresado reticencia a reconocer la utilidad de dos estándares probatorios diferentes, cuya elección varía según la naturaleza del proceso:
en este punto, remitimos a Underwood (1977, pág. 1299).
33. Véase Caterini (2012, pág. 99; 2016, pág. 509; 2017a, pág. 163).
34. Para una exposición concisa de las principales criticidades constitucionales del juicio robótico, véase Donati (2020, pág. 428).
para calcular rigurosamente la orientación jurisprudencial
más robusta en términos puramente frecuentistas, cuya
identificación hoy se confía a la intuición del juez.
31
Por
otro lado, permitir que el algoritmo basado en preceden-
tes judiciales opere de acuerdo con la regla «más probable
que no», en nuestra opinión, generaría más problemas,
especialmente en el derecho penal.
32
En realidad, entre
las diversas opciones interpretativas, todas plausibles, la
elección entre ellas no debe hacerse según una convic-
ción excesivamente libre del juez como intuición acrítica,
ni debería depender de las operaciones estadísticas de
la IA. Nuestras investigaciones anteriores, de hecho, han
esbozado una posible vía de superar la excesiva discre-
cionalidad del juez penal, una discreción que a menudo
ha permitido que el derecho jurisprudencial dé lugar a
decisiones que son esencialmente de política criminal, o
bien éticas o ideológicas.
33
Tal vía también podría encon-
trar una implementación en el llamado juicio robótico –
precisamente con respecto a la inidoneidad del criterio de
«más probabilidades que no»– para intentar remediar al
menos las fricciones más llamativas con ciertos principios
fundamentales del derecho penal.
34
Partiendo de una interpretación que se ajusta a los
principios fundamentales del derecho penal, esta tesis
tiene dos momentos esenciales. El primero se refiere a
la solución hermenéutica más favorable al imputado que
el juez debe elegir entre las diversas opciones plausibles
(Ronco, 2006, pág. 80; Cadoppi, 2016, pág. 147). Una
elección exegética unívoca –similar a la rule of lenity del
sistema estadounidense– que también debería contribuir
a una mayor certeza del derecho, entendida como la po-
sibilidad de pronosticar resultados interpretativos y no
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
9
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
como una mera vis expansiva del poder punitivo.
35
Desde
este punto de vista, el favor rei se considera un principio
útil para resolver incluso dudas interpretativas (Ferrajoli,
2000, págs. 81-83), que si bien encuentra su origen «por
la inducción generalizada» (Irti, 2017, pág. 24), en axiomas
constitucionales y cartas supranacionales, sería mejor si
fuera específicamente sancionado en una ley como regla
hermenéutica capaz de vincular más estrechamente al
juez, ya sea humano o mecánico.
36
El segundo momento de la tesis se refiere a sus aspectos
procedimentales y está íntimamente relacionado con el pri-
mero. En efecto, dado que el delito es aquel hecho corres-
pondiente a un tipo penal y constatado de acuerdo con las
reglas del proceso penal justo, es evidente que estas reglas
contribuyen a la determinación del delito en sí. De ser así, la
regla de interpretación favorable debe combinarse, desde
el punto de vista procesal, con la obligación de motivar la
decisión perjudicial indicando las razones que han llevado
a optar por una interpretación más desfavorable en lugar
de otra más ventajosa para el «imputado». Esta carga, más
precisamente, no debería cumplirse con la mera exposición
de las razones que sustentan la plausibilidad de la opción
hermenéutica elegida (Jellema, 2020, pág. 2).
37
A esta pars
Costrens de la motivación se debería agregar una des-
truens, de refutación, es decir, la explicación de las razones
35. En el ordenamiento estadounidense, la idea de una interpretación favorable que aquí se propone corresponde en muchos aspectos a
la rule of lenity. En caso de ambigüedad de la ley, en efecto, esta regla favorece la interpretación más benévola para el imputado. Las
razones de esta doctrina, cuyo origen es judicial, residen en los principios de legalidad y en la separación de poderes que, a través de esta
norma, se sostiene que puedan ser respetados con mayor precisión. Sobre los orígenes de la regla de la «lenidad», sobre su fundamento
constitucional y sobre las aplicaciones jurisprudenciales concretas, entre otros, véanse Scalia (2018), Scalia y Garner (2012), Price (2004,
págs. 885-942), Solan (1998, pág. 57), Hopwood (2017, págs. 695-750), Karkkainen (1994, pág. 401) y Popkin (1993, pág. 865). En sentido
crítico, Jeffries Jr. (1985, pág. 189, esp. 199-200).
36. Para obtener más información sobre esta tesis, también en relación con referencias sucesivas, nos remitimos a trabajos publicados en
otros foros, por ejemplo, Caterini (2016, pág. 509; 2017a, pág. 163).
37. «Guilt is only established BARD if (1) the best guilt explanation in a case is substantially more plausible than any innocence explanation,
and (2) there is no good reason to presume that we have overlooked evidence or alternative explanations that could realistically have
exonerated the defendant».
38. Este modelo obviamente excedería la motivación implícita admitida en la jurisprudencia italiana, según la cual, de hecho, la motivación
no falta si la sentencia carece de una refutación explícita de una deducción defensiva, si en cualquier caso el juez ha dado cuenta de las
razones de derecho que sustentan su convicción, ya que las que indiquen lo contrario deben considerarse implícitamente ignoradas,. Cfr.,
ex multis, Ca, 23 de junio de 2011 n. 27741, en Guid. dir., 2011, pág. 95. Hoy, sin embargo, parece militar hacia la necesidad de la confutación
la nueva formulación del artículo 546 c.p.p. Sobre este último aspecto, cfr. Caterini (2019, pág. 333).
39. La tesis a la que nos referimos evoca la doctrina del llamado probabilismo en la teología moral de los siglos XVI-XIX, que, frente al legismo
más rígido, tendía a equilibrar entre una laxitud destinada a dar protagonismo a la menor duda capaz de liberar al hombre de cualquier
vínculo moral, y un tuziorismo que resultaba demasiado riguroso cuando negó relevancia a diferentes opiniones «razonables». Sobre
este tema, remitimos a Caterini (2021).
40. «Si frente a una norma de ley, la Casación, incluso en secciones simples, puede implementar una interpretación de la norma con
carácter absolutorio, salvo que esa interpretación no sea el resultado de un clamoroso error judicial, o incluso de hipótesis de ciencia
ficción de mala fe de algún juez, esto significa que esa interpretación aún debe considerarse plausible. Quizá no sea necesariamente la
mejor interpretación, siempre que exista la mejor interpretación, pero, sin embargo, es una interpretación plausible».
por las que el juez considera inverosímil o ilógica la opción
interpretativa más favorable y, solo por tal, da excluir.
38
Para
inducir a la elección de la opción interpretativa más favora-
ble al imputado, por tanto, no sería necesario que esta sea
la única «justa», pero bastaría con que esta interpretación
sea una de las plausibles, excluyendo únicamente las que
son meramente capciosas y sin algún valor hermenéuti-
co.
39
Por tanto, en un escenario culturalmente pluralista
caracterizado por soluciones relativizadas, la decisión no
debe basarse en una mera opinión, sino en un argumento
racionalmente fundado, en una doctrina o jurisprudencia
calificada, aunque no necesariamente indiscutida (Donini,
2010, pág. 1089). Básicamente, sobre un «conflicto de razo-
nes» (Irti, 2016, pág. 123).
Además de una orientación doctrinal seria, que podría
ser catalogada e informatizada, este procedimiento lógico
podría basarse más fácilmente en los precedentes, por
ejemplo, de la Corte Suprema, útiles para demostrar la no
implausibilidad de una interpretación favorable (Cadoppi,
2016, pág. 147).
40
Esta podría ser una forma de integrar el
papel del precedente jurisprudencial con el principio del
favor rei: una especie de carácter vinculante relativo del
precedente si es in bonam partem, especialmente si pro-
viene de la Corte Suprema (Caterini, 2012, pág. 118). Ac-
tualmente, de hecho, son muchos los factores que impul-
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
10
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
san «hacia una menor “obsesión” por la ley escrita como
referente exclusivo del nullum crimen, y hacia un mayor
reconocimiento del precedente jurisprudencial como uno
de los factores capaces de generar el derecho» (Cadoppi,
2012, pág. 97). En nuestra opinión, además, es necesario
buscar soluciones en las que esta law in action, si acaso,
produzca sus efectos solo si es favorable al imputado. Por
tanto, una especie de «creación» de la norma a través del
precedente judicial, siempre que sea in bonam partem.
41
El principio in dubio pro reo, que se deriva del favor rei, de-
bería, por tanto, no solo aplicarse en la determinación del
hecho, sino también extenderse a la duda interpretativa
razonable (Caterini, 2017b, pág. 507). Por lo tanto, no se
debería aplicar la regla diferente del «más probable que
no», que permite elegir, entre varias interpretaciones, la
que se considera más justa o – en la perspectiva estadís-
tica de un knowledge-based system – la calculada como
la más consolidada en la jurisprudencia.
42
Si no puede
excluirse la plausibilidad del precedente más favorable al
imputado, entonces se debería aplicar el criterio diferente
de «más allá de toda duda razonable», de acuerdo con el
paradigma del in dubio interpretatio pro reo.
Conclusiones
Intentando tirar de los hilos del discurso, en un futuro
juicio robótico que involucre cuestiones de derecho, sería
41. Sobre las réplicas a la previsible objeción relativa al contraste de la tesis expuesta con el principio de estricta legalidad, remitimos a
Caterini (2017c, pág. 277).
42. Fue bien observado –además desde el propio entorno judicial francés– que «un sistema de justicia digital a priori basado en la jurisprudencia
dominante, sobre el “cuantitativismo” judicial, no es aceptable». Cfr. Gaboriau (2018, pág. 209), que nuevamente destaca que la supremacía
cuantitativa del anterior atenta contra la independencia del juez y su deber de imparcialidad, «pues la parte a la que la jurisprudencia no
es favorable se encuentra en una posición de inferioridad institucional».
43. En Italia se señalan tres trabajos monográficos de juristas destinados a proponer modelos matemáticos aplicados al derecho: Asaro
(2013), Viola (2018), con particular referencia al sistema civil, y Versiglioni (2020), con específicos referimientos al derecho tributario.
44. Es conocido, en cambio, que, por ejemplo, en el sistema civil el juez no puede limitarse al non liquet, debiendo en cambio decidir a favor
de una u otra parte, incluso en el caso de lagunas en el ordenamiento que por esta razón está integrado con fuentes y herramientas
hermenéuticas, como la analogía, tradicionalmente ajenas al derecho penal, al menos en apariencia. El juez civil, en efecto, incluso en el
caso de incertidumbre o confusión de las normas, aún debe decidir sin poder invocar un principio general que, como en el derecho penal,
lo oriente en la decisión. Sobre el tema, Taruffo (2001, pág. 11).
45. Para una eficaz síntesis de las principales ventajas y obstáculos en el uso del machine learning en materia penal, véase Di Giovine (2020,
pág. 953).
46. El uso de la lógica jurídica por los jueces, para el iusrealismo, es solo declarativo, pero no practicado. Entonces, para entender las verdaderas
fuerzas creativas del derecho, necesitamos mirar a lo que los jueces «hacen» en la realidad y no a lo que «dicen» con las sentencias,
tanto es así que se dice que «si tengo que elegir alguien en quien no confío, yo personalmente elijo al juez» (Luciani, 2019, pág. 95).
Sobre el escepticismo interpretativo, entre otros, Troper (1999, pág. 476). Además, la alta incidencia de errores judiciales debidos a sesgos
heurísticos y bias cognitivos de la mente humana constituyen una premisa importante para intentar justificar el uso de algoritmos en
derecho; cfr. Nieva-Fenoll (2019, pág. 31).
necesario distinguir los postulados axiológicos de fun-
cionamiento sobre la base de la naturaleza penal o no.
43
Esto se debe a que lo que se dirá ahora podría ser válido
solo para el sistema penal, al que se refieren los principios
del favor rei y el de más allá de toda duda razonable.
44
A
este primer y parcial resultado no parece un obstáculo la
consideración según la cual el estándar del «más allá de
toda duda razonable» sea un criterio tradicionalmente uti-
lizado para constatar el hecho y no para interpretar la ley.
Más allá de los argumentos mencionados anteriormente,
se puede recordar, entre otras, que, según el artículo 6 de
la Directiva europea 2016/343/UE: «cualquier duda sobre
la culpabilidad debe resolverse en favor del imputado». Un
concepto tan amplio de duda recae sobre cualquier forma
de culpabilidad, que por lo tanto también parece incluir la
duda sobre la interpretación de la ley (Caterini, 2019, pág.
330).
Dicho esto, dejando de lado los muchos otros problemas
derivados del posible uso de algoritmos en el sistema
penal,
45
ahora podemos intentar una conclusión sucinta
respecto a la pregunta de la que partimos: ¿es posible su-
perar los límites de la incerteza real de un sistema penal,
a través de una certeza «artificial»? Si bien los jueces,
en tanto seres humanos, no siempre o incluso raramente
proporcionan pruebas de una racionalidad jurídica apre-
ciable,
46
en este momento la alternativa proporcionada
por un juez robot futurista probablemente frustraría aún
más las garantías del individuo. Por otro lado, cierta in-
fluencia de la IA en el sistema judicial no parece tan lejana
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
11
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
e incluso jueces y abogados penalistas, tarde o temprano,
tendrán que lidiar con sistemas expertos de machine
learning.
47
Por tanto, sería una actitud superficial ignorar
o subestimar el tema, en lugar de parecer preferible abor-
dar el tema sin desconocer las competencias y principios
de la ciencia jurídica,
48
evitando así que las soluciones
cibernéticas sean políticamente rebajadas desde arriba o
impuestas de hecho por las big company del hi-tech, sin
una comparación cercana con algunos axiomas, en parti-
cular del derecho penal.
En este escenario, uno de los problemas de la aplicación
de la IA al proceso penal podría abordarse mediante la
implementación algorítmica del in dubio interpretatio pro
reo. El funcionamiento de un expert system basado en
precedentes jurisprudenciales, de hecho, podría operar
calculando una serie de opciones interpretativas entre
las que luego seleccionaría no la estadísticamente más
frecuente, sino la más favorable al imputado. De este
modo, se redimensionarían las tensiones con el principio
de estricta legalidad, entendido como un shield y no como
una sword,
49
que de otra manera se enfatizarían si el pre-
cedente judicial, y no la ley, fuera utilizado por el robot
para legitimar una sentencia más desfavorable.
50
47. Se piense, a modo de ejemplo, que el Committee of Experts on Internet Intermediaries del Consejo de Europa publicó en marzo de 2018,
el estudio Alghoritms and Human Rights, y que, en consideración de la «creciente importancia de la IA en la sociedad moderna» y los
«beneficios esperados una vez que sus potencialidades vengan aplicadas también al servicio de la eficacia y la calidad de la justicia»,
poco después, la Comisión Europea para la eficacia de la justicia (CEPEJ), instituida por el Comité de Ministros del Consejo de Europa, ha
adoptado la European Ethical Charter on the use of Artificial Intelligence in Judicial Systems and their environment (cit.). En este último
documento se expresan algunas reservas sobre la IA en el proceso penal, que además se limitan a posibles efectos discriminatorios: «In
criminal matters, their use must be considered with the greatest reservations in order to prevent discrimination based on sensitive data,
in conformità with the guarantees of a fair trial». Sobre el tema remitimos a Covelo de Abreu (2019, pág. 299).
48. Por una apertura al uso de la IA en el derecho penal, al menos para los llamados casos fáciles, véase Di Giovine (2020, pág. 962). M. Gialuz
(2019, pág. 21) evidencia la necesidad de una estrecha colaboración entre programadores y juristas.
49. Sobre la distinción de la legalidad como un «escudo», en contraposición a su declinación como una «espada», Fletcher (1998, pág. 206).
50. Son significativas las palabras de Garapon (2018, pág. 196): «Hoy, esto puede significar que la tecnología digital introduce una nueva
legalidad, en el sentido de que encuentra regularidades dentro del razonamiento del juez entre los elementos pre elegidos y las decisiones
tomadas. Esto permite el establecimiento de correlaciones, que se vuelven vinculantes en la práctica, incluso si no corresponden a la
aplicación de la ley».
51. Esta solución no parece incoherente con los principios expresados en el Reglamento 2016/679/UE, de 27 de abril de 2016, relativo a la
protección de las personas en lo que respecta al tratamiento de datos personales. El artículo 22, en efecto, establece que el interesado
tiene derecho a no ser sometido a una decisión basada únicamente en un tratamiento automatizado que produzca efectos jurídicos en
él, salvo, entre otras cosas, si existe su consentimiento expreso. Aun asumiendo que esta norma pudiera hipotéticamente encontrar
cumplimiento en un juicio penal, en el caso de un trato más favorable probablemente se otorgaría el consentimiento, mientras que en
caso contrario la decisión exclusivamente robótica se vería obstaculizada precisamente por su probable falta.
52. Kehl, Guo y Kessler (2017, pág. 34) colocan en evidencia que deben ser los decisorios políticos, más allá de las supuestas exigencias de
corrección técnica, los que deben dar prioridad a los valores que vienen en juego en el funcionamiento de los algoritmos.
53. Dado que el machine learning podría asegurar una mayor estabilización de la jurisprudencia, Di Giovine (2020, pág. 962) se cuestiona si
ello sería en verdad un efecto deseable.
54. Sobre la no exclusividad de la decisión robótica como principio de la legislación europea y, en muchos sentidos, también global, véase
Simoncini (2020, pág. 54).
Si, en el futuro, el decisor político quisiera introducir de
alguna manera el juicio robótico en el sistema penal, por
lo tanto, solo podría hacerlo en vista de una sentencia
absolutoria o más favorable que las otras posibles de-
bido a meros precedentes jurisprudenciales.
51
Por lo
tanto, se debería desarrollar un algoritmo que no solo
esté optimizado tecnológicamente, sino que también se
caracterice por orientaciones «políticas»
52
precisas. Des-
pués de todo, la filosofía ha enseñado que la tecnología
no es neutral, sino que hace política (Galimberti, 1999;
Severino, 2009). Naturalmente, todo lo anterior no debe-
ría implicar la exclusión del juez del proceso decisional,
sino un apoyo a este, una especie de mezcla entre huma-
nitas y techne (Carcaterra, 2019, pág. 33), propia de un
derecho penal «sinestésico» (Papa, 2020, pág. 86), útil
para reducir los tiempos de respuesta. De la autoridad
judicial, para mejorar la previsibilidad en la aplicación
de la ley y asegurar la uniformidad de las orientaciones
jurisprudenciales.
53
En esta dirección, de hecho, incluso
la European Ethical Charter on the Use of Artifial Intelli-
gence in Judicial System no tiende a reemplazar al juez,
sino a atribuir a la IA el rol de auxilio al magistrado.
54
En
nuestro caso, esta ayuda debería consistir en indicar al
juez la argumentación jurídica más favorable al imputado
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
12
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
que se puede obtener de los precedentes judiciales, lo
que sería una especie de default option.
Si el juez, para aliviar un poco su «fatiga de pensamient
(Carnelutti, 1949, pág. 41), quisiera adherirse a esta suge-
rencia cibernética, la carga de motivación se simplificaría,
pudiendo referirse al procesamiento algorítmico de los
precedentes judiciales. Si, por el contrario, el juez quisiera
optar por una opción hermenéutica más desfavorable que
la sugerida por el robot, entonces la carga motivacional
del juez debería reforzarse con esa pars destruens que
previamente definimos como refutativa.
55
La certeza del
derecho desde el punto de vista procesal debería ser el
fruto de una racionalidad discursiva y, por tanto, también
refutativa, capaz de oponerse a la supremacía de la tec-
nología.
56
En última instancia, en tales casos, el juez en la
motivación no podría limitarse a ilustrar solo las razones
útiles para demostrar la lógica de la interpretación más
desfavorable, sino que también debería explicar por qué
la opción interpretativa más favorable sugerida por el
knowledge-based system no es plausible. De hecho, como
ya se mencionó, una interpretación lógica de una norma
no excluye per se la racionalidad de una interpretación al-
ternativa. Esta solución aseguraría la mayor controlabili-
dad de la motivación del juez en aquellas ocasiones en las
que el principio de legalidad requiera mayores garantías
para el imputado, es decir, en caso de condena o sentencia
más desfavorable.
55. Sobre el derecho a la «explicación» de las decisiones generadas por la inteligencia artificial, recientemente Gacutan y Selvadurai (2020,
pág. 193).
56. La refencia es a la teoría discursiva del derecho de Habermas (2017).
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
13
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
Referencias bibliográficas
ALETRAS, N.; TSARAPATSANIS, D.; PREOTIUC-PIETRO, D.; LAMPOS, V. (2016). «Predicting judicial de-
cisions of the European Court of Human Rights: a Natural Language Processing perspective». En:
PeerJ Computer Science 2:e93 [en línea]. DOI: https://doi.org/10.7717/peerj-cs.93
ALLEN, R.J. (1980). «Structuring Jury Decision-making in Criminal Cases. A Unified Constitutional
Approach to Evidentiary Devices». En: Harvard Law Review, vol. 94, núm. 2, págs. 321-368. DOI:
https://doi.org/10.2307/1340583
ASARO, C. (2013). Ingegneria della conoscenza giuridica applicata al diritto penale. Roma: Aracne.
ASHLEY, K. (2017). Artificial Intelligence and Legal Analytics. New Tools for Law Practice in the Digital
Age. Cambridge: Cambridge University Pre. DOI https://doi.org/10.1017/9781316761380
BARBERIS, M. (1990). Il diritto come discorso e come comportamento. Turín: Giappichelli.
BARBERIS, M. (2005). Filosofia del diritto. Un’introduzione teorica. Turín: Giappichelli.
BASILE, F. (2019). «Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine». En:
Diritto penale e uomo, págs. 19-31 [en línea]. Disponible en: https://dirittopenaleuomo.org/wp-con-
tent/uploads/2019/09/IA-diritto-penale.pdf.
BASILE F., (2021). «Intelligenza artificiale e diritto penale: qualche aggiornamento e qualche nuova
riflessione». En.: BASILE F., CATERINI M., ROMANO S. (ed), Il sistema penale ai confini delle hard
sciences. Percorsi epistemiologici tra neuroscienze e intelligenza artificiale. Pisa: Pacini giuridica,
págs. 11-26
BECCARIA, C. (1780). Dei delitti e delle pene. París: Dal Molini, pág. 190
BICHI, R. (2018). «Carattere recessivo della legislazione e giurisprudenza normativa: i precedenti tra
ratio decidendi e legum inventores». En: CARLEO, A. (ed.), Il vincolo giudiziale del passato. Bolonia:
Il Mulino, págs. 205-225.
BORRUSO, R. (1997a). «Informatica giuridica». En: Enciclopedia del diritto. Agg. 1. Milán: Giuffrè.
BORRUSO, R. (1997b). La legge, il giudice, il computer. Milán: Giuffrè.
CADOPPI, A. (2012). «Il principio di legalità e i suoi corollari». En: CANESTRARI, S. et. Al. (ed.), Trattato
di diritto penale. Parte generale. Il diritto penale e la legge penale. Turín: Utet, págs. 87-97.
CADOPPI, A. (2016). «‘La legge è uguale per tutti’. Ripensare Beccaria oggi in tema di legalità, tra favor
libertatis e diritti fondamentali». En: COCCO, G. (ed.), Per un manifesto del neoilluminismo penale.
Pádua: Cedam, págs. 131-148.
CARCATERRA, A. (2019). «Machinae autonome e decisione robotica». En: CARLEO, A. (ed.). Decisione
robotica. Bolonia: Il Mulino, págs. 33-71.
CARNELUTTI, F. (1949). «Giurisprudenza consolidata (ovvero della comodità del giudicare)». En: Rivis-
ta di diritto processuale, núm. 1, págs. 35-52.
CASTELLI, C.; PIANA, D. (2018). «Giustizia predittiva. La qualità della giustizia in due tempi» [en línea].
DIsponible en: https://www.questionegiustizia.it/articolo/giustizia-predittiva-la-qualita-della-giusti-
zia-in-due-tempi_15-05-2018.php.
CATERINI, M. (2012). «L’interpretazione favorevole come limite all’arbitrio giudiziale. Crisi della legalità
e interpretazione creativa nel sistema postdemocratico dell’oligarchia giudiziaria». En: HELZEL,
P.B.; KATOLO, A.J. (ed.). Autorità e crisi dei poteri. Pádua: Cedam, págs. 99-157.
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
14
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
CATERINI, M. (2016). «Il ruolo “politico” del giudice penale. Una proposta de lege ferenda per arginare
la forza creativa del “diritto vivente”». En: Politica del diritto, vol. 47, núm. 3, págs. 509-525.
CATERINI, M. (2017a). «Il giudice penale come Ianus bifrons: un auspicabile “strabismo” interpretati-
vo». En: Politica del diritto, vol. 48, núm. 1, págs. 169-190.
CATERINI, M. (2017b). «In dubio interpretatio pro reo». En: CAVALIERE, A. et al. (ed.), Politica criminale
e cultura penalistica. Scritti in onore di Sergio Moccia. Nápoles: Edizioni Scientifiche Italiane, págs.
507-520.
CATERINI, M. (2017c). Effettività e tecniche di tutela nel diritto penale dell’ambiente. Nápoles: Edizioni
Scientifiche Italiane.
CATERINI, M. (2019). «Dal cherry picking del precedente alla nomofilachia favorevole all’imputato». En:
Politica del diritto, vol. 50, núm. 2, págs. 327-336.
CATERINI, M. (2021). «La benignior interpretatio nel diritto penale canonico. Profili storici e compara-
ti». En: Diritto e religioni, núm. 1, págs. 136-158.
CHOLET, D. (2018). «La justice prédictive et les principes fondamentaux du procès civil». En: Archives
de philosophie du droit, vol. 60, págs. 223-236. DOI: https://doi.org/10. 39 17/apd.601.0238
CLÉMENT, M. (2017). «Les juges doivent-ils craindre l’arrivée de l’intelligence artificielle?». En: Recueil
Dalloz, núm. 2, págs. 102-106.
CONTENTO, G. (1995). «Clausole generali e regole di interpretazione come “principi di codificazione”».
En: AA.VV., Valore e principi della codificazione penale: le esperienze italiana, spagnola e francese a
confronto. Pádua: Cedam, págs. 109-121.
CONTENTO, G. (2004). Corso di diritto penale, vol. 1. Roma-Bari: Laterza.
COSSUTTA, M. (2003). Questioni sull’informatica giuridica. Turín: Giappichelli.
COVELO DE ABREU, J. (2019). «The Role of Artificial Intelligence in the European e-Justice Paradigm
- Suiting Effective Judicial Protection Demands». En.: NOVAIS,P. et. Al. (ed.). Progress in Artificial
Intelligence - 19th Conference on Artificial Intelligence, EPIA 2019, Vila Real, Portugal, September
3-6, 2019, Proceedings, Part I. Cham: Springer Nature Switzerland, AG 299-309. DOI: https://doi.
org/10.1007/978-3-030-30241-2_26
CROZE, H. (2017). «La factualisation du droit». En: La semaine juridique, núm. 5, págs. 174-175.
DE MIGUEL BERIAIN, I. y PÉREZ ESTRADA, M. J. (2019). «La inteligencia artificial en el proceso
penal español: un análisis de su admisibilidad sobre la base de los derechos fundamentales im-
plicados». En: Revista de Derecho UNED, núm. 25, págs. 531-561. DOI: https://doi.org/10.5944/
rduned.25.2019.27013
DI GIOVINE, O. (2020). «Il “judge-bot” e le sequenze giuridiche in materia penale (intelligenza artifi-
ciale e stabilizzazione giurisprudenziale)». En: Cassazione penale, vol. 60, núm. 3, págs. 951-965.
DONATI, F. (2020). «Intelligenza artificiale e giustizia» [en línea]. DIsponible en: www.rivistaaic.it/ima-
ges/rivista/pdf/1_2020_Donati.pdf
DONINI, M. (2010). «Democrazia e scienza penale nell’Italia di oggi: un rapporto possibile?». En: Rivista
italiana di diritto e procedura penale, vol. 53, núm. 3, págs. 1067-1098.
DONINI, M. (2018). «Fattispecie o case law? La “prevedibilità del diritto” e i limiti alla dissoluzione
della legge penale nella giurisprudenza» [en línea]. Disponible en: https://www.questionegiustizia.
it/rivista/articolo/fattispecie-o-case-law-la-prevedibilita-del-diritt_582.php
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
15
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
DRESSEL, J.; FARID, H. (2018). «The accuracy, fairness, and limits of predicting recidivism» [en lí-
nea]. Disponible en: https://advances.sciencemag.org/content/4/1/eaao5580. DOI: https://doi.
org/10.1126/sciadv.aao5580
DRIPPS, D.A. (1987). «The Constitutional Status of the Reasonable Doubt Rule». En: California Law
Review, vol. 75 núm. 5, págs. 1665-1718. DOI: https://doi.org/10.2307/3480489
ESSER, J. (1972). Vorverständnis und Methodenwahl in der Rechtsfindung: Rationalitätsgrundlagen
richterlicher Entscheidungspraxis. Frankfurt am Main: Athenäum Fischer.
FEIGENBAUM, E.A. (1977). «The art of Artificial Intelligence: themes and case studies of knowledge
engineering». En: IJCAI-77, 5th International Joint Conference on Artificial Intelligence - 1977: Pro-
ceedings of the Conference, vol. 2, págs. 1014-1029.
FERRAJOLI, L. (2000). Diritto e ragione. Roma-Bari: Laterza.
FERRAJOLI, L. (2001). «Crisi della legalità e diritto penale minimo». En: Critica del diritto, vol. 1-2, págs.
44-55.
FERRIÉ, S.M. (2018). «Les algorithmes à l’épreuve du droit au procès equitable». En: La semaine juri-
dique, núm. 11, págs. 498-505.
FLETCHER, G.P. (1998). Basic Concepts of Criminal Law. Oxford: Oxford University Press.
FRANCESCONI, E. (2020). «Intelligenza Artificiale e Diritto: tra scienza e fantascienza». En: DORIGO, S.
(ed.). Il ragionamento giuridico nell’era dell’intelligenza artificiale. Pisa: Pacini Giuridica, págs. 1-12.
GABELLINI, E. (2019). «La “comodità nel giudicare”: la decisione robotica». En: Rivista Trimestrale di
diritto processuale civile, vol. 73, núm. 4, págs. 1305-1326.
GABORIAU, S. (2018). «Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia
digitale può garantire nel tempo la fedeltà a questi valori?» [en línea]. Disponible en: https://www.
questionegiustizia.it/rivista/articolo/liberta-e-umanita-del-giudice-due-valori-fondament_593.php
GACUTAN, J.; SELVADURAI, N. (2020). «A statutory right to explanation for decisions generated using
artificial intelligence». En: International Journal of Law and Information Technology, vol. 28, núm.
3, págs. 193-216. DOI: https://doi.org/10.1093/ijlit/eaaa016
GALIMBERTI, U. (1999). Psiche e techne. L’uomo nell’età della tecnica. Milán: Feltrinelli.
GARAPON, A. (2018). «Ti faresti giudicare da un algoritmo?» [en línea]. Disponible en: https://www.
questionegiustizia.it/rivista/articolo/ti-faresti-giudicare-da-un-algoritmo-intervista-ad-antoine-ga-
rapon_592.php
GATYS, L.A.; ECKER, A.S.; BETHGE, M. (2016). «A Neural Algorithm of Artistic Style». En: Journal of
Vision, vol. 16 núm. 12, págs. 326-341. DOI: https://doi.org/10.1167/16.12.326
GIALUZ, M. (2019). «Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk
assessment tools tra Stati Uniti ed Europa» [en línea]. Disponible en: https://archiviodpc.dirittope-
naleuomo.org/upload/6903-gialuz2019b.pdf
GODEFROY, L.D. (2018). «La performativité de la justice “prédictive”: un pharmakon?». En: Recueil
Dalloz, vol. 36, págs. 1979-1985.
HABERMAS, J. (2017). Theorie des kommunikativen Handelns. Teoria dell’agire comunicativo. Bolonia:
Il Mulino.
HART, A. (1988). Sistemi esperti: dall’ingegneria della conoscenza all’intelligenza artificiale. Milán:
Jackson.
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
16
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
HASSEMER, W. (1968). Tatbestand und typus. Untersuchungen zur strafrechtlichen hermeneutik. Ber-
lin: Heymann. Trad. it. Fattispecie e tipo. Indagini sull’ermeneutica giuridica. Nápoles: Esi, 2007.
HENDERSON, S.E. (2018). «A Few Criminal Justice Big Data Rules». En: Ohio State Journal of Criminal
Law, vol. 15, núm. 2, págs. 527-541.
HOPWOOD, S. (2017). «Clarity in Criminal Law». En: American Criminal Law Review, vol. 54, págs.
69 5 -749 .
HUQ, A.Z. (2019). «Racial Equity in Algorithmic Criminal Justice». En: Duke Law Journal, vol. 68, núm.
6, págs. 1043-1134.
IRTI, N. (2016). Un diritto incalcolabile. Turín: Giappichelli.
IRTI, N. (2017). «Per un dialogo sulla calcolabilità giuridica». En: CARLEO, A. (ed.). Calcolabilità giuridi-
ca. Bolonia: Il Mulino, págs. 17-27.
JEFFRIES, J.C. Jr. (1985). «Legality, Vagueness, and the Construction of Penal Statutes». En: Virginia
Law Review, vol. 71, núm. 2, págs. 189-246. DOI: https://doi.org/10.2307/1073017
JELLEMA, H. (2020). «The Reasonable Doubt Standard as Inference to the Best Explanation» [en lí-
nea]. Disponible en: https://link.springer.com/article/10.1007%2Fs11229-020-02743-8
JEULAND, E. (2017). «Justice prédictive: de la factualisation au droit potentiel». En: Revue pratique de
la prospective et de l’innovation, núm. 2, dosier 9.
KARKKAINEN, B.C. (1994). «“Plain Meaning”: Justice Scalia’s Jurisprudence of Strict Statutory Cons-
truction». En: Harvard Journal of Law & Public Policy, vol. 17, núm. 2, págs. 401-478.
KEHL, D.; GUO, P.; KESSLER, S. (2017). «Algorithms in the Criminal Justice System: Assessing the
Use of Risk Assessments in Sentencing» [en línea]. Disponible en: https://dash.harvard.edu/hand-
le/1/33746041
KELSEN, H. (1966). La dottrina pura del diritto. Turín: Einaudi.
LEIBNIZ, G.W. (1935). La Monadologia (1720). Florencia: Sansoni.
LEIBNIZ, G.W. (1951). Elementia juris naturalis (1669). Scritti politici e di diritto naturale. Turín: Utet.
LUCATUORTO, P.L. (2006). «Intelligenza Artificiale e Diritto: le applicazioni giuridiche dei sistemi es-
perti». En: Ciberspazio e diritto, vol. 7, núm. 2, págs. 219-242.
LUCIANI, M. (2019). «La decisione giudiziaria robotica». En: CARLEO, A. (ed.). Decisione robotica. Bo-
lonia: Il Mulino, págs. 63-95.
MANES, V. (2018). «Dalla “fattispecie” al “precedente”: appunti di “deontologia ermeneutica”». En:
Cassazione penale, núm. 6, págs. 2222-2249.
MARTÍNEZ GARAY, L. (2018). «Peligrosidad, algoritmos y due process: el caso State v Loomis». En:
Revista de Derecho Penal y Criminología, 3a Época, núm. 20.
MAZZARESE, T. (1992). «Dubbi epistemologici sulle nozioni di “quaestio facti” e “quaestio iuris”». En:
Rivista italiana di filosofia del diritto, vol. 69, págs. 294-320.
MIRÓ LLINARES, F. (2018). «Inteligencia artificial y justicia penal: más allá de los resultados lesivos
causados por robots». En: Revista de Derecho Penal y Criminología, núm. 20, 2018, págs. 87-130.
DOI: https://doi.org/10.5944/rdpc.20.2018.26446
MONTESQUIEU (1748). Esprit des lois, tomo 1, libro
XI
, capítulo
VI
. Londres, 1777.
NIEVA FENOLL, J. (2018). Inteligencia artificial y proceso judicial. Madrid: Marcial Pons.
NIEVA FENOLL, J. (2019). Intelligenza artificiale e processo. Turín: Giappichelli.
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
17
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
O’NEIL, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens
Democracy. Nueva York: Crown Publishers.
PAGALLO, U. (2005). Introduzione alla filosofia digitale. Da Leibniz a Chaitin. Turín: Giappichelli.
PAPA, M. (2020). «Future crimes: intelligenza artificiale». In: S. DORIGO (ed.), Il ragionamento giuridico
nell’era dell’intelligenza artificiale. Pisa: Pacini Giuridica, págs. 77-86.
PERRONE, D. (2019). Nullum crimen sine iure?. Turín: Giappichelli.
POPKIN, W.D. (1993). «Law-Making Responsibility and Statutory Interpretation».En: Indiana Law Jour-
nal, vol. 68, núm. 3, págs. 865-889.
PRICE, Z. (2004). «The rule of lenity as a rule of structure». En: Fordham Law Review, vol. 72, núm. 4,
págs. 885-942.
QUATTROCOLO, S. (2019). «Equo processo penale e sfide della società algoritmica». En: Biolaw Jour-
nal, núm. 1, págs 135-144.
RIZER A.; WATNEY C. (2018). «Artificial Intelligence Can Make Our Jail System More Efficient, Equita-
ble, and Just». En: Texas Review of Law and Politics, vol. 23, núm. 1, págs. 181-227. DOI: https://doi.
org/10.2139/ssrn.3129576
RONCO, M. (2006). «Il principio di legalità». En: Commentario sistematico al Codice penale. La legge
penale. Bolonia: Zanichelli.
RONCO, M. (2018). «La legalità stratificata». En: Rivista italiana di diritto e procedura penale, vol. 61,
núm. 3, págs. 1387-1405.
ROUVIÉRE, F. (2018). «Le raisonnement par algorithmes: le fantasme du juge-robot». En: Revue trimes-
trelle de Droit civil: págs. 530-536.
RULLI, E. (2018). «Giustizia predittiva, intelligenza artificiale e modelli probabilistici. Chi ha paura degli
algoritmi». En: Analisi giuridica dell’economia, núm. 2, págs. 533-546.
SANTOSUOSSO, A. (2020). Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande
opportunità per il diritto. Milán: Mondadori.
SARTOR, G. (1992). Linguaggio giuridico e linguaggio di programmazione. Bolonia: Clueb.
SARTOR, G. (2016). L’informatica giuridica e le tecniche dell’informazione. Turín: Giappichelli.
SCALIA, A. (2018). A Matter of Interpretation. Princeton: Princeton University Press.
SCALIA, A.; GARNER, B.A. (2012). Reading Law: the Interpretation of Legal Texts. Eagan: Thomson/
West.
SCORSI, S. (2006). Thomas Hobbes tra giusnaturalismo e positivismo giuridico. Roma: Il Filo.
SEVERINO, E. (2009). Democrazia, tecnica, capitalismo. Brescia: Editrice Morcelliana.
SIMONCINI, A. (2020). «Diritto costituzionale e decisioni algoritmiche». En: DORIGO, S. (ed.). Il ragiona-
mento giuridico nell’era dell’intelligenza artificiale. Pisa: Pacini Giuridica.
SIMÓN CASTELLANO, P. (2021a). Justicia cautelar e inteligencia artificial. La alternativa a los atávicos
heurísticos judiciales. Barcelona: J. M. Bosch Editor. DOI: https://doi.org/10.2307/j.ctv1tqcxbh
SIMÓN CASTELLANO, P. (2021b). «Inteligencia artifi cial y Administración de Justicia: ¿Quo vadis, jus-
titia?». En: IDP: Revista de Internet, Derecho y Política, núm. 33. DOI: https://doi.org/10.7238/idp.
v0i33.373817
SIPSER, M. (2013). Introduction to the Theory of Computation. Boston: Cengage Learning.
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
18
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
SKEEM, J.L.; ENO LOUDEN, J. (2007). «Assessment of Evidence on the Quality of the Correctional
Offender Management Profiling for Alternative Sanctions» [en línea]. Disponible en: https://cpb-
us-e2.wpmucdn.com/sites.uci.edu/dist/0/1149/files/2013/06/CDCR-Skeem-EnoLouden-COMPASe-
val-SECONDREVISION-final-Dec-28-07.pdf.
SOLAN, L. (1998). «Law, Language and Lenity». En: William and Mary Law Review, vol. 40, núm. 1, págs.
57-144.
TADDEI ELMI, G. (2014). «Informatica giuridica. Presupposti, storia, disciplina, insegnamento, esiti». En:
Informatica e diritto, vol. 23, núm. 2, págs. 85-123.
TARUFFO, M. (1989). «La giustificazione delle decisioni fondate su standars». En: P. Comanducci; R.
Guastini (a cura di), L’analisi del ragionamento giuridico. Turín, Giappichelli, págs. 311-344.
TARUFFO, M. (1998). «Judicial Decisions and Artificial Intelligence». En: Artificial intelligence and Law,
vol. 6, págs. 311-324.DOI: https://doi.org/10.1023/A:1008230426783
TARUFFO, M. (2001). «Legalità e giustificazione della creazione giudiziaria del diritto». En: Rivista tri-
mestrale di diritto e procedura civile, vol. 55, núm. 1, págs. 11-31.
TEGMARK, M. (2017). Life 3:0: Being Human in the Age of Artificial Intelligence. Londres: Penguin Books.
TIERNEY, B. (1997). The idea of Natural Rights. Studies on Natural Rights, Natural Law and Church Law.
Grand Rapids. William B. Eerdmans Publishing.
TONINI, P. (2010). Manuale di procedura penale. Milán: Giuffrè.
TROPER, M. (1999). «Una teoria realista dell’interpretazione». En: Materiali per una storia della cultura
giuridica, núm. 2, págs. 473-494.
UBERTIS, G. (1979). Fatto e valore nel sistema probatorio penale. Milán: Giuffrè.
UNDERWOOD, B.D. (1977). «The Thumb on the Scales of Justice: Burdens of Persuasion in Criminal
Cases». En: Yale Law Journal, vol. 86, núm. 7, págs. 1299-1348. DOI: https://doi.org/10.2307/795788
VALLS PRIETO, J. (2017). Problemas jurídico penales asociados a las nuevas técnicas de prevención
y persecución del crimen mediante inteligencia artificial. Madrid: Dykinson. DOI: https://doi.or-
g/10.2307/j.ctt22nmcqg
VILLASENOR, J.; FOGGO, V. (2020). «Artificial Intelligence, Due Process and Criminal Sentencing». En:
Michigan State Law Review, núm. 2, págs. 295 -354.
VIOLA, L. (2018). Interpretazione della legge con modelli matematici. Milán: Diritto Aaanzato.
VOGLIOTTI, M. (2007). Tra fatto e diritto. Oltre la modernità giuridica. Turín: Giappichelli.
VOLS, M.; MEDVEDEVA, M., WIELING, M. (2020). «Using machine learning to predict decisions of the
European Court of Human Rights». En: Artificial Intelligence and Law, vol. 28: págs. 237-266. DOI:
https://doi.org/10.1007/s10506-019-09255-y
WEBER, M. (1995). Teoria delle categorie sociologiche, vol. I. Turín: Edizioni di comunità.
ZACCARIA, G. (1998). «Dimensione dell’ermeneutica e interpretazione giuridica». En: MATHIEU, V.;
PAOLETTI, L. (ed.). Il problema della fedeltà ermeneutica. Roma: Armando, págs. 150-163.
ZAGREBELSKY, G. (2018). Diritto allo specchio. Turín: Einaudi.
https://idp.uoc.edu
Universitat Oberta de Catalunya
El sistema penal en la encrucijada ante el reto de la inteligencia artificial
IDP N.º 35 (Marzo, 2022) I ISSN 1699-8154 Revista de los Estudios de Derecho y Ciencia Política
19
2022, Mario Caterini
de esta edición: 2022, Universitat Oberta de Catalunya
Cita recomendada
CATERINI, Mario (2022). «El sistema penal en la encrucijada ante el reto de la inteligencia artificial».
IDP. Revista de Internet, Derecho y Política, núm. 35. UOC [Fecha de consulta: dd/mm/aa]
http://dx.doi.org/10.7238/idp.v0i35.392754
Los textos publicados en esta revista están —si no se indica lo contrario— bajo una licencia
Reconocimiento-Sin obras derivadas 3.0 España de Creative Commons. Puede copiarlos,
distribuirlos y comunicarlos públicamente siempre que cite su autor y la revista y la institu-
ción que los publica (IDP. Revista de Internet, Derecho y Política; UOC); no haga con ellos
obras derivadas. La licencia completa se puede consultar en: http://creativecommons.org/
licenses/by-nd/3.0/es/deed.es.
Sobre el autor
Mario Caterini
Universidad de Calabria
mario.caterini@unical.it
Profesor ordinario de Derecho Penal en la Universidad de Calabria (Italia), donde enseña Derecho
Penal 1 en el curso de la licenciatura en Derecho, así como Derecho Penal y Seguridad Nacional y
Sistema Penal en el curso de licenciatura en Inteligencia para la legalidad. En la misma universidad
dirige el Instituto de Estudios Penales Alimena. Es autor de cuatro monografías y de un centenar
de publicaciones más, editadas en Italia, España, Argentina, Brasil, Alemania, México, China, Estados
Unidos, Colombia, Rumanía y Serbia. Su investigación se ha centrado en los principios de ofensividad,
legalidad, proporción y presunción de inocencia, con implementaciones particulares en delitos de
peligro abstracto y en la legislación especial de los delitos ambientales. También se ha ocupado de la
interpretación penal, el «delito imposible» y la tenuidad del delito. Sus obras también han abarcado
el paternalismo legal, las elecciones autolesivas, el derecho penal del «enemigo», la relación entre
el sistema penal y los medios de comunicación, la confrontación entre el derecho, la literatura y la
música, la extorsión, el fraude, la participación y la «contigüidad» mafiosa, los delitos de falsificación,
los delitos de despilfarro, la cadena perpetua, los delitos de orientación cultural, los delitos de odio, la
inteligencia artificial y el juicio penal robótico.

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR