Derecho constitucional e inteligencia artificial

AutorMaría Mercedes Serrano Pérez, Celia Fernández Aller
Páginas487-544
DERECHO CONSTITUCIONAL
E INTELIGENCIA ARTIFICIAL
M M S P
Doctora en Derecho y profesora de Derecho Constitucional
de la Universidad de Castilla-La Mancha
M M S P / C F A
Doctora en Derecho y profesora de la ETSISI
(Escuela Técnica Superior de Ingeniería en Si stemas Informáticos)
de la Universidad Politécnica de Madrid
Sumario: 1.Introducción.- 2 La inteligencia artificial desde un enfoque constitucional.-
3. La regulación de la Unión Europea sobre inteligencia artificial. Marco nor-
mativo: 3.1. La propuesta de Reglamento por el que se establece el programa
Europa Digital.- 4 El estado social y la inteligencia artificial: 4.1. La disponi-
bilidad de los datos como obligación propia del Estado social.- 5. El estado
de derecho y la inteligencia artificial: principio de seguridad jurídica e in-
terdicción de la arbitrariedad. principio de legalidad.- 6. Interrelación entre
inteligencia artificial y derechos fundamentales: 6.1. Derecho a la vida, a la
libertad, seguridad, derecho a la tutela judicial efectiva; 6.2. Derecho a la pro-
tección de datos de carácter personal; 6.3. Derecho a la libertad de movimien-
to; 6.4. Derechos a la libertad de expresión, pensamiento, religión, reunión
y asociación; 6.5. Derechos a la igualdad y no discriminación; 6.6. Derechos
a la participación política y a la autodeterminación; 6.7. Derechos al traba-
jo y a unos medios de vida adecuados; 6.8. Derecho a la salud; 6.9. Derecho
a la educación; 6.10. Derecho a tomar parte en la vida cultural y a disfrutar
de los beneficios del progreso científico; 6.11.Derecho al matrimonio, dere-
chos de los niños, derechos de la familia.- 7. Surgimiento de nuevos derechos:
7.1. Derecho a la no discriminación algorítmica; 7.2. Derecho a la explicabili-
dad; 7.3. Neuroderechos.- Conclusiones.- Bibliografía
488 María Mercedes Serrano Pérez / Celia Fernández Aller
1. INTRODUCCIÓN
No hay ámbito jurídico que no se vaya a ver profundamente transformado en
la Cuarta Revolución industrial en la que estamos inmersos. El potencial de la inte-
ligencia artificial (en adelante, IA) es único en la historia. Ha posibilitado asistentes
personales activados por voz, redes neuronales que navegan sin descanso por el big
data en busca de patrones que puedan ayudar a predecir deseos, programas de IA que
están transformando la Medicina, la Economía, la Educación, la Justicia, etc. Hasta
ahora esta tecnología no ha alcanzado la capacidad de la inteligencia humana, pero
no se descarta el momento en que la supere, llegándose al punto de no retorno tecno-
lógico, o singularidad1.
En este sentido, la Comisión Europea2 recuerda que IA se está desarrollando rá-
pido. Cambiará nuestras vidas, pues mejorará la atención sanitaria (por ejemplo, in-
crementando la precisión de los diagnósticos y permitiendo una mejor prevención
de las enfermedades), aumentará la eficiencia de la agricultura, contribuirá a la miti-
gación del cambio climático y a la correspondiente adaptación, mejorará la eficiencia
de los sistemas de producción a través de un mantenimiento predictivo, aumentará
la seguridad de los europeos y nos aportará otros muchos cambios que de momento
solo podemos intuir. Al mismo tiempo, la IA conlleva una serie de riesgos potencia-
les, como la opacidad en la toma de decisiones, la discriminación de género o de otro
tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos.
Se vive un momento clave en el ámbito europeo, puesto que la Comisión trabaja
en las conclusiones de su Libro Blanco para formular alternativas políticas que per-
mitan el desarrollo de la IA de forma compatible con los intereses económicos y los
derechos fundamentales. Lo cierto es que los lobbies empresariales están presionan-
do a favor de los primeros, defendiendo un enfoque auto-regulador, que contrasta
con un enfoque de regulación general que permita mitigar los riesgos enormes que
plantea la IA para los derechos de las personas.
La Unión Europea (en adelante, UE) está preocupada por generar confianza como
requisito previo para la adopción de la IA, y ello supone una oportunidad para Europa,
dada su estrecha vinculación con los valores y el Estado de Derecho y su capacidad de-
mostrada de crear productos seguros, fiables y sofisticados en sectores que van desde la
aeronáutica a la energía, pasando por la automoción y los equipos médicos.
1 A las diferentes acepciones de la expresión “inteligencia artificial” y las limitaciones de lo que
ahora se entiende por ella, se dedica la investigación de Smith, B. C., (2019) The promise of artificial inte-
lligence. Reckoning and judgment, The MIT Press, Cambridge (Massachusets). Además, es muy descrip-
tivo el texto de Tegmark, Max (2017) Life 3.0. Being human in the age of Artificial Intelligence. Vintage.
2 COMISIÓN EUROPEA. 19.2.2020 COM(2020) 65 final Libro Blanco sobre la inteligencia ar-
tificial - un enfoque europeo orientado a la excelencia y la confianza. Disponible en https://ec.europa.eu/
info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf
Derecho constitucional e inteligencia artificial 489
Un ámbito en el que se ha regulado el uso de la IA que incluya tratamiento de
datos personales es el de la protección de datos. El Reglamento (UE) 2016/679, Regla-
mento General de Protección de Datos (RGPD)3 ha introducido un enfoque basado
en los riesgos, en el que las autoridades de protección de datos ven su función regu-
ladora debilitada significativamente. El enfoque basado en el riesgo debe ser imple-
mentado por los responsables (grandes empresas) a través de las evaluaciones de im-
pacto en la protección de datos (que evocan los estudios de impacto ambiental) y la
notificación de las infracciones, entre otros procedimientos. Se determinarán grupos
de datos cuyo nivel de riesgo sea alto, y a esos se les aplicarán medidas más exigentes
de protección. Este enfoque dista mucho de ser un enfoque de protección reforzada
de la privacidad4. En el mismo sentido se pronuncian otros autores5.
Para superar estas limitaciones, resulta esencial reconocer que la Etica tiene un
papel clave en el momento de orientar el avance de las legislaciones. Además, urge
generalizar la utilización de los estudios de impacto en la ética.
Las Directrices éticas para una AI fiable6 pueden servir como documento base
para conseguir una IA centrada en el ser humano: este enfoque se esfuerza por garan-
tizar que los valores humanos sean siempre la principal consideración, y nos obliga
a tener en cuenta que el desarrollo y el uso de la IA no debe considerarse como un
medio en sí mismo, sino con el objetivo de aumentar el bienestar de los ciudadanos.
La IA confiable tiene dos componentes: 1) su desarrollo, despliegue y utiliza-
ción deben cumplir con los derechos fundamentales y la reglamentación aplicable,
así como respetar los principios y valores fundamentales, garantizando un “propósito
ético”, y 2) debe ser técnicamente robusta y fiable.
Para ello, es necesario:
Desarrollar, desplegar y utilizar los sistemas de IA respetando los principios éti-
cos de: respeto de la autonomía humana, prevención del daño, equidad y explicabili-
dad. Reconocer y abordar las tensiones que pueden surgir entre estos principios.
3 Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo
a la protección de las personas físicas en lo que resepcta al tratamiento de datos personales y a la libre circulación
de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento General de Protección de Datos).
4 “The risk-based approach under the new EU data protection regulation: a critical perspective
Journal of Risk Research. VOL. 23, NO. 2, 139–152. https://doi.org/10.1080/13669877.2018.1517381.
5 E. Harcourt, Bernard (2010). “Risk as a proxy for race”. Criminology and Public Policy; Ma-
cenaite, Milda (2016). “The “Riskification” of European Data Protection Law through a two-fold Shi-
ft”. European Journal of Risk Regulati on, 8 (2017), pp. 506–540 © Cambridge University Press ; Niels
van Dijk, Raphaël Gellert, Kjetil Rommetveit (2016). “A risk to a right? Beyond data protection risk
assessments”. Computer Law and Security review.
6 Grupo de expertos de alto nivel sobre inteligencia artificial (Unión Europea) (2019). Directri-
ces éticas para una Inteligencia artificial fiable (cursiva) ISBN 978-92-76-11994-4.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR