Intelligenza artificiale e responsabilità civile. Prospettive di regolamentazione europea

AutorGiovanna D'Alfonso
CargoProfessore associato di Diritto Privato Università degli Studi della Campania 'Luigi Vanvitelli' (Italia)
Páginas163-195
Revista de Estudios Jurídicos y Criminológicos
ISSN-e: 2345-3456
N.º 6, julio-diciembre, 2022, pp. 163-195
Intelligenza artificiale e responsabilità civile. Prospettive europee
*
Artificial intelligence and civil liability. European Perspectives
GIOVANNA D’ALFONSO
Professore associato di Diritto Privato
Università degli Studi della Campania “Luigi Vanvitelli” (Italia)
giovanna.d'alfonso@unicampania.it
https://orcid.org/0000-0002-6535-4980
Riassunto: Lo sviluppo rapido ed esponenziale delle tecnologie digitali solleva nuove questioni
di responsabilità civile, con riferimento a decisioni e comportamenti assunti dai sistemi di
intelligenza artificiale che cagionino danni ai soggetti con i quali interagiscano. Il contributo
evidenzia come le proposte europee di regolamentazione prevedano un sistema multilivello di
responsabilità, imperniato sul principio di accountability.
Abstract: The rapid and exponential development of digital technologies raises new issues of civil
liability, with reference to decisions and behaviours taken by artificial intelligence systems that
cause damage to the subjects with whom they interact. The contribution highlights how the
European regulatory proposals envisage a multilevel system of liability, focused on the principle
of accountability.
Parole Chiave: sistemi di intelligenza artificiale, nuovi danni, responsabilità civile
extracontrattuale, prospettive europee, sistema multilivello di responsabilità, principio di
accountability.
Recepción: 15/10/2022
Aceptación: 07/12/2022
mo citar este trabajo: D’ALFONSO, Giovanna, “Intelligenza artificiale e responsabilità civile.
Prospettive europee”, Revista de Estudios Jurídicos y Criminológicos, n.º 6, Universidad de Cádiz, 2022,
pp. 163-195, DOI: https://doi.org/10.25267/REJUCRIM.2022.i6.06
* Questo l avoro è il risultato del Progetto di Ricerca finanziato Diritto e Intelligenza Artificiale: nuovi
orizzonti giuridici della personalità e responsabilità robotica (PID2019-108669RBI00 /AEI/
10.13039/501100011033), di cui la Dott.ssa Margarita Castilla Barea é la principale ricercatrice.
Intelligenza artificiale e responsabilità civile. Prospettive europee
164
Keywords: artificial intelligence systems, new damages, tort liability, european perspectives,
multi-level system of liability, the principle of accountability.
Sommario 1. PREMESSA. 2. GLI STRUMENTI NORMATIVI DEL DIRITTO INTERNO
ITALIANO APPLICABILI AI “NUOVI” DANNI, PROVOCATI DAI SISTEMI DI
INTELLIGENZA ARTIFICIALE. 3. PRINCIPIO DI ACCOUNTABILITY E SISTEMA
MULTILIVELLO DI RESPONSABILITÀ. PROSPETTIVE EUROPEE. 4. (SEGUE) NUOVE
REGOLE SULLA RESPONSABILITÀ DA PRODOTTO DIFETTOSO. 5. (SEGUE) LA
PROPOSTA DI AI LIABILITY DIRECTIVE. 6. BIBLIOGRAFIA
1. PREMESSA
Lo sviluppo rapido ed esponenziale delle tecnologie digitali emergenti, più o meno
automatizzate, solleva nuove questioni di responsabilità civile, poichè possono dar luogo
ad una pluralità di scenari dannosi completamente diversi rispetto a quelli
tradizionalmente affrontati, a livello giurisprudenziale
1
. Ciò accade quando i danni siano
cagionati dai robot che compiano attività che potrebbero essere svolte dagli esseri umani,
nonchè da intelligenze artificiali, dotate di capacità di autoapprendimento, le cui scelte
siano assunte, senza l’ausilio dell’intervento umano, in base all’elaborazione di un
algoritmo e conseguano ad un processo di adattamento c.d. self learning
2
.
In quest’ultimo caso, il sistema intelligente si confronta con la realtà e si trasforma
coerentemente con i dati esperienzali acquisiti nel tempo
3
, adottando opzioni che
1
A. AMIDEI, “Robotica intelligente e responsab ilità: profili e prospettive evolutive del quadro normativo
europeo”, in Giur.it, 2021 p. 100. Sul tema, si vedano, ex multis, tra i più autorevoli contributi, G. ALPA
(a cura di) “Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto
bancario e finanziario, processo civile”, Pisa, 2020, passim; M. CASTILLA BAREA, La universidad ante
los desafíos éticos de la inteligencia artificial. Reflexiones a propósito del nuevo «marco europeo de los
aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas»”, in Edunovatic 2020,
Conference Proceedings: 5th Virtual International Conference on Education, Innovation and ICT,
December 10 - 11, 2020, pp. 630 ss.; S. FARO, T.E. FROSINI, G. PERUGINELLI, “Dati e algoritmi.
Diritto e dir itti nella società digitale, Bologna, 2020, passim; P. PERLINGIERI, S. GIOVA, I. PRISCO
(a cura di), “Rapporti civilistici e intelligenze artificiali: attività e responsabilità”, Napoli, 2020, passim;
ID. (a cura di), “Il trattamento algoritmico dei dati tra etica, diritto e economia”, Napoli, 2020, passim; U.
RUFFOLO (a cura di), “Intelligenza artificiale. Il diritto, i diritti, l’etica”, Torino, 2020, passim; A.
SANTOSUOSSO, “Intelligenza e diritto. Perché le nuove tecnologie sono una grande opportunità per il
diritto”, Milano, 2020, passim; I. ZURITA MARTÍN, “La responsabilidad civil por los daños causados por
los robots inteligentes como productos defectuosos”, Reus, Madrid, 2020, passim, recensito da F. J.
JIMÉNEZ MUÑOZ, in Actu alidad Jurídica Iberoamericana, Nº 14, febrero 2021, pp. 1141 ss.; D.
BUZZELLI, M. PALAZZO, “Intelligenza artificiale e diritti della persona”, Pisa, 2022, passim; A. PAJNO,
F. DONATI, A. PERRUCCI, “Intelligenza artificiale e diritto: una rivoluzione?”, Volume 1. Diritti
fondamentali, dati personali e regolazione”, Bologna, 2022, passim; ID., “Intelligenza artificiale e diritto:
una rivoluzione?Volume 2. Amministrazione, responsabilità e giurisdizione”, Bologna, 2022, passim;
M. TAMPERI, “Intelligenza artificiale e le sue evoluzioni. Prospettive civilistiche”, Padova, 2022, passim.
2
L. COPPINI, “Robotica e intelligenza artificiale: questioni di responsabilità civile”, in Politica del diritto,
2018, p. 722. È imprescindibile la precisazione che non si può parlare di un’unica intelligenza artificiale,
ma deve, diversamente, parlarsi di intelligenze artificiali al plurale, dal momento che le stesse possono
differenziarsi, a seconda dei tipi di machine learning o di agenti software, più o meno autonomi.
3
U. SALANITRO, “Intelligenza artificiale e responsabilità: la strategia della Commissione Europea”, in
Riv.dir.civ., 2020, p. 1247.
Giovanna D’Alfonso
165
potrebbero non essere previste in fase di progettazione e rappresentare, invece, il risultato
di interazioni inaspettate tra i componenti dello stesso o con il contesto nel quale operi
4
.
Cosicché, le decisioni ed i comportamenti automatizzati si caratterizzano per essere
complessi, opachi, incontrollabili ed imprevedibili e, dunque, non facilmente accertabili
e possono condurre ad un’ampia serie di “nuovi” danni.
Può, così, accadere che un sistema informatico, debitamente programmato, finisca con il
ledere il diritto di determinati soggetti a non essere discriminati e ad avere un libero ed
equo accesso a beni e servizi
5
. I meccanismi di scoring’, ampiamente impiegati nella
prassi digitale, per selezionare gli aspiranti ad una posizione lavorativa, possono, infatti,
condurre all’inammissibilità ad un colloquio, oltre che alla mancata assegnazione di un
posto
6
. Gli stessi, utilizzati nel vaglio della potenziale solvibilità di chi miri ad ottenere
un fido bancario
7
oppure nella valutazione delle caratteristiche dei clienti con cui stipulare
polizze assicurative
8
, possono anche portare ad esiti negativi della pratica bancaria o
assicurativa. In tali situazioni, si pone la pregnante questione della trasparenza
algoritmica, dal momento che le risoluzioni sono assunte sulla base di processi
imperscrutabili ed indecifrabili per i destinatari, giacchè nascoste in una black box, e tale
circostanza impedisce loro la comprensione, il controllo e la contestazione delle stesse,
in sede giudiziaria
9
.
Il ricorso all’algoritmo può, altresì, determinare la compromissione delle libertà e dei
diritti fondamentali della persona, quali la sicurezza degli individui, la loro salute, la vita
privata e la protezione dei dati personali, l’integrità, la dignità, l’autodeterminazione
10
.
Fra i tanti casi, si pensi alle conseguenze negative che possano derivare ad una persona,
sul piano economico, reputazionale ed emotivo, dal trattamento algoritmico e dalla
circolazione dei suoi dati personali
11
, nonché ai possibili incidenti dovuti dalla loro
4
L. COPPINI, op.cit., p. 721.
5
G. MOBILIO, “L’intell igenza artificiale e le regole giuridiche alla prova: il caso paradigmatico del
GDPR”, in www.federalismi.it, 2020, n. 16, p. 285.
6
Si veda la pronuncia del Consiglio di Stato, 8 aprile 2019, n. 2270, in Foro it., 2019, 11, III, c. 606,
riguardo agli esiti della procedura dell’assegnazione delle sedi al personale docente scolastico (l. 107/2015),
compiuta sulla base di un algoritmo appositamente introdotto dal Miur.
7
G. BIFERALI, “Big data e valutazione del merito creditizio per l’accesso al peer to peer lending”, in
Dir.infor.informatica, 2018, p. 487 ss.
8
D. PORRINI, “Big data, personalizzazione delle polizze ed effetti nel mercato assicurativo”, in V.
FALCE, G. GHIDINI, G. OLIVIERI (a cura di), “Informazione e big data tra innovazione e concorrenza”,
Milano, 2018, pp. 319 ss.
9
E. TROISI, “AI e GDPR: l’Automated Decision Making, la protezione dei dati e il diritto alla
‘intellegibilità’ dell’algoritmo”, in EJPLT, 2019, p. 47 ss.
10
Sul punto M. GAMBINI, “Responsabilità civile e controlli del trattamento algoritmico”, in. P.
PERLINGIERI, S. GIOVA, I. PRISCO (a cura di), “Il trattamento algoritmico dei dati tra etica, diritto e
economia”, op.cit., p. 314. Autorevolmente P. PERLINGIERI, “Relazione conclusiva”, ivi, p. 383,
puntualizza come l’esigenza di ovviare all’opacità del procedimento algoritmico si avverta in ogni settore
e che il rischio digitale si pone tanto come collettivo, quanto individuale.
11
M. INFANTINO, “La responsabilità per i danni algoritmici : prospettive europeo-continentali, in
Resp.civ.prev., 2019, p. 1764.

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR