The relevant data, the mechanism underlying the algorithmic processing, the rationale of a certain automated decision that is likely to affect the legal sphere of a natural person, should be traceable, transparent, explained; this also to put the interested party in a position to effectively challenge its content. Instead, they seldom are: either by choice - for competitive reasons, to protect know-how - or due to technological limitations: this is the case of those algorithms that are referred to as 'black-box'; systems whose inferential mechanisms are not (completely) foreseeable ex ante or which, in any case, do not always make it possible to explain why an automated decision-making model has generated a given result (and what combination of factors has contributed to it). After affirming the existence of an ethical duty of transparency of the algorithm and explanation of the (individual) decision reached by automated means, the Paper questions - concluding in the affirmative - the existence of a corresponding positive law obligation, further exploring its scope and limitations, both legal and technological. Drawing critically on the most important doctrinal opinions on this matter and introducing the concept of inferred personal data, the right to explanation is identified, within the legal framework of the GDPR, in the right of access under Article 15 of the General Data Protection Regulation.

I dati rilevanti, i processi alla base dell’elaborazione algoritmica, il perché di una certa decisione assunta con mezzi automatizzati che incida la sfera giuridica di una persona fisica, dovrebbero essere tracciabili, trasparenti, spiegati; ciò anche per mettere l’interessato in condizione di contestarne i contenuti. Invece, raramente lo sono: o per scelta - per ragioni competitive, di tutela del know-how - o per limiti tecnologici: è il caso di quegli algoritmi che vengono definiti "black-box"; sistemi i cui meccanismi inferenziali non sono (completamente) prevedibili ex ante o che, comunque, non sempre consentono di spiegare perché un modello decisionale automatizzato abbia generato un particolare risultato (e quale combinazione di fattori vi abbia contribuito). Dopo aver affermato l'esistenza di un dovere etico di trasparenza dell'algoritmo e di spiegazione della decisione (individuale) raggiunta con mezzi automatizzati, il contributo si interroga, in senso affermativo, sull’esistenza di un corrispondente obbligo sul piano del diritto positivo, indagandone portato e limiti, tanto di natura giuridica che tecnologica. Attingendo criticamente alle più importanti opinioni dottrinali sull'argomento e introducendo il concetto di dato personale inferito, il diritto alla spiegazione è identificato, nella cornice normativa del GDPR, nel diritto di accesso di cui all'articolo 15 del Regolamento sulla protezione dei dati.

Decisione algoritmica, Black-box e AI etica: il diritto di accesso come diritto a ottenere una spiegazione

Emiliano Troisi
2022-01-01

Abstract

The relevant data, the mechanism underlying the algorithmic processing, the rationale of a certain automated decision that is likely to affect the legal sphere of a natural person, should be traceable, transparent, explained; this also to put the interested party in a position to effectively challenge its content. Instead, they seldom are: either by choice - for competitive reasons, to protect know-how - or due to technological limitations: this is the case of those algorithms that are referred to as 'black-box'; systems whose inferential mechanisms are not (completely) foreseeable ex ante or which, in any case, do not always make it possible to explain why an automated decision-making model has generated a given result (and what combination of factors has contributed to it). After affirming the existence of an ethical duty of transparency of the algorithm and explanation of the (individual) decision reached by automated means, the Paper questions - concluding in the affirmative - the existence of a corresponding positive law obligation, further exploring its scope and limitations, both legal and technological. Drawing critically on the most important doctrinal opinions on this matter and introducing the concept of inferred personal data, the right to explanation is identified, within the legal framework of the GDPR, in the right of access under Article 15 of the General Data Protection Regulation.
2022
I dati rilevanti, i processi alla base dell’elaborazione algoritmica, il perché di una certa decisione assunta con mezzi automatizzati che incida la sfera giuridica di una persona fisica, dovrebbero essere tracciabili, trasparenti, spiegati; ciò anche per mettere l’interessato in condizione di contestarne i contenuti. Invece, raramente lo sono: o per scelta - per ragioni competitive, di tutela del know-how - o per limiti tecnologici: è il caso di quegli algoritmi che vengono definiti "black-box"; sistemi i cui meccanismi inferenziali non sono (completamente) prevedibili ex ante o che, comunque, non sempre consentono di spiegare perché un modello decisionale automatizzato abbia generato un particolare risultato (e quale combinazione di fattori vi abbia contribuito). Dopo aver affermato l'esistenza di un dovere etico di trasparenza dell'algoritmo e di spiegazione della decisione (individuale) raggiunta con mezzi automatizzati, il contributo si interroga, in senso affermativo, sull’esistenza di un corrispondente obbligo sul piano del diritto positivo, indagandone portato e limiti, tanto di natura giuridica che tecnologica. Attingendo criticamente alle più importanti opinioni dottrinali sull'argomento e introducendo il concetto di dato personale inferito, il diritto alla spiegazione è identificato, nella cornice normativa del GDPR, nel diritto di accesso di cui all'articolo 15 del Regolamento sulla protezione dei dati.
Artificial Intelligence, Automated decision-making, ADM, black-box, algorithm, explanation, right of access, Gdpr, Law & Ethics
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12570/32576
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
social impact