Attenti alla tecnologia del sospetto
Dagli algoritmi che
identificano i colpevoli al rischio di profilazione etnica. Anche
l’intelligenza artificiale ha bisogno di limiti. In gioco c’è la libertà
È difficile pensare a una scelta più autenticamente umana – e così
intensamente percorsa dall’empatia – di quella dell’adozione. Da essa discende,
infatti, la scommessa di una complessa genitorialità. Ovvero, la volontà di
ricreare quanto di più inimitabile esista: il rapporto tra genitori e figli.
Ecco, quindi, l’esigenza di un vaglio quanto mai attento della personalità dei
potenziali genitori, capace di rapportarne ogni parola, ogni gesto, persino
ogni silenzio al ruolo di padre e madre che si candidano a svolgere.
Ebbene, apprendere che in Florida persino quella scelta (sia pur nelle sole
fasi preliminari) sia stata affidata da alcune associazioni agli algoritmi,
rende meglio di ogni altro esempio l’idea della pervasività dell’intelligenza
artificiale nelle nostre esistenze quotidiane e nelle nostre relazioni
interpersonali.
In proposito, molte sono le letture possibili: suggeriamo in particolare Intelligenza
artificiale. L’impatto sulle nostre vite, diritti e libertà di
Alessandro Longo e Guido Scorza, pubblicato da Mondadori nel 2020. Se, infatti,
è da promuovere il ricorso “benefico” all’intelligenza artificiale in ogni
campo (ad esempio per migliorare la diagnosi o la terapia di determinate
patologie) è essenziale, però, avere chiaro il limite oltre il quale non si può
(e non si deve) «fare tutto ciò che si può fare».
Un caso su cui riflettere è quello dell’uso dell’intelligenza artificiale a
fini investigativi. Gli autori dell’assalto a Capitol Hill del 6 gennaio scorso
verrebbero identificati, a quanto è dato sapere, grazie ai software di
riconoscimento facciale forniti da Clearview, società specializzata del
settore, a partire da un database di 3 miliardi di immagini “rastrellate” tra
le tracce disseminate in rete. E questo, nonostante le carenze di tali tecniche
riscontrate già nel 2019 dal National Institute of Standards and Technologies,
secondo cui il tasso di errore nell’identificazione biometrica è molto più
elevato – da 10 a 100 volte – nel caso degli afroamericani e degli asiatici. In
Italia, nel novembre scorso, è stato adottato un bando di gara per individuare
il miglior sistema di riconoscimento facciale da utilizzare in tempo reale
nell’identificazione di persone straniere.
Il Ministro dell’Interno Luciana Lamorgese, in risposta a un’interrogazione
parlamentare del deputato Filippo Sensi, ne ha escluso l’utilizzo nei confronti
dei migranti. Per altro, le stesse tecniche erano state già utilizzate dalla
Polizia di Stato nel 2018, in occasione dell’arresto di due cittadini
georgiani, accusati di furto in appartamento. E sarebbe interessante capire se
il successivo giudizio abbia confermato o meno il “sospetto” del software.
Le dichiarazioni, ormai così frequenti, sull’opportunità dell’estensione del
riconoscimento facciale ad altri ambiti (dagli stadi agli aeroporti) ci
proiettano in una dimensione dalla quale è facile precipitare, senza colpo
ferire, in una società “biosorvegliata”. Qualcosa di simile, potenzialmente, a
quanto accade in Cina, dove telecamere installate ovunque registrano ogni più
minuto movimento. Ne consegue una domanda: ci si può fidare degli algoritmi?
Perché il pericolo connesso a questo tipo di tecniche è, innanzitutto, quello
dei falsi positivi: e, quindi, dell’individuazione e stigmatizzazione di
soggetti del tutto innocenti.
Come a Detroit, la scorsa estate, quando, per un furto di cinque orologi, venne
arrestato un afroamericano del tutto estraneo ai fatti a causa di un errore
dell’algoritmo di riconoscimento facciale utilizzato dalla polizia. «Spero che
non siate convinti che tutti i neri si somiglino» è stato il commento
dell’uomo. Commento che, per la verità, andrebbe rivolto, prima che alla
polizia, a chi ha progettato quell’algoritmo maldestro. Insomma, il pericolo della
profilazione etnica, sia pur solo preterintenzionale, è assai elevato: tanto
più se tali tecniche sono correlate al potere coercitivo e alle diverse forme
di privazione o limitazione della libertà.
Più in generale, si avverte il rischio di cristallizzare negli algoritmi,
persino amplificandoli, i pregiudizi che già ci condizionano, alimentando una
vera e propria “tecnologia del sospetto”, e del sospetto fisiognomico. La
tendenza oggi prevalente è quella a ritenere gli algoritmi come neutri, e per
ciò virtualmente infallibili, imparziali e, in una parola, “giusti”, molto più
di quanto lo possa essere l’umana, troppo umana, razionalità “naturale”. Accade
così che, dagli stessi algoritmi, si facciano dipendere decisioni sempre più
significative per la vita individuale e collettiva, smarrendo il senso del
limite che invece va posto con risolutezza di fronte all’inarrestabile volontà
di potenza della tecnica.
E il primo limite che l’intelligenza artificiale deve rispettare è quello della
non discriminazione, per evitare di rendere talmente regressivo da apparire
distopico ciò che invece può e deve rappresentare uno strumento di progresso
sociale e persino, se ben utilizzato, di riduzione delle diseguaglianze. Si
pensi alla condanna a sei anni inflitta in Wisconsin a un afroamericano per
effetto, tra l’altro, della prognosi di recidiva, stilata da un algoritmo
incline ad assegnare ai neri un tasso di pericolosità maggiore di quello
attribuito ai bianchi. Presumibilmente, il giudizio umano sarebbe stato, in quel
caso, assai meno “lombrosiano” di quanto sia stata, invece, la fredda
razionalità artificiale.
Il problema, allora, non è tanto e non è solo se il diritto sia – come scriveva
Francesco Carnelutti – «materia ribelle ai numeri», ma è che forse dobbiamo insegnare
all’algoritmo a “pensare”, liberando noi, assieme a lui, di tutte quelle forme
di intolleranza che una democrazia matura non può tollerare. Dietro tutto ciò,
emerge la domanda – tenace e molesta come un rovello – che accompagna le
peripezie e i dilemmi delle democrazie mature: come conciliare l’innovazione e
le sue mirabolanti potenzialità con la tutela rigorosa delle garanzie
individuali e dei diritti sociali? È un interrogativo a cui è arduo rispondere,
ma che è impossibile eludere.
FONTE: DI LUIGI MANCONI E FEDERICA RESTA/ REPUBBLICA / ROBINSON


Nessun commento:
Posta un commento