In che mondo vivremo fra cinquant’anni? Ci aspetta un futuro in cui alle macchine saranno affidate tutte le attività materiali e intellettuali oggi svolte dagli uomini? E che conseguenze ci saranno sull’umanità? Vivremo in un mondo fatto di immagini con persone incapaci di concentrarsi e di elaborare pensieri complessi (lo faranno le macchine al loro posto…). Si tratta di scenari che, con il diffondersi di sistemi di intelligenza artificiale generativa, non sono più fantascientifici. Da Deep Blue contro Sacharov (era il 1996) l’esperienza degli scacchi ci insegna che nessun essere umano, nemmeno il più dotato, può competere con la macchina nel gioco che più è rappresentativo dell’intelligenza umana. Sotto un diverso profilo, già oggi sono disponibili sistemi di guida automatizzata di autoveicoli, e molte operazioni delicate sono già, almeno parzialmente, automatizzate. A tendere, tutte le attività più complesse (dalla guida di autoveicoli alle operazioni delicate sul corpo umano) verranno quindi svolte con maggiore sicurezza e minore rischio dalle macchine (e questo è un bene).


Il percorso della normativa Ue sull’intelligenza artificiale

Il tema posto dai sistemi di AI generativa è, però, che i processi logici da essi seguiti per svolgere una determinata attività – più o meno complessa – non sono ricostruibili ex post, e quindi non sapremo perché è stato scelto di svolgere quella determinata attività in un certo modo e non in uno diverso. In altre parole, dipenderemo da decisioni delle macchine di cui non sapremo l’origine, non sapremo ricostruire il percorso, e alle quali non sapremo offrire alternative. Questo spiega perché è così importante che, per il tramite del commissario europeo al Mercato Interno, Thierry Breton, l’Unione Europea – che ha discusso del tema della normazione dell’intelligenza artificiale fin dal 2018 – abbia nei giorni scorsi comunicato di avere raggiunto un accordo sull’approvazione dell’AI Act, la normativa europea sull’intelligenza artificiale (il testo verrà reso disponibile solo nelle prossime settimane). L’accelerazione degli ultimi giorni è il frutto della consapevolezza che – con le imminenti elezioni europee – un rinvio avrebbe rappresentato probabilmente la definitiva pietra tombale sulla regolamentazione dell’intelligenza artificiale, ciò che, in un momento di grandissima diffusione di sistemi di AI generativa tipo Chat GPT, non era accettabile.


Si tratta quindi di una buona (anzi ottima!) notizia, non foss’altro perché siamo i primi al mondo (e questo dovrebbe renderci orgoglioso di essere europei) anche se, come sempre quando si parla di regolamentazione europea, il bicchiere è mezzo pieno. L’accordo risulta infatti dal compromesso fra la posizione della Commissione, che avrebbe voluto limiti più stringenti soprattutto per i sistemi di intelligenza artificiale generativa, e quella del Consiglio, che rappresenta i singoli Stati, che spingeva per l’adozione di codici di condotta per lo sviluppo dei modelli di fondazione, così da non danneggiare l’industria europea. Inoltre, le norme in questione entreranno in vigore non prima di due anni dalla pubblicazione del testo in Gazzetta Ufficiale, e quindi rischiano di nascere “vecchie”. Ma vediamo più nel dettaglio di cosa si tratta.

L’AI Act dell’Unione europea

Innanzitutto, le nuove norme proposte dalla Commissione prendono le mosse da un approccio basato sul rischio associato ai diversi sistemi di AI. In particolare, si va dai sistemi a rischio minimo (Minimal risk), come ad esempio i sistemi di raccomandazione dei contenuti, rispetto ai quali è previsto che le imprese possano adottare codici di condotta su base volontaria, a sistemi a rischio inaccettabile (Unacceptable risk), categoria nella quale rientrano tutti quei sistemi di AI considerati una minaccia per i diritti fondamentali delle persone, che quindi saranno totalmente vietati. Leggendo le tipologie di applicazioni che rientrano in quest’ultima categoria, l’impressione è quella di una rassegna delle derive viste in alcune serie tv o film. Parliamo di sistemi che consentono ai governi o alle aziende di attribuire un «punteggio sociale», alla Black Mirror, ma anche di certe applicazioni di polizia predittiva, concetto che ricorda parecchio Minority Report. Saranno inoltre vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale a fini di attività di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

Nel mezzo, ci sono poi i sistemi a rischio specifico (Specific Transparency risk), come i chatbot o deep fake, per i quali sono previsti limiti minimi di trasparenza, che devono consentire agli utenti di rendersi conto del fatto che stanno interagendo con una macchina o che sono di fronte a prodotti dell’AI, e i sistemi ad alto rischio (High-risk). Questi ultimi – che riguardano tendenzialmente ambiti critici come i trasporti, l’educazione, la sicurezza dei prodotti, ecc. – saranno sottoposti ad una valutazione di conformità preventiva in quattro step prima dell’immissione sul mercato (fase 1: sviluppo del sistema; fase 2: valutazione di conformità; fase 3: registrazione del sistema in una banca dati dell’UE; fase 4: sottoscrizione di una dichiarazione di conformità). Inoltre, un elenco dei sistemi ad alto rischio verrà allegato all’AI Act e aggiornato regolarmente. Altra novità rilevante è che sono stati disciplinati i sistemi General Purpose (GPAI), che comprendono i modelli linguistici di grandi dimensioni (Large Language Models – LLM) che possono essere adattati a vari compiti. Per intenderci, parliamo di sistemi come Berd, ChatGPT e Midjurney.

Due livelli di obblighi

Per affrontare la questione, la Commissione ha previsto due livelli di obblighi per questi sistemi. In primo luogo, tutti i GPAI dovranno pubblicare una lista dei materiali utilizzati per l’addestramento degli algoritmi, ciò che – almeno sulla carta – dovrebbe consentire ai titolari dei diritti sulle opere utilizzate di difendere o farsi riconoscere i diritti d’autore. I sistemi che pongono rischi sistemici saranno poi sottoposti ad un secondo livello di obblighi. Al momento, i modelli di AI addestrati con una potenza di calcolo totale superiore a 10^25 FLOP vengono considerati di default portatori di rischi sistemici, ma la soglia potrà essere rivista in futuro e aggiornata ai progressi tecnologici. Ad ogni modo, questi sistemi saranno sottoposti ad obblighi più stringenti, tra cui una valutazione del loro impatto sui diritti fondamentali, l’individuazione di strategie di mitigazione dei rischi e l’obbligo di comunicare alla Commissione, che si doterà di un apposito AI Office, eventuali incidenti.

In conclusione, l’accordo sull’AI Act riconosce all’Unione Europea un ruolo di primo piano nella regolamentazione di un settore complesso e intricato come l’intelligenza artificiale. La tanto vituperata Unione Europea ha dimostrato di essere democristianamente capace di sintetizzare posizioni diverse e dare risposte alle esigenze dell’attualità, cercando il bilanciamento migliore tra lo slancio all’innovazione e la necessità di tutelare i diritti fondamentali. Per tornare alle preoccupazioni inizialmente espresse, però, il rischio è che sia poco e tardi, e che comunque si tratti una regolamentazione che riguarda una piccola parte della popolazione mondiale, mentre qui, come in relazione alle misure sul cambiamento climatico, sarebbero più che mai necessarie misure globali.

Leggi anche:      FONTE: