L’IA e la tutela dei diritti umani
Il Parlamento Europeo ha approvato il Regolamento sull’Intelligenza Artificiale, promuovendo l’etica e la sicurezza nell’uso dell’IA. Vediamolo insieme
Lo scorso 13 marzo 2024 il Parlamento Europeo ha approvato il Regolamento sull’Intelligenza Artificiale (“AI Act”), definito come il primo quadro normativo al mondo in materia, frutto della mediazione tra le istanze di Parlamento, Consiglio e Commissione Europea.
Dopo anni di consultazioni che hanno coinvolto numerosi esperti e legislatori, l’Europa è infatti stata la prima a regolamentare l’IA dal punto di vista tecnologico, mentre è stata preceduta dalla Cina per quanto riguarda standard normativi nell’ambito della divulgazione e dell’esportazione di tecnologie di IA.
Assumendo un ruolo guida nella regolamentazione dell’IA, l’Europa si propone come punto di riferimento per gli altri paesi. La normativa europea dà priorità all’impatto della tecnologia sulle persone all’interno di un quadro di responsabilità, promuovendo, allo stesso tempo, l’innovazione.
Le sanzioni in caso di violazione della norma vanno fino al 7 percento del fatturato e pertanto la legislazione avrà un forte impatto su tutte le aziende che operano all’estero, che saranno obbligate a conformarsi alla legge. Ci aspettiamo che farà da catalizzatore per i legislatori negli altri paesi del mondo, così come è stato con il GDPR per le normative sulla privacy.
L’originalità del Regolamento sull’Intelligenza Artificiale dell’UE consiste nella classificazione dei sistemi di IA in base ai livelli di rischio che comportano. Sono così considerati a “rischio inaccettabile”, e quindi vietati, tutti i sistemi che costituiscano una minaccia per le persone.
Rientrano in questa categoria i sistemi che producono classificazioni degli individui in base a caratteristiche personali e comportamentali e a inquadramenti socioeconomici e i sistemi di manipolazione comportamentale e cognitiva.
Sono banditi, ad esempio, tutti i sistemi che possono dare luogo a fenomeni di “discriminazione algoritmica”, ossia favorire trattamenti diversi e ingiustificati delle persone in base alla loro etnia, razza, religione, età, sesso, nazionalità e non solo.
Diversi siti di ricerca di lavoro – e lo stesso LinkedIn – hanno dovuto correggere gli algoritmi o realizzare nuovi programmi di IA per contrastare il pregiudizio di genere emerso dall’abbinamento dei candidati con le opportunità di lavoro dopo che è stato rilevato che i risultati privilegiavano candidati uomini rispetto alle donne.
A livello locale, è nota alle cronache l’ordinanza del febbraio 2021 con cui, su istanza di alcune associazioni sindacali, il TAR di Bologna ha bollato come discriminatoria la condotta posta in essere dalla società di food delivery Deliveroo per il fatto di aver adottato un sistema algoritmico che, sulla base del punteggio assegnato ai rider, determinava la loro capacità di poter prestare il proprio lavoro sulla piattaforma.
Ugualmente vietati sono i sistemi di identificazione biometrica, anche in tempo reale e a distanza (in quest’ultimo caso è stata tuttavia introdotta un’eccezione che consente alle forze di polizia di utilizzare tali sistemi in circostanze ben definite).
Il pericolo di un cattivo utilizzo, con ricadute sociali pesanti, è elevato, al punto che il 12 marzo scorso Google ha annunciato che, in via cautelativa, il suo chatbot Gemini non potrà essere utilizzato per ottenere risposte in relazione alle numerose tornate elettorali che si terranno in corso d’anno, ivi incluse le elezioni presidenziali di novembre negli Stati Uniti, le elezioni europee di giugno e quelle indiane di aprile e ciò al fine di scongiurare la diffusione di informazioni non accurate e la creazione di deepfake, ossia di immagini e video creati dall’IA, che possano influire sull’andamento delle elezioni stesse.
A febbraio 2024 Google era già intervenuta per sospendere la funzione attraverso cui Gemini genera immagini dopo che gli utenti avevano segnalato la creazione di immagini storiche errate.
Molto ampio è poi il ventaglio delle applicazioni di IA ritenute ad “alto rischio”. Si tratta in particolare di quei sistemi utilizzati in ambiti sensibili (come la sanità, l’educazione, la giustizia, l’immigrazione, il lavoro) e che, in quanto tali, possono comportare criticità per la tutela dei diritti fondamentali dei cittadini.
In tutti questi casi il Regolamento UE individua una serie di restrizioni per chi progetta, sviluppa e utilizza i sistemi di IA e introduce gli obblighi di valutazione preliminare d’impatto, supervisione umana degli applicativi e chiare comunicazioni all’utenza sui sistemi impiegati. Tali sistemi, inoltre, andranno registrati in un apposito database europeo.
Nel settore sanitario, ad esempio, si pone non soltanto il tema della tutela della privacy dei cittadini, ma anche la questione delle ricadute effettive dell’IA sulla salute delle persone: i sistemi di IA basati sull’apprendimento automatico, infatti, utilizzano un’ampia gamma di dati per definire modelli e previsioni, che tuttavia possono rivelarsi non rappresentativi della popolazione o dell’utente singolo a cui si rivolgono, con la conseguenza che le soluzioni individuate (diagnosi, prognosi, terapie) possono risultare inadeguate, se non dannose o discriminatorie.
Il Regolamento stabilisce inoltre che i sistemi di IA generativa, come ChatGPT, dovranno rispettare i requisiti di trasparenza, dichiarando esplicitamente che i contenuti – testi o materiali audiovisivi – sono stati generati tramite sistemi di IA, escludendo la produzione di contenuti illegali e fornendo dati relativi a eventuali diritti d’autore utilizzati in fase di addestramento.
Infine, in relazione ai sistemi a “rischio limitato” – quelli, ad esempio, che generano o manipolano immagini, audio o video – il Regolamento impone unicamente il rispetto del principio di trasparenza al fine di garantire che gli utenti siano costantemente informati di interagire con l’intelligenza artificiale.
Lo spirito della normativa europea è chiaro e se è pur vero che, a fronte di una realtà in continua evoluzione e sempre più complessa, le potenziali discriminazioni determinate dall’utilizzo dell’IA potranno aumentare, possiamo aspettarci anche ulteriori sviluppi nella regolamentazione dell’IA così come un aumento degli investimenti nell’IA in Europa come effetto di una maggiore fiducia nei suoi sistemi.
Avendo adottato un approccio basato sul rischio che mette in primo piano l’impatto dell’IA, la normativa ha raggiunto il suo obiettivo principale, e cioè quello di obbligare le aziende a far sì che considerazioni di carattere etico siano integrate a tutti i livelli della progettazione e dell’implementazione delle tecnologie di IA, mantenendo così il giusto equilibrio tra l’apertura allo sviluppo di nuove tecnologie IA e la sicurezza dell’utilizzo di tali tecnologie dal punto di vista etico.
Contenuto a cura di Nicoletta Grilli e Marcella Binda di Corporate Risk Watch