L’Europa e l’intelligenza artificiale, tra fiducia nel cambiamento e gestione dei rischi

di Avv. Cristina Arata

Gli esperti ci dicono che davanti a noi ci sono cinque anni, e poi l’IA avrà cambiato il nostro mondo: questo è l’arco temporale in cui saremo chiamati a decidere il rapporto tra l’uomo e una tecnologia capace di simulare i processi dell’intelligenza umana.

Se obiettivo dell’IA è quello di pensare e agire come un essere umano sta a noi, infatti, definire i confini antropologici e valoriali in cui consentirne l’operatività, e quindi il suo ruolo di affiancamento e non di sostituzione dell’umano.

Ma cosa può cambiare?  Tra 5 anni il 60% delle attività lavorative sarà del tutto nuovo. E il 40% di ore lavorate sarà supportato dall’IA. Già oggi un’azienda su due utilizza l’IA. Diventa quindi imprescindibile fare “massa critica” (cfr. Convegno “Intelligenza artificiale, rischi e opportunità”, intervento del ceo di Engineering, Maximo Ibarra, novembre 2023).

L’impatto dell’Intelligenza artificiale generativa da qui al 2030 avrà ricadute globali enormi per la crescita stimate in 16 trilioni di dollari. In Italia si stima un impatto possibile come un PNRR all’anno, quindi parliamo di circa 240 miliardi all’anno, dal punto di vista di supporto alla crescita del nostro Pil” (Rebattoni, Presidente di IBM Italia).

L’Osservatorio Artificial Intelligence del Politecnico di Milano stima che in Italia entro 10 anni le macchine potrebbero svolgere il lavoro di 3,8 milioni di persone. Sei grandi imprese italiane su dieci hanno già avviato qualche progetto legato alla IA e il mercato IA cresce nel nostro Paese in maniera impetuosa: + 52% solo nel 2023 per un valore di 760 milioni di euro. Restano indietro le piccole e medie imprese: solo il 7% sta riflettendo su potenziali applicazioni e solo il 2% ha attivato almeno una sperimentazione.

Per questo secondo alcuni osservatori (Stefano Soliano, general manager di ComoNexT e vicepresidente di InnovUP) non si può parlare di sviluppo della IA “solo come un fenomeno tecnologico, ma anche come un fenomeno sociale. Le regole attuali del contratto sociale dell’Occidente diventano inadeguate rispetto allo sviluppo della IA, non foss’altro che per la distribuzione della ricchezza. Il rischio enorme è che l’avvento della IA porti a un’apertura molto maggiore della forbice delle disuguaglianze, bisogna quindi ripensare alle regole del vivere comune. Occorre capire chi si accaparrerà i ricavi in arrivo dall’uso della IA nell’ambito del marketing e della produzione, … cercando un meccanismo di ridistribuzione alla comunità” (Avvenire, domenica 3 marzo 2024, intervista realizzata da P.M. Alfieri).

Le istituzioni europee sembrano, quindi, muoversi nella giusta direzione laddove avvertono l’urgenza di dotarsi di nuove regole, di analizzare rischi e potenzialità, e di sviluppare la capacità critica di persone e istituzioni sull’uso di queste tecnologie. Vi è tuttavia un punto debole: l’Europa si affida oggi a strumenti realizzati altrove (Cina o USA) mentre sarebbe auspicabile uno sviluppo europeo di tecnologie di base della IA.

L’IA utilizza il ragionamento, l’apprendimento, la pianificazione e la creatività, comprende il proprio ambiente, si mette in relazione con quello che percepisce, risolve i problemi in funzione di obiettivi specifici. Raccoglie i dati, li processa e risponde. Adatta il proprio comportamento analizzando gli effetti delle azioni precedenti, e tutto questo in autonomia.

Vari tipi di applicazione di IA sono già parte della nostra quotidianità: assistenti virtuali, software di analisi e traduzione automatica, motori di ricerca, sistemi di riconoscimento facciale o vocale, robot, veicoli autonomi, droni, domotica, ottimizzatori di uso dell’energia, ecc.

Alcune applicazioni avranno senza dubbio ricadute positive: nella ricerca medico sanitaria l’IA consente di analizzare quantità enormi di dati per trovare corrispondenze e modelli per migliorare diagnosi e prevenzione. Nella filiera agro alimentare si studiano applicazioni volte a minimizzare l’uso di pesticidi e fertilizzanti, di ottimizzare l’irrigazione ecc.

Ma è evidente che la creazione dell’algoritmo, il suo funzionamento e le sue ricadute possono anche incidere negativamente su persone, gruppi di persone, Paesi, il mondo intero. Stiamo comprendendo il ruolo dell’IA nei conflitti: dalla progettazione e realizzazione delle armi, alla guerra cibernetica.

Il dilemma è anzitutto come approcciare questa tecnologia: timore o fiducia?

L’UE ha scelto di incentrare la regolamentazione dell’IA sulla fiducia, valorizzando le possibilità di ottenere un miglioramento sostanziale e diffuso della qualità della vita e di governare la complessità dei problemi che caratterizzano la nostra epoca storica.

Ma senza ingenuità. È chiara infatti l’esigenza di garantire al contempo sicurezza e diritti fondamentali: il modo in cui affrontiamo e affronteremo l’IA definirà il mondo in cui vivremo in futuro. 

Negli ultimi anni la strategia europea è stata diretta a rendere l’UE un hub di livello mondiale per l’IA e a garantire che l’IA si costruisca come tecnologia affidabile, incentrata sull’uomo e rispettosa della sua dignità.

A dicembre 2023 la Presidenza del Consiglio Europeo e i negoziatori del Parlamento Europeo hanno raggiunto un’intesa sul c.d. Regolamento sull'intelligenza artificiale; a gennaio 2024 la Commissione europea ha adottato la comunicazione AI@EC,. Questa primavera il Parlamento Europea dovrà adottare l’IA Act.

L’obiettivo delle istituzioni europee era raggiungere un punto di equilibrio tra la volontà e necessità di stimolare l'innovazione della tecnologia IA  e salvaguardare al contempo il rispetto dei diritti fondamentali delle persone, dell’ambiente, degli ecosistemi.

Gli attori sia pubblici che privati dovranno utilizzare una IA sicura ed affidabile in tutto il mercato unico dell'UE. La valutazione di sicurezza e la relativa normazione seguirà un approccio "basato sul rischio": tanto maggiore è il rischio, quanto più rigorose saranno le regole.

L’ambizione europea è l’individuazione di uno standard globale di regolamentazione dell'IA, capace di operare anche in altre giurisdizioni, come è accaduto ad es. per il regolamento generale sulla protezione dei dati personali, promuovendo in tal modo l'approccio europeo alla regolamentazione dell’IA sulla scena mondiale.

Anzitutto il regolamento opererà solo nei settori che rientrano nell'ambito di applicazione del diritto dell'UE. Non inciderà in ogni caso sulle competenze degli Stati membri in materia di sicurezza nazionale. Né si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Non si applicherà infine ai sistemi di IA utilizzati solo a scopo di ricerca e innovazione o alle persone che utilizzano l'IA per motivi non professionali.

La normativa distingue vari livelli di rischio, a seconda che i sistemi di IA possano o meno causare gravi violazioni dei diritti fondamentali o altri rischi significativi.

Il rischio non incide di per sé sull’autorizzazione all’utilizzo. Ma i sistemi di IA ad alto rischio saranno soggetti ad una serie di requisiti ed obblighi per ottenere accesso al mercato dell'UE.

I sistemi di IA che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza più leggeri (ad es. rendere noto che il contenuto è stato generato dall'IA), affinché gli utenti possano prendere decisioni informate in merito all'ulteriore utilizzo.

Per alcuni usi dell'IA, il rischio invece è considerato inaccettabile: saranno vietati dall'UE la manipolazione comportamentale cognitiva, lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l'orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.

Per quanto riguarda l'uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, saranno previsti i casi in cui tale uso potrà essere ritenuto strettamente necessario a fini di contrasto e in cui le autorità di contrasto potrebbero essere eccezionalmente autorizzate ad utilizzare tali sistemi. Tutele saranno previste a favore delle vittime di determinati reati, per la prevenzione di minacce reali, presenti o prevedibili, come attacchi terroristici, e per la ricerca di persone sospettate dei reati più gravi.

Regole specifiche verranno individuate per i sistemi di IA che possono essere utilizzati per molti scopi diversi (c.d. IA per finalità generali).

Verranno concordate regole specifiche per i modelli di base, ossia i grandi sistemi in grado di svolgere con competenza un'ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici: dovranno rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato.

Se i modelli di base saranno "ad alto impatto", ossia addestrati con grandi quantità di dati e di complessità, la normazione dovrà essere rigorosa considerando la capacità e le prestazioni avanzate ben al di sopra alla media di tale tecnologia, che possono diffondere i rischi sistemici lungo la catena.

Infatti, i sistemi di IA sono sviluppati e distribuiti attraverso catene complesse, per cui si è reso necessario chiarire i principi di assegnazione delle responsabilità e i ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti di sistemi di IA.

Ovviamente era necessario individuare criteri sufficientemente chiari per distinguere l'IA da sistemi software più semplici: l’UE seguirà l'approccio proposto dall'OCSE.

Con riferimento ai sistemi di IA per finalità generali, è stato istituito un Ufficio per l'IA all'interno della Commissione europea, incaricato di supervisionare i modelli di IA più avanzati, contribuire a promuovere norme e pratiche di prova e a far rispettare le norme comuni in tutti gli Stati membri. Un gruppo scientifico di esperti indipendenti fornirà consulenza all'Ufficio per l'IA contribuendo allo sviluppo di metodologie per valutare le capacità dei modelli di base, fornendo consulenza sulla designazione e sull'emergere di modelli di base ad alto impatto, monitorando i possibili rischi materiali di sicurezza loro connessi.

È stato istituito il Comitato per l'IA, composto da rappresentanti degli Stati membri, con funzione di  coordinamento e consultiva della Commissione, al fine di attribuire un ruolo importante agli Stati membri anche nell'attuazione del regolamento, compresa la progettazione di codici di buone pratiche per i modelli di base.

Sarà infine istituito un Forum consultivo per i portatori di interessi (rappresentanti dell'industria, PMI,  start-up, società civile e mondo accademico ecc.), che potrà fornire contributi tecnici al Comitato per l'IA.

Le sanzioni pecuniarie per le violazioni del regolamento sull'IA sono state fissate in misura percentuale sul fatturato annuo globale nell'esercizio finanziario precedente della società responsabile dell’illecito (con delle soglie minime): es. il 7% per le violazioni relative ad applicazioni di IA vietate, 3% per violazioni degli obblighi del regolamento sull'IA e l'1,5% per la fornitura di informazioni inesatte.

Si prevede poi la valutazione d'impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio sia immesso sul mercato dai suoi operatori. Sul piano della trasparenza l’uso di questi sistemi prevede anche la preventiva registrazione nella banca dati dell'UE .

Resta comunque fondamentale promuovere l’innovazione: sono stati regolati spazi di sperimentazione che dovrebbero creare un ambiente controllato di sviluppo, di prova e convalida di sistemi di IA innovativi.  Sono  state aggiunte disposizioni che consentono di testare i sistemi di IA in condizioni reali, nel quadro di condizioni e tutele specifiche.

L'accordo provvisorio prevede che il regolamento sull'IA si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

Le prossime tappe prevedono la definizione del testo del regolamento, che la presidenza sottoporrà ai rappresentanti degli Stati membri (Coreper) per l’approvazione una volta conclusi i lavori.

Il testo integrale dovrà essere confermato da entrambe le istituzioni e sottoposto alla messa a punto giuridico-linguistica prima dell'adozione formale da parte dei co-legislatori.

Allegati

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli