Etica, Diritto e Intelligenza Artificiale in Europa ai tempi del COVID

Cristina Arata, Avvocato in Castelfranco Veneto

Lo sviluppo scientifico e tecnologico di questo nuovo millennio è senza dubbio caratterizzato dal progressivo diffondersi dell’uso di processi decisionali automatizzati ed algoritmici, che hanno ormai un impatto diretto non solo sulle scelte dei singoli individui, ma anche sulle decisioni delle autorità pubbliche. 
Questa tendenza all'automazione rende necessario governare il fenomeno, esigendo che tutti i soggetti coinvolti (dalla fase di studio alla commercializzazione delle applicazioni di Intelligenza Artificiale) integrino fin dal principio gli aspetti relativi all'etica, alla sicurezza e alla responsabilità giuridica: l'uso dell'IA non è di per sé garanzia di verità o di equità, perché si possono verificare distorsioni nel processo di raccolta dei dati e di scrittura dell'algoritmo e nel suo successivo sviluppo applicativo. 
I servizi e prodotti basati sull'IA necessitano, infatti, di connettività, di libero flusso di dati, di accessibilità ai dati e rendono la cybersicurezza un aspetto fondamentale per garantire che questi dati non siano deliberatamente alterati o usati impropriamente.
L’apprendimento automatico che è alla base dello sviluppo della IA pone, inoltre, delle sfide in termini di garanzia di non discriminazione, di trasparenza e di comprensibilità dei processi decisionali: da tempo le piattaforme commerciali di IA sono passate ad applicazioni reali nei settori della salute, dell'ambiente, dell'energia e dei trasporti. Anzi le tecniche di apprendimento automatico sono il fulcro di tutte le principali piattaforme web e delle applicazioni basate sui megadati.
Nell’ambito dell’assistenza sanitaria, ad esempio, le applicazioni dell'IA e della robotica possono spaziare dalla gestione di cartelle e dati clinici, all'esecuzione di compiti ripetitivi (analisi di esami, raggi X, TAC, inserimento di dati), all’elaborazione della terapia, alle visite digitali (come visite mediche basate sull'anamnesi personale e sulle conoscenze mediche comuni), al personale infermieristico virtuale, alla gestione e creazione di farmaci, alla medicina di precisione (la genetica e la genomica cercano mutazioni e legami con le malattie partendo dalle informazioni contenute nel DNA), al monitoraggio della salute, all’analisi del sistema di assistenza sanitaria ecc.
Di qui le profonde preoccupazioni di natura etica, psicologica e giuridica, quanto all'autonomia dei robot, alla loro ovvia mancanza di empatia umana e al loro impatto sulla relazione medico-paziente.
L’autonomia della macchina e la responsabilità per i suoi effetti, ma anche l’individuazione del limite tra ciò che è possibile e ciò che è giusto, richiedono un solido quadro giuridico ed etico per l'IA nell’Unione Europea, centrato sulla persona umana e sul principio fondamentale che "è l'uomo che si serve della macchina”.
Questi i fondamentali assunti della riflessione che dal 2017 le istituzioni europee stanno approfondendo: gli sviluppi nell'ambito dell'IA devono essere concepiti in modo da tutelare la dignità, l'autonomia e l'autodeterminazione degli individui e rispettare i diritti sanciti dalla Carta dei diritti fondamentali e, in particolare, i principi della protezione dei dati, della vita privata e della sicurezza.
Nel febbraio del 2017 il Parlamento Europeo ha adottato una prima risoluzione contenente raccomandazioni alla Commissione Europea sulla robotica. Il documento invitava a valutare la creazione di un’Agenzia per l’IA tenuto conto dei rischi connaturati allo sviluppo di tale tecnologia. 
Nel giugno del 2018 la Commissione Europea è intervenuta, istituendo il programma “Europa Digitale” per il periodo 2021-2027 (COM2018 0434), ed ha pubblicato alcune Comunicazioni ispirate dalla volontà di fare dell’Unione un fronte avanzato dello sviluppo e utilizzo della IA, facendo leva su ricercatori, laboratori, robotica, start-up e industrie a livello mondiale, sul mercato unico digitale, sulla creazione di un gruppo di esperti (denominato AI HLEG) e una AI Alliance (tra persone della società civile, dell’industria e del mondo accademico). 
I 52 esperti di AI HLEG hanno quindi elaborato delle “Linee guida etiche”, pubblicate nell’aprile 2019, e formulato raccomandazioni politiche presentate nel giugno 2019.
Le linee guida hanno introdotto concetti fondamentali.
Per essere affidabile, l’IA deve rispondere a tre requisiti cumulativi: conformità legale, allineamento etico e robustezza sociotecnica. Sul piano etico l’essere umano non può essere considerato come un oggetto da “setacciare, ordinare, segnare, radunare, ammassare, condizionare o manipolare”. Né è ammissibile che la IA produca nuove disuguaglianze: di qui il rispetto dei principi di uguaglianza, non discriminazione e solidarietà volti a proteggere i più fragili.
Quattro gli “imperativi etici” individuati dalle linee guida per una IA affidabile: il rispetto dell’autonomia umana, la prevenzione del danno, l’equità, la “esplicitabilità” (per la quale le informazioni utilizzate e il processo seguito dai sistemi di IA deve essere il più trasparente e tracciabile possibile per le persone direttamente/indirettamente interessate).
Questi imperativi sono stati poi declinati in sette requisiti che i sistemi di IA devono rispettare: la protezione dei dati personali, il perseguimento del benessere sociale e ambientale, la supervisione umana, la trasparenza, la responsabilità, la robustezza tecnica, la protezione della diversità e la prevenzione di pregiudizi e discriminazioni.
Nel dicembre 2019 la Commissione Europea guidata da Ursula von der Leyen ha subito annunciato la volontà di affrontare la sfida etica implicata dallo sviluppo della IA.
Il 19 febbraio 2020 la Commissione ha, infatti, pubblicato un Libro Bianco sull’IA, con il duplice obiettivo di creare un “ecosistema di eccellenza” e un “ecosistema di fiducia” (quindi eticamente allineato):  la strategia europea per i dati si basa su un cloud federato, una nuova partnership pubblica-privata sull’IA e un quadro normativo flessibile e agile nelle applicazioni “ad alto rischio” in settori quali la sanità, i trasporti, la polizia e la giustizia. Non ultimo lo sviluppo di settori avanzati di mercato, come quello delle soluzioni neuromorfiche (soluzioni che imitano l’architettura neurobiologica del cervello umano) che consentono di automatizzare i processi industriali e le modalità di trasporto. 
Lo scorso 8 aprile 2020 la Commissione Europea ha emanato le linee guida sulla “Trustworthy AI”, (l’intelligenza artificiale “di cui ti puoi fidare”), i cui cardini sono: centralità umana, privacy, benessere sociale e rispetto dell’ambiente, ma soprattutto trasparenza, perché chi utilizza la tecnologia deve essere informato in modo chiaro che sta interagendo con un sistema di IA e non con un essere umano. 
Nell’ultimo anno dall'inizio della pandemia l'UE ha fatto dell'IA una parte del suo pacchetto d'azione anche per combattere il Covid-19. 
L’IA viene utilizzata per rilevare i modelli di diffusione del virus e sviluppare potenziali trattamenti, ed è già utilizzata anche nella ricerca di un vaccino Covid-19. 
La seconda Assemblea europea dell'Alleanza IA, ospitata dalla Commissione europea all’inizio del mese di ottobre 2020, ed è stata incentrata sulle applicazioni utili a combattere la pandemia: dalla formazione di robot intelligenti per prendersi cura dei pazienti infettati da Covid-19, all'uso dell'IA per analizzare le scansioni TC dei polmoni dei pazienti con maggiore efficienza rispetto alla maggior parte dei radiologi, ai robot intelligenti per disinfettare aree ad alto rischio e supportare il personale medico nella fornitura di cure, ai robot utilizzati per facilitare una "telepresenza" per la comunicazione con i pazienti Covid-19 (il robot può essere dotato di una telecamera e uno schermo e guidato nella stanza e nei corridoi dell'ospedale).
Questa pervasività dell’uso della IA rende urgente una normazione robusta e chiara: in assenza di un modello di governance globale sugli aspetti etici dell’intelligenza artificiale, l’Unione europea può diventare un modello legislativo e di sviluppo e ottenere un vantaggio competitivo in questo campo. 
Sul piano normativo è oggi evidente la sintonia tra l’impostazione della Commissione, del Parlamento e del Consiglio Europeo: nel documento di giugno 2020 il Consiglio Europeo recepisce e valorizza le indicazioni della Commissione di febbraio 2020. Occorre rafforzare la sovranità digitale nella UE come terzo polo indipendente da USA e Cina, dare un forte impulso agli investimenti con particolare attenzione ai progetti di infrastrutture ad elevato impatto, che consentiranno all'Europa di divenire un leader nell'innovazione e nella creatività a livello mondiale (5G, blockchain, intelligenza artificiale, cloud e calcolo ad alte prestazioni).
Sul fronte delle competenze digitali occorre favorire il programma Erasmus+ e il programma Digital Europe per accrescere le competenze professionali digitali di base e avanzate.
Sul piano economico l’obiettivo è creare un mercato unico per i dati, dove le informazioni possano circolare liberamente ed in sicurezza. Il Single European Data Space avrà anch’esso bisogno di un apposito quadro normativo, che stabilisca le modalità di accesso, utilizzo e governance dei dati, oltre ad una serie di misure che possano incentivare il data sharing.
La Commissione ritiene, inoltre, importante istituire una valutazione preliminare della conformità per i sistemi di IA ad "alto rischio", prima della loro immissione nel mercato interno dell'UE, al fine di verificarne la conformità con i requisiti di solidità, precisione e riproducibilità, governance dei dati, responsabilità, trasparenza e sorveglianza umana.
Resta poi da ridefinire il quadro dei diritti di proprietà intellettuale (DPI) per migliorare l'accesso ai dati e il loro utilizzo, essenziale per la formazione dei sistemi di IA. 
Altra questione è stabilire criteri chiari per distinguere le applicazioni di IA "a basso rischio" da quelle "ad alto rischio": una determinata applicazione di IA dovrebbe essere considerata ad alto rischio se sia il settore interessato (ad esempio il settore sanitario) sia l'uso previsto comportano un rischio significativo (ad esempio lesioni, decesso). E alcune applicazioni di IA, tra cui il riconoscimento biometrico, dovrebbero sempre considerate ad alto rischio. 
Su questi temi si sta svolgendo in questi giorni (sessione 19 - 25 ottobre) la riunione plenaria del Parlamento Europeo che dovrà pronunciarsi su una risoluzione non vincolante rivolta alla Commissione Europea sui vari aspetti di regolamentazione giuridica della IA.

Allegati

Ok
Questo website usa cookies. Maggiori dettagli