Risoluzione del Parlamento Europeo del 20.10.2020: raccomandazioni alla Commissione e proposta di Regolamento sugli aspetti etici di intelligenza artificiale, robotica e tecnologie correlate

A cura di Cristina Arata, Avvocato in Castelfranco Veneto (TV)

Il Parlamento europeo, riunito in sessione plenaria, alla fine dello scorso mese di ottobre, ha approvato un testo di raccomandazioni alla Commissione europea sulle molteplici tematiche etiche e giuridiche implicate nello sviluppo dell’Intelligenza Artificiale (IA). Ha approvato anche una proposta di Regolamento che prevede, fra l’altro, una preventiva valutazione di rischio e il rilascio di un certificato europeo di conformità etica.
È stata anzitutto ribadita l’essenzialità di norme uniformi per proteggere efficacemente i valori dell’Unione: un quadro normativo efficace basato sulla Carta Europea e sul diritto internazionale in materia di diritti umani, che preveda obblighi giuridici definiti e principi etici per lo sviluppo, la diffusione e l'utilizzo dell'IA, della robotica e delle tecnologie correlate.
Queste tecnologie devono mirare ad accrescere il benessere umano di individui e società, e la regolamentazione deve porre al centro la dignità umana, l'autonomia e l'autodeterminazione dell'individuo, la comprensibilità delle tecnologie e la garanzia che siano al servizio delle persone (e non invece intese a sostituirle o a decidere per loro). Deve promuovere l’equità, l'inclusione e la trasparenza, eliminando le possibilità di danno, le distorsioni e la discriminazione, limitando gli effetti esterni negativi.
Le preoccupazioni da cui muove il Parlamento Europeo è l’evidente asimmetria di conoscenze che sussiste tra coloro che impiegano (creano e sviluppano) le tecnologie di IA e coloro che interagiscono con tali tecnologie e sono ad esse soggetti.  La fiducia dei cittadini europei nell'IA dipenderà non solo dalla certezza del quadro normativo, ma dal suo solido fondamento etico ancorato ai trattati, alla Carta e al diritto derivato dell'UE e fondato sui principi di precauzione, di necessità e proporzionalità, e sulla previsione di una governance chiara e coerente. Un simile quadro normativo dovrà applicarsi all'IA, alla robotica e alle tecnologie correlate, includendo i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie.
Queste tecnologie devono essere non solo guidate da principi etici, ma progettate in modo da rispettare e consentire l'intervento umano e la sorveglianza democratica. Il loro sviluppo, la loro diffusione e il loro utilizzo devono essere al servizio degli esseri umani, devono mirare a migliorare il benessere e la libertà individuale, a preservare la pace, prevenire i conflitti e rafforzare la sicurezza internazionale, massimizzando nel contempo i benefici offerti e prevenendone e riducendone i rischi.
Le opportunità basate sull'IA, la robotica e le tecnologie correlate si basano sui Big Data: è quindi necessaria una massa critica di dati per addestrare gli algoritmi e perfezionare i risultati. Condivisibile è quindi per il Parlamento la proposta della Commissione di creare uno spazio comune dei dati nell'Unione per rafforzarne lo scambio e sostenere la ricerca, nel rispetto delle norme europee in materia di protezione dei dati.
I 24 articoli della proposta di Regolamento “sui principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate” che il Parlamento in sessione plenaria ha votato compongono un quadro normativo europeo di principi etici e obblighi giuridici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate.
L'ambito di applicazione geografico deve coprire tutti gli aspetti dell'IA, tutte le fasi di sviluppo, diffusione e utilizzo nell'Unione, anche nei casi in cui una parte delle tecnologie possa essere situata al di fuori dell'Unione o non avere una sede unica o specifica, come nel caso dei servizi di cloud computing.  In altre parole le norme si applicheranno ai dati utilizzati o prodotti da tali tecnologie, sviluppati, diffusi o utilizzati nell'Unione, indipendentemente dal fatto che i software, gli algoritmi o i dati utilizzati o prodotti da tali tecnologie siano situati al di fuori dell'Unione o non abbiano una specifica ubicazione geografica.
La predisposizione di un quadro normativo europeo certo e di applicazione uniforme è indispensabile per i cittadini, ma anche per sviluppatori ed operatori perché la frammentazione e l’incertezza giuridica possono impedire che queste tecnologie siano liberamente sviluppate, diffuse o utilizzate all'interno dell'Unione e possono essere di ostacolo alla parità di condizioni, al perseguimento del progresso tecnologico e all'esercizio di attività economiche, possono distorcere la concorrenza e ostacolare le autorità nell'adempimento dei loro obblighi. 
L’applicazione uniforme richiede a sua volta una interpretazione uniforme: la proposta di regolamento contiene quindi molte definizioni, fra cui quella di intelligenza artificiale, robotica, tecnologie correlate e riconoscimento biometrico. È "intelligenza artificiale" il “sistema basato su software o integrato in dispositivi hardware che mostra un comportamento intelligente, tra l'altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”.
È "autonomo" “il sistema basato sull'intelligenza artificiale che opera interpretando determinati dati forniti e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni, nonostante il comportamento del sistema sia legato e volto al conseguimento dell'obiettivo impartito e ad altre scelte operate dallo sviluppatore in sede di progettazione”.
Nel concetto di "robotica" rientrano “le tecnologie che consentono a macchine governate automaticamente, riprogrammabili e multiscopo di eseguire azioni nel modo fisico tradizionalmente svolte o avviate da esseri umani, anche ricorrendo a intelligenza artificiale o tecnologie correlate”.
Nel concetto di "tecnologie correlate" rientrano quelle “tecnologie che consentono al software di controllare, con un grado di autonomia parziale o integrale, un processo fisico o virtuale, tecnologie in grado di rilevare dati biometrici, genetici o di altro tipo e tecnologie che copiano o altrimenti utilizzano caratteristiche umane”.
Particolare attenzione viene prevista per le tecnologie ad alto rischio.  L’"alto rischio" è il rischio significativo associato allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate “di causare lesioni o danni a individui o società in violazione delle norme in materia di diritti fondamentali e sicurezza stabilite dal diritto dell'Unione, in considerazione del loro utilizzo o della loro finalità specifici, del settore nel quale sono sviluppate, diffuse o utilizzate e della gravità della lesione o del danno che ci si può attendere”.
Al fine di garantire la natura antropocentrica e antropogenica della IA e tecnologie affini ad altro rischio, la proposta di regolamento prevede che siano sviluppate, diffuse e utilizzate in modo da garantirne il pieno controllo umano in qualsiasi momento.
L’art. 8 elenca le condizioni di sicurezza, trasparenza e responsabilità delle tecnologie ad alto rischio, con particolare attenzione alla necessità che rimangano soggette ad un riesame, una valutazione, un intervento e un controllo significativi da parte dell'uomo, compresa la possibilità di disattivazione e di tornare ad uno stato precedente per ripristinare funzionalità sicure.
Queste tecnologie devono essere resilienti  (assicurare un livello adeguato di sicurezza, rispettare parametri di cybersicurezza proporzionati al rischio individuato, impedire vulnerabilità tecniche che possano essere sfruttate a fini dolosi o illeciti),  sicure  (assicurare l'esistenza di garanzie che prevedano un piano e un'azione di ripiego in caso di rischio per la sicurezza),  affidabili  (allineate alle ragionevoli aspettative dell'utente, per quanto riguarda il conseguimento degli obiettivi e lo svolgimento delle attività per cui sono state concepite, assicurando tra l'altro che tutte le operazioni siano riproducibili), precise (se non sia possibile evitare inesattezze occasionali, il sistema deve segnalare agli operatori e agli utenti, per quanto possibile e attraverso mezzi adeguati, la probabilità che si verifichino errori e inesattezze), facili da spiegare  (così da garantire che i processi tecnici delle tecnologie possano essere riesaminati), trasparenti  (devono informare gli utenti del fatto che essi interagiscono con sistemi di intelligenza artificiale, riferendo debitamente e in maniera esaustiva le capacità, l'accuratezza e le limitazioni di tali sistemi agli sviluppatori, agli operatori e agli utenti dell'intelligenza artificiale), disattivabili (in caso di non conformità alle caratteristiche di sicurezza le funzionalità interessate devono poter essere temporaneamente disattivate e deve poter essere ripristinato uno stato precedente che ristabilisca funzionalità sicure), controllabili (le misure adottate per garantire la conformità alle caratteristiche di sicurezza devono poter essere verificate dalle autorità nazionali di controllo, se del caso, da altri organismi di controllo settoriali a livello nazionale o europeo).
Quanto alle possibilità di distorsioni nell’uso, il regolamento prevede che queste tecnologie debbano essere imparziali, non operare discriminazioni in base a razza, genere, orientamento sessuale, stato di gravidanza, disabilità, caratteristiche fisiche o genetiche, età, minoranza nazionale, origine etnica o sociale, lingua, religione o convinzioni personali, opinioni politiche o partecipazione civica, cittadinanza, status civile o economico, istruzione o precedenti penali. 
La disparità di trattamento tra persone o gruppi di persone potrà essere giustificata solo qualora sussista una finalità obiettiva, ragionevole e legittima che sia al contempo proporzionata e necessaria e nella misura in cui non esista alcuna alternativa che incida in minor misura sul principio della parità di trattamento. 
Queste tecnologie non possono interferire nelle elezioni, né contribuire alla divulgazione di disinformazione, devono rispettare i diritti dei lavoratori, promuovere un'istruzione di qualità e l'alfabetizzazione digitale, non accrescere il divario di genere creando ostacoli alle pari opportunità per tutti e non violare i diritti di proprietà intellettuale.
Di queste tecnologie deve essere anche valutata preventivamente la sostenibilità ambientale, assicurando l'introduzione di misure volte ad attenuare il loro impatto generale in termini di risorse naturali, consumo energetico, produzione di rifiuti, impronta di carbonio, emergenza legata ai cambiamenti climatici e degrado ambientale.
Il regolamento specifica, inoltre, che l'uso e la raccolta di dati biometrici a scopo di identificazione a distanza nei luoghi pubblici, come il riconoscimento biometrico o facciale, comportano rischi specifici per i diritti fondamentali della persona e sono diffusi o utilizzati solo dalle autorità pubbliche degli Stati membri per finalità di interesse pubblico rilevante. Queste autorità garantiscono che tale diffusione o utilizzo siano comunicati al pubblico, proporzionati, mirati e limitati a obiettivi e a un luogo specifici, nonché limitati nel tempo nel rispetto della dignità e dell'autonomia umane e dei diritti fondamentali sanciti dalla Carta, segnatamente il rispetto della vita privata e la protezione dei dati personali.
Il sistema di tutela garantito dal regolamento è soprattutto preventivo:  si fonda anzitutto su una valutazione del rischio delle varie tecnologie che deve essere basata su criteri obiettivi (il loro utilizzo, la loro finalità, il settore nel quale sono sviluppate, diffuse o utilizzate e la gravità delle lesioni o dei danni eventualmente causati), questo perché il loro sviluppo, la loro diffusione e il loro utilizzo comportano in sé il rischio significativo di causare lesioni o danni prevedibili a individui o società, in violazione delle norme in materia di diritti fondamentali e sicurezza stabilite dal diritto dell'Unione. La valutazione del rischio sarà effettuata da una autorità nazionale di controllo appositamente creata.
È anche prevista una valutazione di conformità agli obblighi del regolamento e della normativa europea: l’esito positivo di questa verifica consente il rilascio di un certificato europeo di conformità etica.
La governance di tutto il sistema è ripartita tra Commissione, organismi europei e autorità di controllo nazionali, che opereranno in coordinamento e collaborazione.
Gli Stati membri devono nominare un'autorità amministrativa indipendente con funzioni di autorità di controllo, che avrà la responsabilità di individuare l'intelligenza artificiale, la robotica e le tecnologie correlate considerate ad alto rischio alla luce dei criteri di valutazione del rischio previsti dal regolamento, nonché di valutare e monitorare la conformità di tali tecnologie agli obblighi del regolamento. È altresì responsabile della buona governance delle nuove tecnologie, in coordinamento con la Commissione e/o le istituzioni, gli organi o gli organismi dell'Unione designati a tal fine.
Le autorità nazionali di controllo dovranno instaurare una cooperazione sostanziale e regolare tra di loro, per garantire un'azione transfrontaliera coerente e consentire uno sviluppo, una diffusione e un utilizzo coerenti di tali tecnologie all'interno dell'Unione, nel rispetto dei principi etici e degli obblighi giuridici stabiliti nel regolamento. Devono assistere la Commissione nell'elaborazione di un elenco comune ed esaustivo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, in linea con i criteri previsti nel regolamento. Uniforme deve essere anche la procedura per il rilascio del certificato europeo di conformità etica, inclusa la procedura per la presentazione volontaria delle domande destinate agli sviluppatori, agli operatori o agli utenti di tecnologie considerate non ad alto rischio che desiderino certificare la propria conformità al regolamento.
Le autorità nazionali di controllo nel loro ruolo di governance devono garantire l'incontro del massimo numero di parti interessate (industria, imprese, parti sociali, ricercatori, consumatori e organizzazioni della società civile) e mettere a disposizione un forum pluralistico per la riflessione e lo scambio di opinioni al fine di conseguire conclusioni comprensibili e accurate volte a fungere da guida per la regolamentazione della governance. Devono anche fornire orientamenti professionali e amministrativi e sostegno agli sviluppatori, agli operatori e agli utenti, in particolare alle piccole e medie imprese o alle start-up che incontrano difficoltà nel conformarsi ai principi etici e agli obblighi giuridici stabiliti nel regolamento. 
Il tutto con l’ausilio di linee guida vincolanti formate dalla Commissione e/o da altre istituzioni, organi e organismi competenti dell'Unione, sulla metodologia da utilizzare dalle autorità nazionali di controllo nello svolgimento delle loro attività di valutazione (di rischio e di conformità).
La tutela successiva è invece garantita dal diritto di qualsiasi persona fisica o giuridica di presentare ricorso in caso di lesioni o danni causati dallo sviluppo, dalla diffusione e dall'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie.
Sul piano della responsabilità giuridica, gli sviluppatori che adottano decisioni che determinano e controllano il corso o le modalità di sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, nonché gli operatori che partecipano alla loro diffusione adottando decisioni in merito a tale diffusione ed esercitando il controllo sui rischi associati o traendo vantaggio da tale diffusione, con una funzione di controllo o di gestione, devono essere considerati responsabili per evitare il verificarsi di tali lesioni o danni, rispettivamente adottando misure adeguate durante il processo di sviluppo e rispettando appieno tali misure durante la fase di diffusione. 
Si tratta di tecnologie che, se ben governate e se improntate alla responsabilità sociale, possono contribuire a trovare soluzioni che tutelano e promuovono la democrazia, la salute e la prosperità economica, la parità di opportunità, i diritti sociali e dei lavoratori, la pluralità e l'indipendenza dei media e l'obiettività e la disponibilità delle informazioni, che consentono un dibattito pubblico, la qualità dell'istruzione, la diversità culturale e linguistica, l'equilibrio di genere, l'alfabetizzazione digitale, l'innovazione e la creatività. 
Possono sostenere l'inclusione sociale, la democrazia, la pluralità, la solidarietà, l'equità, l'uguaglianza e la cooperazione, e il loro potenziale in tale contesto dovrebbe essere massimizzato e studiato attraverso progetti di ricerca e innovazione. 
Il rapido sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, nonché dell'apprendimento tecnico automatico, dei processi di ragionamento e delle altre tecnologie alla base di tale sviluppo è imprevedibile. È pertanto opportuno e necessario istituire un meccanismo di riesame in base al quale, oltre alla relazione sull'applicazione del regolamento, la Commissione presenti periodicamente una relazione concernente l'eventuale modifica dell'ambito di applicazione del regolamento stesso. 
La Commissione dovrà, quindi, trovare una soluzione appropriata per strutturare questo coordinamento a livello di Unione, al fine di coordinare i mandati e le azioni delle autorità nazionali di controllo in ciascuno Stato membro, valutando il rischio dell'intelligenza artificiale, della robotica e delle tecnologie correlate, istituendo un quadro comune per la governance in relazione allo sviluppo, alla diffusione e all'utilizzo di tali tecnologie, elaborando e rilasciando un certificato di conformità ai principi etici e agli obblighi giuridici previsti dal regolamento, favorendo scambi regolari con le parti interessate e la società civile e creando un centro di competenze che riunisca singoli esperti ed esponenti del mondo accademico, della ricerca e dell'industria per favorire lo scambio di conoscenze e competenze tecniche.
Dovrà, infine, promuovere l'approccio dell'Unione attraverso la cooperazione internazionale e garantire una risposta coerente in tutto il mondo per quanto riguarda le opportunità e i rischi inerenti l’intelligenza artificiale.

Allegati

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli