Il Parlamento europeo ha approvato la proposta di legge sull’intelligenza artificiale, che rende l’Unione europea (Ue) pioniera nel mondo nell’approvazione di una norma su tale tematica. Per intelligenza artificiale si intende l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Inoltre, cosa estremamente significativa, i sistemi di intelligenza artificiale sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti lavorando in autonomia.
L’intelligenza artificiale può portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile. La priorità per il Parlamento europeo è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell’Ue siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Il Parlamento europeo vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’intelligenza artificiale che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.
I sistemi di intelligenza artificiale a rischio inaccettabile, e pertanto vietati, sono così considerati quando costituiscono una minaccia per le persone. Questi riguardano casi di manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, come ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini, oppure quelli che riguardano la classificazione sociale delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali, infine quelli che riguardano sistemi di identificazione biometrica in tempo reale e a distanza, come ad esempio il riconoscimento facciale
Vengono poi identificati i sistemi di intelligenza artificiale ad alto rischio per la sicurezza o i diritti fondamentali saranno considerati ad alto rischio, suddivisi in due categorie. Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita. Si tratta di quei sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’Ue sulla sicurezza generale dei prodotti, come ad esempio giocattoli, aviazione, automobili, dispositivi medici e ascensori, e quella dei sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database europeo che comprende: identificazione e categorizzazione biometrica di persone, gestione e funzionamento di infrastrutture critiche, istruzione e formazione professionale, occupazione, gestione dei lavoratori e accesso all’autoimpiego, accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi, forze dell’ordine, gestione delle migrazioni, asilo e controllo delle frontiere, assistenza nell’interpretazione e applicazione della legge.
Per quanto riguarda l’intelligenza artificiale generativa, come ad esempio ChatGPT che crea autonomamente testi, questa dovrà rispettare requisiti di trasparenza, rivelando che il contenuto è stato generato da un’intelligenza artificiale, progettando il modello in modo da impedire la generazione di contenuti illegali, pubblicando riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.
I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’intelligenza artificiale. Questo riguarda quei sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, come ad esempio deepfake.

Il commissario europeo Margrethe Vestager parla durante una presentazione sul futuro digitale dell’Europa presso la sede dell’UE a Bruxelles, mercoledì 19 febbraio 2020. (Foto AP/Virginia Mayo)
Secondo Roberta Metsola, presidente del Parlamento europeo, l’assemblea di Strasburgo «ha trovato un’impostazione equilibrata e centrata sulle persone per una legalizzazione che stabilirà uno standard globale per molti anni», osservando di potere essere fieri del ruolo leader dell’Ue in questo settore». Per Margrethe Vestager, vicepresidente della Commissione europea con delega alla concorrenza, «si tratta di momenti storici perché siamo i primi a livello globale a negoziare una legge sull’intelligenza artificiale e c’è un grande impegno per terminare i negoziati entro la fine dell’anno.
Fin dall’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’Ue sull’intelligenza artificiale, proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. Dopo l’approvazione della proposta di legge da parte del Parlamento europeo, inizieranno i negoziati con gli Stati membri nel Consiglio dei ministri dell’Ue per la stesura finale della legge. L’obiettivo è quello di raggiungere un accordo entro la fine del 2023.
La necessità di normare l’intelligenza artificiale, nell’ambito della più ampia normazione dei servizi digitali, è in linea con un’indagine Eurobarometro, quattro europei su cinque ritengono che le tecnologie digitali siano sempre più importanti nella vita quotidiana e che l’Europa debba intervenire maggiormente per garantire la riuscita della trasformazione digitale.
Nello specifico, il 76% degli europei ritiene che una connettività avanzata e una cibersicurezza più forte miglioreranno notevolmente l’uso quotidiano delle tecnologie digitali. Due terzi degli europei chiedono più istruzione e formazione per sviluppare le competenze digitali. Analogamente, due terzi ritengono che le tecnologie digitali svolgeranno un ruolo importante nella lotta ai cambiamenti climatici. Infine, oltre l’80% ritiene che gli Stati membri debbano collaborare maggiormente per far progredire l’accesso alle tecnologie digitali, stimolare l’innovazione e sviluppare un mercato competitivo.
Inoltre, solo la metà degli europei ritiene che i diritti e i principi digitali siano adeguatamente tutelati in Europa e, infatti, il 36% ritiene che sia necessario fare di più e, per quanto riguarda gli ambienti digitali sicuri e il controllo dei propri dati, meno della metà ritiene che l’attuazione dei diritti e dei principi digitali nel proprio paese sia soddisfacente. In particolare, gli europei sono preoccupati per la protezione di bambini e giovani.
_