Governare il futuro… delle macchine

All’Università Salesiana una giornata di approfondimento sulle sfide, sempre più urgenti, poste delle nuove tecnologie di Intelligenza artificiale (AI) e Computer quantistici. Il codice etico dell’Unione europea

Se proviamo a chiedere a un cittadino qualunque cosa pensa dell’argomento “Intelligenza artificiale (AI) e Computer quantistici”, la risposta più probabile e immediata è «non so», seguita forse dalla considerazione che è un argomento “difficile”, riservato a scienziati ed esperti di computer.

Ma allora perché il 2019 è l’anno dell’Intelligenza artificiale? E perché l’Università Pontificia Salesiana ha organizzato una giornata di riflessione su questo argomento (vedi sito), invitando contemporaneamente esperti, aziende, enti pubblici, ma anche educatori, formatori, studenti e comuni cittadini? Forse perché siamo tutti utilizzatori di tecnologie (prima fra tutti il cellulare). Solo che negli ultimissimi anni tutte le tecnologie (dall’automobile alla lavatrice, dalle reti di telecomunicazioni a quelle per il trasporto di energia, dagli strumenti di diagnosi medica fino ai satelliti) hanno cominciato ad incorporare gradi crescenti di “intelligenza”, sotto forma di algoritmi sofisticati che non si limitano più ad eseguire qualche banale compito pre-programmato dall’uomo, ma prendono decisioni autonome.

È questa infatti la novità più rivoluzionaria: la programmazione vecchio stile è stata sostituita dalle cosiddette “reti neurali”, capaci di “imparare” dagli sbagli: sono costruite in un modo particolare, infatti, per cui ogni volta che falliscono nell’eseguire un qualsiasi compito (per esempio riconoscere un cane in una foto) modificano il proprio modo di procedere, più e più volte, affinando la ricerca fino ad ottenere l’esito voluto. Insomma in qualche modo “imparano”. Il problema è che sono estremamente veloci e potenti, ma non “capiscono” quello che fanno, per cui sono dipendenti dagli input che ricevono dall’operatore umano. Facciamo un esempio: l’accuratezza di certi algoritmi di riconoscimento facciale è oggi del 95% per gli uomini bianchi e del 34% per le donne di carnagione scura. Questo probabilmente perché in questo momento gli scienziati e gli operatori sono in maggioranza uomini, e bianchi! In altre parole, le reti neurali ripetono i pregiudizi sociali di chi le addestra, solo che li rendono invisibili agli utenti finali.

Un altro problema è la sostituzione degli operai umani con macchine intelligenti. C’è chi prevede che la metà dei posti di lavoro siano a rischio nei prossimi anni, e non solo quelli ripetitivi! Altri, invece, ritengono che le macchine non avranno mai la flessibilità degli umani, per cui solo il 10% degli occupati perderà il lavoro. Chiunque abbia ragione, il problema esiste e va gestito con lungimiranza.

A questo si aggiunge l’altro grande rischio che la società digitale porta con se: il cosiddetto “capitalismo della sorveglianza”. Un’azienda qualsiasi, ormai, non fa soldi solo vendendo gli oggetti che produce, ma soprattutto catturando i dati personali degli utenti e rivendendoli come merce preziosa. Lo fa mettendo intelligenza dentro i prodotti che vende, rendendoli in grado di accumulare informazioni su di me: dal contatore di passi (che registra il mio stile di vita), all’aspirapolvere robot automatico che, girando per casa, comunica al costruttore i metri quadri e i vani di cui è composta la mia abitazione.

Un’altra notazione sulla computazione quantistica: cominciano ad uscire sul mercato i primi prototipi di computer che utilizzano le regole della meccanica quantistica per memorizzare informazioni ed elaborarle. La potenza è tale che problemi fino a ieri ritenuti “non computabili”, diverranno risolvibili. Col rischio, però, di rendere per esempio inutili tutte le procedure di protezione e criptatura dei dati usate finora. Insomma si aprono praterie sconfinate di elaborazione, soprattutto nello studio delle immense moli di dati generate dalla società digitale, per trovare correlazioni e fare previsioni sempre più attendibili non solo sul clima, ma anche sui comportamenti degli umani.

E visto che è così facile modificare i comportamenti degli utenti dei social, per esempio spingendoli a votare per questo o quel politico, cosa succederà quando ci saranno algoritmi ancora più sofisticati in grado di capire quali tasti emozionali usare per manipolarci il cervello? Guardando a certe scelte politiche degli ultimi anni, noi elettori non brilliamo certo per saggezza, per cui ha ragione chi teme più l’intelligenza superficiale (degli uomini), che quella artificiale (delle macchine).

Insomma serve un momento di riflessione. Dove stiamo andando? Anzi, meglio sarebbe chiederci: dove vogliamo andare? Come si capisce, c’è un grosso problema di governance dell’innovazione, sia a livello locale che globale. Quanto potere avrà nelle mani chi gestisce l’AI? La prima a porsi il problema e a rispondere è stata l’Unione Europea, che a fine 2018 ha stabilito i principi per la gestione dell’Intelligenza Artificiale e le norme per renderla affidabile, trasparente e soprattutto a servizio dell’uomo. Tutti gli uomini, non solo alcuni.

Uno dei principi più importanti, la trasparenza, richiede che in qualsiasi momento la macchina deve essere in grado di spiegare perché ha preso certe decisioni. L’obiettivo, se possibile, è che l’AI non diventi un pericolo, cioè una tecnologia che sostituisce (e sottomette) l’umano, ma un supporto, un aiuto, una possibilità di cooperazione. È una questione di “fiducia”, serve un codice etico per lo sviluppo dell’AI. Gestire l’innovazione nel modo giusto, significa avere sempre più team di macchine e umani che lavorano insieme: la macchina ci mette la potenza e la precisione (il “come” fare), l’uomo la flessibilità e la capacità di dare un senso all’attività svolta (il “perché” fare).

Si capisce, a questo punto, l’importanza di una giornata come quella organizzata dall’Università Salesiana: non bastano scienziati e ingegneri per gestire il futuro che arriva velocemente. Servono anche filosofi, teologi, educatori e… giornalisti. Insomma un pizzico di cultura umanistica e una buona dose di saggezza.

Conclude Fabio Pasqualetti, decano della facoltà di Scienze dell’Educazione dell’Università Pontificia Salesiana: «La tecnologia non è mai neutra, fa sempre parte di un progetto. Per esempio, la progettazione di una mina antiuomo non si può dire che sia neutra. Anche nei social: se uso algoritmi mirati al profitto, è già il progetto ad essere sbagliato. È evidente che l’algoritmo può essere usato per cose interessanti, come per esempio aiutare l’oncologo nell’analisi di un tumore, ma può fare anche danni. Quindi, quando si parla di tecnologia, è meglio analizzare sempre anche il contesto, chi ci sta dentro, quali sono le intenzioni e soprattutto se sono finalizzate al bene comune».

Leggi anche

I più letti della settimana

Altri articoli

Simple Share Buttons