Cinque atenei capofila, coinvolti sinergicamente per cinque aree strategiche di ricerca: Salute e scienze della vita (Università Campus Bio-Medico di Roma); Agricoltura e ambiente (Università degli Studi di Napoli Federico II); Sicurezza e cybersecurity (Sapienza Università di Roma); Industria 4.0 (Politecnico di Torino); Società (Università di Pisa); con il coordinamento del CNR (Consiglio Nazionale delle Ricerche) e dell’Università di Pisa [1].
Si parla di 194 borse di studio ripartite in due cicli consecutivi per gli anni 2021/2022 e 2022/2023, con il coinvolgimento di 61 università e centri di ricerca sparsi su tutto il territorio nazionale: un progetto ambizioso, che si distingue a livello mondiale, animato dallo scopo di formare e mettere al lavoro giovani professionisti nel vasto e articolato mondo delle tecnologie emergenti e delle soluzioni IA (Intelligenza Artificiale).
La formazione specialistica in questo campo è urgente e il valore di questo investimento viene ancora più in risalto se pensiamo al ruolo che l’IA sta assumendo nella soluzione di problemi strategici (in tutti i campi: dalla crisi ecologica, all’analisi dei big data, ai servizi sociali). In parole semplici, l’IA entra in gioco quando, data la complessità di un problema, il tipico procedimento sistematico degli algoritmi non basta più e alla capacità computazionale della macchina occorre affiancare una forma di “intuizione” (alcuni esempi su tutti: la percezione di una situazione di pericolo nei sistemi a guida autonoma; le diagnosi biomediche; il riconoscimento facciale).
Nell’era digitale si sente sempre più il bisogno di capacità “superiori” che possano aiutarci a trovare soluzioni a problemi complessi tipici dell’epoca che stiamo attraversando: un’epoca di transizione in cui – anche se può sembrarci strano – dobbiamo imparare ad interagire con le macchine con una maggiore consapevolezza e ad una maggiore profondità.
Ad aumentare il nostro disorientamento c’è il fatto che nell’accezione comune si tende a dare all’IA lo stesso significato di intelligenza umana, dimenticando che siamo di fronte a dei sistemi progettati con uno specifico obiettivo: tentare di riprodurre artificialmente un comportamento che, se osservato in un essere umano, apparirebbe naturale. Anche se a volte possiamo davvero rimanere persuasi della naturalità dell’IA, il rischio è quello di fermarsi a giudicare solo i risultati, dimenticando l’intenzionalità, la coscienza e la consapevolezza che caratterizzano invece l’agire umano. I risultati comunque contano, e conta anche il fatto che questa tecnologia sta diventando la chiave per lo sviluppo del futuro, sia in termini economici che geopolitici; aspetti in cui l’asticella della competizione internazionale si alza sempre di più.
Sul tema dell’IA come elemento fondamentale per vincere le competizioni geopolitiche se ne parla da anni. Nel 2017 Putin affermava: «Chi svilupperà la migliore intelligenza artificiale, diventerà il padrone del mondo. […] È il futuro, non solo per la Russia ma per tutta l’umanità. Con enormi opportunità, ma anche minacce che sono difficili da prevedere» [2]. Nel discorso del leader russo (pronunciato davanti a migliaia di giovani studenti) non è mancato un richiamo alla collaborazione internazionale, ma quelle parole sono comunque risuonate come una dichiarazione di intenti su uno scenario mondiale che vedeva già schierati Cina e USA: i primi con la dichiarazione di voler raggiungere la supremazia mondiale nel campo dell’IA entro il 2030 [3] facendo leva sugli enormi investimenti dedicati allo sviluppo in questo campo; e i secondi a cercare di fare valere il proprio vantaggio competitivo cullandosi sulle potenzialità della Silicon Valley, mostrando però sempre più difficoltà di fronte all’avanzata orientale [4].
In generale attualmente si sente nascere l’esigenza di creare agenzie nazionali dedicate alle tecnologie avanzate, similmente a quanto avviene negli Stati Uniti con la NSCAI (National Security Commission on Artificial Intelligence) già attivata nel 2019 e già impegnata a sensibilizzare fortemente l’amministrazione Biden e le istituzioni americane sull’impatto della I.A. sull’economia, la sicurezza nazionale e il benessere sociale [5].
L’Unione Europea non si sottrae alla competizione, ma per fortuna, al posto di preoccupazioni belliche o di sicurezza nazionale, sembra mettere l’accento su un approccio etico-partecipativo e sulla adozione di un ecosistema strategico basato sulla fiducia degli Stati membri, delle imprese e dei singoli cittadini, sostenendo con forza la centralità della persona umana [6].
In Italia, in linea con l’approccio europeo, due dei temi trasversali più importanti che caratterizzeranno l’intero dottorato in I.A. sono quelli dell’affidabilità e della fiducia, per sostenere i quali sono stati inseriti nel percorso formativo corsi dedicati a etica, equità, correttezza, sicurezza, giustizia, accettazione sociale dell’I.A. [7], con l’intento di andare incontro agli obiettivi dell’Agenda 2030 per lo Sviluppo Sostenibile [8] (che contiene il piano d’azione sottoscritto nel 2015 da 193 paesi membri dell’ONU).
Dal punto di vista etico lo sviluppo dell’I.A. apre dibattiti su vari fronti: da una parte è necessario confrontarsi sull’utilizzo lecito di questa tecnologia, le cui potenzialità – come ogni strumento nelle mani dell’uomo – possono essere utilizzate bene o male [9]; dall’altra il tema dell’IA porta a riflettere sul significato stesso di persona umana, a volte troppo schiacciata tra derive riduzioniste e post-umaniste che tendono a chiuderla dentro il perimetro della sola attività cerebrale.
Per questo motivo, la questione dello sviluppo di competenze nel campo dell’I.A, oltre a coinvolgere il piano tecnico-scientifico, politico-economico, etico-sociale, coinvolge anche quello antropologico e innesca profonde riflessioni di carattere filosofico e teologico. Accanto alla formazione scientifica e qualitativamente specializzata, che serve per poter gestire le tecnologie emergenti, occorre parimenti formare coscienze alla domanda riguardante il ruolo della scienza e della tecnica, cioè se debbano essere queste a guidare esclusivamente l’uomo e la sua condotta.
Nel formare specialisti e professionisti nel campo dell’I.A. occorrerebbe – oltre ad investire sui temi trasversali di cui si è detto sopra – mettere al lavoro non solo ingegneri, ma anche filosofi e teologi, i quali su questo tema – e di fronte alle derive delle correnti post-umaniste – stanno anch’essi ponendosi domande di senso. Da questo punto di vista la “vecchia” Europa avrebbe (in base alla storia, alla cultura e anche ai propri errori) molto da insegnare.
Al crescere delle capacità dell’IA, la domanda sull’umano ci interpellerà sempre più da vicino e in questo frangente sapremo rispondere solo sulla base di quanto avremo investito nell’incontro fra cultura scientifica e cultura umanistica, il cui reciproco arricchimento può portare alla Cultura (con la maiuscola) e all’approccio integrale di cui siamo alla ricerca.
[2] ‘Whoever leads in AI will rule the world’: Putin to Russian children on Knowledge Day, 2017
https://www.rt.com/news/401731-ai-rule-world-putin/
[3] Cuscito G., “La Cina può superare gli Usa nell’intelligenza artificiale”, 2018
https://www.limesonline.com/rubrica/la-cina-puo-superare-gli-usa-nell-intelligenza-artificiale
[4] AA.VV., “Next Steps for Ensuring America’s Advanced Technology Preeminence”, 2021
[5] Atkinson R.D., “Why the United States Needs a National Advanced Industry and Technology Agency”, 2021
National Security Commission on Artificial Intelligence, Final Report, 2021 https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.
[6] European Commission, “White paper on Artificial Intelligence – A European approach to excellence and trust” , 2020
[7] “IA, l’Italia ha il suo primo Dottorato nazionale”, 2021
[8] https://unric.org/it/agenda-2030/
[9] Galluzzi A., “Il lato oscuro dell’Intelligenza Artificiale”, 2021 http://www.cittanuova.it/lato-oscuro-dellintelligenza-artificiale/