L'esperto risponde / Tecnologia

Andrea Galluzzi

Ingegnere elettronico-informatico, ha ricoperto vari ruoli in ambito ICT e sviluppo software. È laureato anche in Filosofia (Università degli studi di Perugia) e in Ontologia Trinitaria (Istituto Universitario Sophia, Loppiano Firenze).

Attualmente è impegnato in un dottorato di ricerca nell’ambito della Filosofia della tecnica  e docente nel corso Umano e Tecnoscienza. Elementi di analisi della società, presso l’Istituto Universitario Sophia.

 

Vedi tutti gli esperti
Tecnologie dirompenti

Intelligenza artificiale e ChatGPT

Da un po’ di tempo sento parlare, quasi ossessivamente, di ChatGPT. Mi può spiegare di cosa si tratta? Giovanni

ChatGPT (AP Photo/Richard Drew)

ChatGPT è un sistema di modellizzazione linguistica basato su Intelligenza Artificiale (IA) prodotto dalla startup californiana OpenAI e rilasciato al pubblico nel novembre 2022. Il sistema è in grado di interagire in modo colloquiale con un interlocutore e produrre autonomamente dei contenuti creativi su una vastissima quantità di argomenti diversi, spaziando da un sapere all’altro, in maniera nuova e originale rispetto a quanto visto finora dal grande pubblico.

Grazie alle sue peculiarità, questa tecnologia si sta rapidamente diffondendo come un nuovo modo di accedere alla conoscenza e di sviluppare la creatività, con ripercussioni che nel giro di poco tempo saranno evidenti sui mercati e sulle nostre abitudini. Classificabile come “tecnologia dirompente”, questo strumento ha dimostrato potenzialità tali da mettere in subbuglio i grandi attori del panorama tecnologico, innescando una rincorsa che avrà l’effetto di accelerare ancora di più questa tipologia di innovazione. Il clamore mediatico che si è diffuso dopo l’introduzione di ChatGPT è del tutto condivisibile, ma per inquadrare meglio questo fenomeno e cercare di capire cosa c’è dietro questa tecnologia occorre fare un passo indietro e ripercorrere la storia recente.

Qualche anno fa, dopo decenni di ricerca, le tecnologie legate allo sviluppo dell’Intelligenza Artificiale hanno iniziato a uscire dai laboratori e mostrare risultati sempre più significativi. Lo sviluppo delle reti neurali artificiali e l’evoluzione delle architetture per l’apprendimento automatico hanno via via ampliato le possibilità di queste applicazioni, aprendo il sipario su una scena con luci e ombre, dove alle grandi potenzialità e vantaggi per il bene comune si contrappongono i rischi etici e gli interessi di parte.

Su questo sfondo Elon Musk (patron e fondatore di Tesla e SpaceX), Sam Altman [1] e altri partner decisero nel 2015 di finanziare l’avvio della nuova startup OpenAI, con sede a S. Francisco (nella Silicon Valley), costituendola con un profilo non-profit, in modo da svincolare la ricerca dagli insidiosi interessi economici che avrebbero inevitabilmente condizionato e chiuso i risultati della ricerca a vantaggio di pochi.

I soci fondatori partivano da un’idea ben chiara: l’unico modo di riuscire a controllare eticamente (e strategicamente) una tecnologia per trarne un vantaggio collettivo è quello di renderla aperta e liberamente fruibile, condividendo pubblicamente sia i risultati della ricerca, sia i nuovi standard sviluppati, mantenendo costitutivamente uno spirito di trasparenza e apertura [2]. Accanto agli intenti etici hanno comunque trovato spazio anche interessi economici – non a caso una derivazione delle tecnologie sviluppate da OpenAI si trova nei sistemi per la guida autonoma delle auto Tesla. Già Google, su un altro fronte, aveva derivato Chrome (il software per navigare in rete attualmente più utilizzato al mondo, legato a doppio filo con le sue tecnologie proprietarie) dal progetto Chromium, finanziato da lei stessa nel 2008 per sviluppare un browser libero e dal codice sorgente aperto a tutti.

Comunque sia, il fatto che OpenAI sia nata come un’azienda non vincolata alla necessità di generare ritorni finanziari ha dato peso agli intenti etici iniziali ed ha effettivamente permesso di attivare una ricerca orientata alla condivisione dei suoi progressi, portando indubbi vantaggi globali.

Anno dopo anno, pienamente in linea con i propri obiettivi, OpenAI ha iniziato a produrre strumenti e fornire soluzioni per addestrare i suoi sistemi in maniera sempre più efficiente, condividendo di volta in volta i traguardi raggiunti. Le sperimentazioni che si sono susseguite – tutte documentate e corredate da articoli tecnici e scientifici [3] – hanno tracciato un percorso che ha portato, nel 2018, a dare alla luce un sistema di comprensione del linguaggio basato su un approccio innovativo denominato “Generative Pre-trained Transformer” (GPT) [4] (traducibile con “Trasformatore Generativo Pre-addestrato”) che è riuscito ad ottenere risultati molto incoraggianti. In estrema sintesi, questo sistema unisce tecniche vecchie e nuove su architetture innovative, abbinando metodi di apprendimento artificiale supervisionato (che vedono operatori umani addestrare direttamente la macchina aiutandola ad associare concetti, parole e schemi logici) a metodi di auto-apprendimento senza supervisione.

A meno di un anno di distanza dal primo annuncio, OpenAI ha rilasciato la seconda versione del suo sistema di apprendimento linguistico: GPT-2 [5]. Si trattava di uno strumento piuttosto potente, realizzato come potenziamento del suo diretto predecessore. GPT-2 è stato addestrato con un semplice obiettivo: dato un testo scritto, l’algoritmo doveva poter prevedere le parole successive sulla base di quelle precedenti, generando alla fine un discorso di senso compiuto.

La varietà dell’insieme di dati di origine – cioè la diversità di questo possibile “discorso” di partenza – fa sì che questo semplice obiettivo possa portare a trovare in sé le corrette risposte linguistiche in una grande varietà di domini di conoscenza (potenzialmente tutto lo scibile) in misura direttamente proporzionale alla grandezza dell’insieme di dati iniziale. Ogni IA, infatti, per potere “dire” qualcosa ha bisogno di una base di conoscenza da poter “leggere” e sulla quale applicare i suoi schemi logici. La potenza di un sistema di questo tipo si può quantificare grossolanamente attraverso due elementi: il numero di parametri che lo costituiscono e la dimensione dell’insieme di dati da cui attinge conoscenza. I parametri possono essere immaginati come dei “pesi” che permettono di bilanciare ingressi e uscite della rete neurale consentendo di migliorare la qualità delle risposte. Quanto maggiore è il numero dei parametri, tanto più fitta è la rete e tanto più elevata sarà la precisione con cui verranno fornite risposte sulla base dei dati a disposizione (e proporzionalmente più onerosi saranno i calcoli da effettuare per bilanciare i pesi e addestrare la rete).

GPT-2 ha potuto contare su un sistema di 1,5 miliardi di parametri applicati ad un set di dati costituito da 8 milioni di pagine web. Numeri importanti, che hanno permesso a questo sistema di generare autonomamente interi paragrafi di testo coerente, con prestazioni all’avanguardia nella modellazione linguistica e discrete capacità nella traduzione automatica, nelle risposte alle domande e nel riepilogo di concetti.

Riuscire a far manifestare ad una macchina una capacità linguistica e creativa di questo livello significa essere riusciti a ben rappresentare la conoscenza e dare forma a schemi concettuali in un modo tale da dimostrare capacità di ragionamento. Eppure in questi sistemi non c’è un’auto-comprensione dei concetti, tutto si riconduce a schemi, sequenze di caratteri e freddo calcolo statistico. Tutti elementi che, attraverso un approccio probabilistico, portano all’intuizione meccanica della sequenza di parole in un testo. GPT-2 è stato progettato per fare “semplicemente” questo, riuscendoci comunque molto bene, tanto che i risultati ottenuti hanno favorito nuovi investimenti e attirato altri importanti finanziatori.

Nel 2019 si è verificata dunque una svolta: allo scopo di accelerare la ricerca e attrarre nuovi capitali OpenAI ha costituito strategicamente una sua corporazione a profitto limitato [6], cercando così di capitalizzare i suoi risultati. Pochi mesi dopo – non senza polemiche da parte di altri sviluppatori – l’interesse di Microsoft verso OpenAI si è concretizzato in un finanziamento miliardario e in una partnership per l’utilizzo delle sue strutture di calcolo [7], il tutto recentemente esteso in senso pluriennale e plurimiliardario [8].

Grazie alle nuove disponibilità OpenAI ha potuto sviluppare la terza generazione del suo modello linguistico computazionale, annunciata nel luglio del 2020 [9]. GPT-3 poteva contare su risorse impressionanti: 175 miliardi di parametri e un enorme data set dal quale attingere conoscenza, composto da: l’intero database di Wikipedia in lingua inglese; WebText (un set composto da più di 45 milioni di pagine web appositamente selezionate); Books1 e Books2 (due set non ben specificati composti da milioni di libri disponibili online, in inglese e altre lingue); Common Crowl (uno sterminato archivio che dal 2011 raccoglie dati da internet, una sorta di “scansione” del web composta da petabyte di dati). Tutti numeri destinati comunque a salire ancora vertiginosamente nelle prossime versioni.

Sulla base di GPT-3, nel novembre 2022 OpenAI ha introdotto ChatGPT [10]: un modello di IA che interagisce in modo conversazionale con gli utenti (attualmente è possibile interloquire solo in forma testuale, ma è prevedibile un upgrade vocale nel prossimo futuro). ChatGPT determina il proprio funzionamento a partire da indicazioni fornite in linguaggio naturale, in modo colloquiale e generativo, cioè capace di elaborare contenuti creativi e discorsi specifici sulla base della sua vastissima base di conoscenza. È con ChatGPT che la tecnologia IA di OpenAI – dopo l’interesse mediatico sollevato dalle versioni precedenti – si è veramente presentata al mondo, suscitando clamore e interesse.

Il successo planetario alla base della rapidissima diffusione di ChatGPT sta effettivamente nella sua capacità di generare contenuti creativi. Più che un assistente vocale (come Alexa o Siri, con i quali abbiamo ormai imparato a interagire e che comunque evolveranno nella stessa direzione di ChatGPT), può essere inteso come una sorta di “tutor” che – pur essendo ancora perfettibile – è in grado di fornirci strumenti tali da cambiare alla radice il nostro modo di attingere conoscenza dal web. L’introduzione di questo strumento rappresenta per noi umani un aumento esponenziale di possibilità, similmente a quanto avvenuto con altre tecnologie rivoluzionarie (come la telefonia mobile o il world wide web). L’orizzonte lungo il quale queste possibilità possono muoversi è molto vasto e richiama, ovviamente, nuovi impegni etici.

Le grandi potenzialità di ChatGPT fanno di questo strumento una tecnologia “dirompente”, cioè portatrice di un grado di innovazione tale da modificare in breve tempo le abitudini esistenti introducendone di nuove scalzando tecnologie già affermate e tendendo a stravolgere i mercati. Ed è effettivamente quello che si sta iniziando a vedere in queste ultime settimane: l’applicazione ChatGPT, trainata dal clamore mediatico che si è sollevato intorno a questa vicenda, a soli due mesi dal lancio ha raggiunto a gennaio 100 milioni di utenti attivi conquistando il primato della applicazione con la crescita più rapida nella storia di internet [11].

Per fare un paragone, TikTok per raggiungere lo stesso traguardo ha impiegato circa nove mesi, mentre Instagram più o meno 2 anni e mezzo. Gli strumenti creati da OpenAI si stanno diffondendo a macchia d’olio grazie al fatto che possono essere incorporati con relativa facilità in una varietà di applicazioni, consentendo agli sviluppatori di fornire servizi avanzati che fino a poco tempo fa avrebbero richiesto investimenti troppo ingenti.

Sfruttando la sua partecipazione al progetto, Microsoft ha già iniziato a muoversi per incorporare la nuova tecnologia nel suo motore di ricerca; provocando l’immediata reazione di Google, che il 6 febbraio ha risposto presentando Bard [12]: un progetto IA che aveva finora lasciato in secondo piano un po’ per prudenza e un po’ per strategia di marketing. Una mossa che fa capire come, in brevissimo tempo, sia diventato strategico dotarsi di un “tutor” digitale che oggi è in grado di cambiare il nostro approccio alla conoscenza in rete, ma domani potrà diventare molto più di questo.

Dal modello GPT-3 OpenAI ha già derivato altri sistemi specializzati nella creazione di contenuti in ambiti più specifici: nel mondo delle immagini e dell’arte visiva (con Dall-E e il suo potente successore Dall-E2), dell’informatica (con Codex, un sistema in grado di scrivere autonomamente linee di codice in una dozzina di linguaggi di programmazione differenti, peraltro già incorporato all’interno di ChatGPT), ma anche della matematica, della musica e altro ancora.

La complessità e le potenzialità di questi sistemi sono destinate ad aumentare e a raggiungere traguardi ancora più importanti, modificando non solo il panorama tecnologico, ma anche il modo in cui la tecnologia viene creata vista la possibilità di coadiuvarsi o anche sostituirsi a noi nel processo creativo, facendoci risparmiare tempo ed energia mentale.

Le conseguenze di questa novità dipenderanno dal modo in cui saremo disposti a investire l’energia mentale che avremo risparmiato, nella consapevolezza di sapere che il futuro è sempre nelle nostre mani.

[1] Attuale CEO di OpenAI e presidente del famoso incubatore tecnologico “Y Combinator”, che dal 2005 ha finanziato startup di successo.

[2] OpenAI Charter, 09/04/2018

https://openai.com/charter/

[3] OpenAI Milestones and Research

https://openai.com/blog/tags/milestones/

https://openai.com/blog/tags/research/

[4] A. Radford, K. Narasimhan (et. al.), Improving Language Understanding by Generative Pre-Training, 11/06/2018

https://openai.com/blog/language-unsupervised/

https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf

[5] A. Radford, J. Wu (et. al.), Language Models are Unsupervised Multitask Learners, 14/02/2019

https://openai.com/blog/better-language-models/

https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

[6] D. Coldewey, OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital, TechCrunch, 11/03/2019

https://techcrunch.com/2019/03/11/openai-shifts-from-nonprofit-to-capped-profit-to-attract-capital/

https://openai.com/blog/openai-lp/

[7] Microsoft News Center, OpenAI forms exclusive computing partnership with Microsoft to build new Azure AI supercomputing technologies, 22/07/2019

https://news.microsoft.com/2019/07/22/openai-forms-exclusive-computing-partnership-with-microsoft-to-build-new-azure-ai-supercomputing-technologies/

[8] OpenAI, OpenAI and Microsoft Extend Partnership, 23/01/2023

https://openai.com/blog/openai-and-microsoft-extend-partnership/

[9] OpenAI, Language Models are Few-Shot Learners, 22/07/2020

https://arxiv.org/pdf/2005.14165.pdf

[10] OpenAI, ChatGPT: Optimizing Language Models for Dialogue, 30/11/2022

https://openai.com/blog/chatgpt/

[11] K. Hi, ChatGPT sets record for fastest-growing user base – analyst note, Reuters, 02/02/2023

https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

[12] S. Pichai, An important next step on our AI journey, 06/02/2023

https://blog.google/technology/ai/bard-google-ai-search-updates/

1Risposte
Visualizzazioni
Pagina 1 di 0
Edicola Digitale Città Nuova - Reader Scarica l'app
Simple Share Buttons