Benvenuto a chiunque è alla "ricerca di senso nel quotidiano"



lunedì 12 giugno 2023

Intelligenza artificiale - ChatGPT: una novità da maneggiare con cautela - Intervista a Joël Gombin

Intelligenza artificiale
ChatGPT: una novità
da maneggiare con cautela
Intervista a Joël Gombin

Sul numero giugno-luglio 2023 n° 6-7 / 74 di "Aggiornamenti Sociali" è stata pubblicata l’intervista al sociologo francese Joël Gombin che aiuta a capire effettivamente che cos’è ChatGPT e come si è giunti a questo punto.


Il lancio internazionale di ChatGPT ha acceso l’attenzione dell’opinione pubblica a livello mondiale sull’intelligenza artificiale (AI). Per molti osservatori, si tratta di una tecnologia in grado di rivoluzionare il mondo come a suo tempo ha fatto Internet. In che modo e perché?

Il rilascio di ChatGPT ha cristallizzato e reso tangibili a un pubblico molto vasto i progressi compiuti negli ultimi anni nel campo dell’elaborazione automatica del linguaggio. Tutti hanno potuto constatare che i computer hanno ormai la capacità di generare un linguaggio che assomiglia molto a quello degli esseri umani, tanto che sembrano in grado di portare a compimento compiti cognitivi complessi (comprendere e riassumere un testo, tradurlo, proseguirne la redazione, ecc.). Come aveva già intuito Alan Turing, uno dei padri dell’informatica, dotare il computer di capacità linguistiche e di dialogo avanzate contribuisce a renderlo indistinguibile dall’essere umano.

ChatGPT non è però solo una rivelazione, ma anche un catalizzatore del già rapido sviluppo delle tecniche di intelligenza artificiale, più precisamente note come machine learning, che non riguardano solo il linguaggio ma anche le immagini, sia fisse sia in movimento, il parlato, la musica, ecc. Secondo alcuni, come Yann Le Cun, responsabile dell’AI di Meta, ci troviamo di fronte ai primi passi di un nuovo Rinascimento: possiamo aspettarci che questi progressi tecnologici trasformino profondamente l’economia, come è accaduto negli anni ’80 del secolo scorso con lo sviluppo dei software.

Già oggi l’AI è impiegata in numerosi e svariati campi, che vanno dall’agricoltura, con i droni impiegati per distruggere i parassiti, ai software per la selezione del personale, ma la risonanza mondiale avuta da ChatGPT non ha paragoni. Perché questa applicazione dell’AI ha colpito così tanto sia gli esperti del settore sia le persone comuni? In che cosa consiste?

Il successo di ChatGPT è in gran parte dovuto alla capacità di OpenAI, l’impresa che ha sviluppato questa intelligenza artificiale, di renderla un dispositivo versatile e destinato a un ampio pubblico, a differenza di altri modelli la cui esistenza è stata mantenuta più riservata. Va poi riconosciuto che ChatGPT rappresenta un’innovazione importante sotto due aspetti. Da un lato, gli LLM (Large Language Models), i modelli linguistici di grandi dimensioni utilizzati da OpenAI per GPT 3.5 e GPT 4, costituiscono una svolta per la loro natura massiva (anche se le caratteristiche tecniche di questi modelli non sono ben note, per volere della casa produttrice) e per le loro prestazioni. Dall’altro, l’interfaccia conversazionale proposta agli utenti, la parte di chat di ChatGPT, è resa possibile da una specifica e innovativa forma di addestramento secondario del modello, l’RLHF (Reinforcement Learning from Human Feedback), che spinge il modello di AI a proporre solo affermazioni valutate come “corrette” dagli esseri umani.

Grazie a queste soluzioni tecnologiche, ChatGPT si presenta come un agente conversazionale in grado di rispondere a qualsiasi domanda posta dall’utente e di “conversare” con quest’ultimo, dando l’impressione di essere in grado di svolgere un ragionamento. La capacità di generare testi coerenti, unita a quella di memorizzare il contesto dell’enunciazione, permette a ChatGPT e ai suoi concorrenti, che sono sempre più numerosi, di svolgere un’ampia gamma di compiti, dalla risposta a domande di cultura generale alla generazione di codici informatici e alla creazione di testi letterari. Tuttavia, va sottolineato che ChatGPT fa proprio questo e solo questo: generare testi, sintatticamente e semanticamente coerenti... ma la cui veridicità non è mai garantita, perché non è per questo che i modelli linguistici sono stati addestrati. Si dice che “allucinino”, cioè che possano fare con disinvoltura affermazioni apparentemente plausibili, ma totalmente prive di veridicità.

La storia dell’intuizione che ha portato a ChatGPT e le tappe del suo successivo sviluppo sono particolarmente interessanti per quanto riguarda il modo in cui si concepisce lo svolgimento della ricerca in questo settore e dell’uso dei suoi risultati. L’idea iniziale era di realizzare una realtà non profit, ma alla fine si è passati a un modello di business. Perché è accaduto tutto questo?

ChatGPT è stato sviluppato da OpenAI, fondata alla fine del 2015 da alcuni importanti imprenditori della Silicon Valley, in particolare Elon Musk e Sam Altman (il capo di Y Combinator, l’acceleratore di startup più famoso della Silicon Valley). Inizialmente era un’organizzazione non profit, finanziata tramite donazioni, con l’obiettivo di sviluppare la ricerca sull’AI in modo indipendente dai principali concorrenti, in particolare Google e Facebook, che si temeva potessero monopolizzare una tecnologia il cui potenziale impatto sull’umanità era considerato decisivo. Lo stesso nome, OpenAI, riflette l’ambizione di una ricerca aperta. Tuttavia, a partire dal 2018, l’intera strategia inizia a cambiare, Elon Musk lascia la carica di co-presidente e nel 2019 OpenAI diventa una società commerciale, anche se non genera grossi profitti. In questo cambio subentra un’altra novità: Microsoft diventa il principale partner e investitore. Questo allontanamento dai valori originari continua fino a ciò che abbiamo visto di recente, ovvero il rifiuto, per motivi commerciali, non solo di pubblicare le informazioni di base sui modelli sviluppati, ma anche, a maggior ragione, di renderli open source.

Si possono solo fare ipotesi sulle cause di questo rifiuto, ma proviamo a sottolineare almeno due elementi. Il primo è che una ricerca sull’AI come quella condotta da OpenAI richiede notevoli risorse finanziarie e materiali, ad esempio i server per l’addestramento dei modelli, che pochi soggetti sono in grado di fornire. Tra questi vi è Microsoft, che dispone di liquidità e di un gran numero di server grazie alla sua attività di cloud computing (Microsoft Azure). Secondariamente, la partnership con Microsoft permette di prevedere l’integrazione dei modelli Open AI negli strumenti utilizzati quotidianamente dalle persone: la suite Office, il motore di ricerca Bing, che può così divenire una soluzione più interessante rispetto a Google, ecc. Tutto questo permette di creare una catena di valore più integrata.

Da più parti si sono levate voci preoccupate sulle conseguenze dell’uso di questo tipo di AI a livello sociale e politico. Tanti chiedono di fermarsi e ragionare sulla dimensione etica. Quali sono le ragioni alla base di queste prese di posizione? Quali contromisure possono essere immaginate?

Il dibattito è complesso perché si svolge a più livelli, vi sono preoccupazioni sincere, ma anche false apparenze e ipocrisie. Innanzitutto, chi lancia l’allarme sulle conseguenze di questi modelli di AI, paventando una minaccia alla civiltà e alla stessa vita umana, si avventura su un terreno estremamente incerto: poteva Gutenberg prevedere che la stampa avrebbe portato alla Riforma e alle guerre di religione? D’altronde, se lo avesse saputo, sarebbe stato un motivo rilevante per proibire lo sviluppo di questa innovazione?

In secondo luogo, brandire un ipotetico rischio che le intelligenze artificiali conquistino il mondo è un modo per evitare di affrontare questioni molto più immediate e concrete, come la protezione dei dati personali, i “pregiudizi” degli algoritmi, la proprietà intellettuale, la concentrazione del potere, ecc. Non è detto che chi chiede una pausa nella ricerca in questo ambito o la definizione di normative specifiche non abbia secondi fini, a partire dalla tutela dei vantaggi competitivi. Ad esempio, OpenAI sostiene che l’open source nel campo dell’AI rappresenterebbe un grave pericolo di proliferazione, ricorrendo esplicitamente alla metafora nucleare, mentre molti altri ritengono che l’open source sia la condizione minima per la verificabilità dei modelli, per la lotta ai monopoli e per il controllo esterno sull’AI. Resta poi la preoccupazione su un piano etico, perché questo tipo di modello di AI può svolgere un ruolo sociale estremamente forte, creando e diffondendo un’immagine del mondo attraverso le sue risposte. Di fronte a questi sviluppi non si è però privi di altre risorse, che fanno appello a soggetti diversi da quelli che finora abbiamo ricordato. Penso alle università e alle organizzazioni filantropiche, che potrebbero giocare un ruolo importante, oppure ad altre realtà di ricerca, basate in modo più netto su una dimensione di lavoro in comunità e veramente open source.