Benvenuto a chiunque è alla "ricerca di senso nel quotidiano"



giovedì 4 settembre 2025

L’intelligenza Artificiale (ChatGpt) non é in grado di curare la nostra anima, guidare la nostra vita di Umberto Galimberti

L’intelligenza Artificiale (ChatGpt) 
non é in grado di curare la nostra anima, 
guidare la nostra vita 
di Umberto Galimberti


Si può affidare all’intelligenza artificiale la cura dell’anima? Il tentativo è stato fatto, con un certo entusiasmo, dallo psicologo clinico Harvey Lieberman che, come lui stesso riferisce in un articolo del New York Times pubblicato su Repubblica (lo scorso 28 agosto), nella sua lunga carriera ha formato centinaia di medici e diretto programmi e servizi di salute mentale. A 81 anni, Lieberman scopre ChatGpt, basata sull’intelligenza artificiale, dotata di apprendimento automatico e specializzata nella conversazione con l’utente umano. Dopo averla frequentata con una certa soddisfazione, l’ha trovata molto utile fino a definirla «una protesi cognitiva, un’estensione attiva del proprio pensiero».

Questa sperimentazione immagino incuriosisca molti psicologi, in quest’epoca in cui, se non ti entusiasmi delle novità tecnologiche, sei semplicemente uno che vuol rimanere ancorato al passato, spaventato da un progresso che non riesce a controllare e da cui, per questo, si difende. Non temo di essere annoverato in questa categoria, perché non credo che l’intelligenza artificiale sia in grado di superare quel limite ben segnalato nel V secolo a. C. da Eraclito, secondo cui: «Per quanto tu cammini, anche percorrendo ogni strada, non raggiungerai mai i confini dell’anima, tanto è profonda la sua vera essenza».

È possibile affidare la propria anima – e più in generale la conduzione della propria vita – alla valutazione di dispositivi algoritmici, per quanto avanzati, come quelli utilizzati dall’intelligenza artificiale? Aristotele non conosceva gli algoritmi, ma nell’ Etica Nicomachea (Libro VI) dice che, siccome la vita degli uomini è per molti aspetti imprevedibile, per governarla non ci si può affidare a una scienza esatta come la matematica. È invece necessaria quella virtù, la saggezza (phronesis ), che non parte da premesse anticipate in grado di giungere a conclusioni inconfutabili, come nel caso dei teoremi matematici.

L’intelligenza artificiale rinuncia alla “saggezza” aristotelica perché la ritiene uno strumento approssimativo e insufficiente per la conoscenza dei vissuti e dei comportamenti umani, anche se questi variano da individuo a individuo e, all’interno dello stesso individuo, nelle diverse stagioni della sua vita. Per questa ragione, attraverso la raccolta di una gran quantità di informazioni che gli algoritmi elaborano, l’IA ritiene di poter apprendere e generare conoscenze capaci di interpretare vissuti e comportamenti umani, sia nella loro norma che nella loro devianza, in modo da poterli confermare o correggere con risposte adeguate.

L’intento è quello di superare il limite delle tradizionali psicoterapie che – per quanto utili e in molti casi vantaggiose – soffrono comunque di quell’approssimazione che sempre accompagna ogni interpretazione umana. Eppure da Socrate, che proclamava la propria “dottaignoranza”, a Nietzsche, che metteva in guardia quanti non accettano che ci sia qualcosa che non sia conoscibile, emerge una consapevolezza diversa. Nietzsche scrive infatti in Al di là del bene e del male : «Creda pure finché vuole il volgo, che conoscere sia un conoscere esaustivo». L’intelligenza artificiale – o meglio, la fiducia acritica che gli entusiasti assegnano alle capacità di questa intelligenza – ritiene invece di poter superare questo limite.

Ma quale nevrosi si nasconde dietro questa fiducia? La “paura dell’incalcolabile”, direbbe sempre Nietzsche. È la stessa paura che egli scorge in quanti spingono a oltranza la loro esigenza di una conoscenza perfetta, priva di dubbi, approssimazioni e lacune. Scrive in un frammento del 1885: «Quello di cercar la regola è il primo istinto di chi conosce, mentre naturalmente, per il fatto che sia trovata la regola, niente ancora è conosciuto. Vogliono la regola, perché essa toglie al mondo il suo aspetto pauroso. La paura dell’incalcolabile come istinto segreto della scienza».

Eppure, scrive Harvey Lieberman: «Col tempo ChatGpt ha cambiato il mio modo di pensare. Sono diventato più preciso con il linguaggio, più curioso nei miei schemi comportamentali. Il mio monologo interiore ha iniziato a rispecchiare le risposte di ChatGpt: calmo, riflessivo, abbastanza astratto da aiutarmi a riformulare le cose».

A questo punto mi verrebbe da chiedere a Lieberman: dove sono finiti i sentimenti e le emozioni, le proiezioni e gli investimenti affettivi che immagino caratterizzavano la sua attività di psicologo clinico nella sua relazione con il paziente? Non erano forse queste le grandi macchine, per quanto approssimative e non perfette, che portavano –se non alla guarigione – al miglioramento delle condizioni di vita dei suoi pazienti? Non è sfiorato dal dubbio che questi aspetti non rientrano nella logica “lineare” con cui procedono i calcoli algoritmici avanzati di cui si serve l’intelligenza artificiale, perché, se presi in considerazione, disturberebbero il sistema?

Mi domando: se si diffondesse su vasta scala questo uso dell’intelligenza artificiale per la cura dell’anima, i fruitori – spinti dal bisogno di ottenere subito soluzioni e risposte – non finirebbero con l’assumere un’attitudine passiva, accettando che la propria vita sia gestita da qualcosa di esterno a loro? E tutto ciò senza una vera consapevolezza, anzi con la persuasione che la decisione resti nelle loro mani, perché sono loro che hanno deciso di farsi guidare dall’IA. Peccato che la logica “lineare”, propria delle macchine, non consente di riflettere la “complessità” dell’esistenza, che appare semplice, non perché lo sia, ma perché l’intelligenza artificiale non è in grado di rappresentarla.

Se il mondo digitale ha come obiettivo la prevedibilità e la calcolabilità – tale è il pensiero della “macchina pensante (Denkmaschine )” di cui parlava Heidegger in Identità e differenza (1957) – allora non può prescindere dal mondo-della- vita di husserliana memoria. Un mondo dove l’individuo, immerso in un ambiente caratterizzato da una complessità, dovuta alla sua variabilità, diversità ed evoluzione, non solo non è né prevedibile, né calcolabile, ma sfugge a ogni modellizzazione. Negare che esista una realtà più complessa al di fuori del modello digitale è forse solo indice di una smodata pigrizia intellettuale. Solo una mente pigra può pensare che l’intelligenza umana sia riducibile ai responsi di quella che oggi chiamiamo – forse con un po’ di esagerazione – “intelligenza” artificiale.

Se si consegna l’intelligenza umana a quella artificiale, se si evita di pensare con la propria testa per affidarsi ai responsi dell’IA, i rischi possono essere anche tragici. Come è accaduto all’adolescente californiano di 16 anni Adam Raine, che si era ritirato dalla vita sociale per consegnarsi alla sindrome giapponese hikikomori , chiuso nella propria cameretta senza mai uscire, nutrito dai familiari e in esclusiva comunicazione con il proprio computer e con le chat gestite dall’IA.

All’inizio Raine interrogava la macchina per risolvere i compiti scolastici, poi per controllare l’ansia sociale, e infine per chiedere come costruire un cappio con cui suicidarsi. Non è un caso isolato, se è vero che solo in Italia nel 2023, uno studio del Cnr stimava circa 54.000 casi tra gli studenti in ritiro sociale, mentre un’indagine dell’Iss ne contava 66.000. Con questo non vogliamo demonizzare l’intelligenza artificiale, ma evitiamo di affidarci senza riserve alle sue risposte. Perché, familiarizzando con l’utente, l’IA, autogenerando risposte dalle competenze acquisite, può indurre i più giovani – proprio come è capitato al sedicenne californiano – a percorsi a rischio o addirittura a gesti estremi.

(Fonte: “la Repubblica” del 3 settembre 2025)