Benvenuto a chiunque è alla "ricerca di senso nel quotidiano"



Visualizzazione post con etichetta Intelligenza Artificiale. Mostra tutti i post
Visualizzazione post con etichetta Intelligenza Artificiale. Mostra tutti i post

giovedì 29 gennaio 2026

Tonio Dell'Olio: A 85 secondi dal baratro

Tonio Dell'Olio
 
A 85 secondi dal baratro
PUBBLICATO IN MOSAICO DEI GIORNI  28 Gennaio 2026


Riporto il comunicato stampa diffuso ieri dal Bulletin of the Atomic Scientists' Science and Security Board (SASB), ovvero il team di scienziati che regola l’orologio del rischio dell’annientamento globale, Doomsday Clock:

Un anno fa, avevamo avvertito che il mondo era pericolosamente vicino al disastro globale e che qualsiasi ritardo nell'inversione di rotta aumentava la probabilità di catastrofe. 

Piuttosto che prestare attenzione a questo avvertimento, la Russia, la Cina, gli Stati Uniti e altri grandi paesi sono invece diventati sempre più aggressivi, contraddittori e nazionalisti. 
Le intese globali duramente conquistate stanno crollando, accelerando una competizione per il grande potere vincente e minando la cooperazione internazionale fondamentale per ridurre i rischi di guerra nucleare, cambiamenti climatici, un uso improprio della biotecnologia, la potenziale minaccia dell'intelligenza artificiale e altri pericoli apocalittici. 
Troppi leader sono diventati compiacenti e indifferenti, in molti casi adottando retorica e politiche che accelerano piuttosto che mitigare questi rischi esistenziali. 

A causa di questo fallimento della leadership, il Bulletin of the Atomic Scientists Science and Security Board oggi fissa l'orologio del giorno del giudizio a 85 secondi a mezzanotte, il più vicino che sia mai stato alla catastrofe... Anche se le lancette dell'orologio del giorno del giudizio si avvicinano a mezzanotte, ci sono molte azioni che potrebbero far indietreggiare l'umanità dall'orlo. (www.thebulletin.org)


martedì 30 dicembre 2025

Speranza di pace

Speranza di pace

L’utilizzo dell’intelligenza artificiale porta con sé timori e attese ma, come sottolinea Leone XIV, nell’uomo permane il desiderio di un mondo riconciliato «disarmato e disarmante». Ed è questo l’auspicio per il 2026


La colomba della pace invita a guardare verso l’alto, verso quella stella che conduce alla Vita e alla Verità. Ma l’uomo-macchina si ostina invece a volgere lo sguardo verso il basso, chiuso in se stesso e nel proprio egoismo. È una macchina dalle sembianze umane, sempre più umane, che ha potenzialità sempre più grandi, quasi senza limiti. E guarda (con stupore?) quell’essere che ha tra le mani: la colomba della pace. La pace è nelle sue mani. Può soffocarla o lanciarla per realizzare il suo sogno di speranza.

L’illustrazione di Filippo Sassoli riassume bene il senso di un anno che sta per concludersi e di un altro pronto ad iniziare.

Indubbiamente, lo sviluppo dell’intelligenza artificiale ha contrassegnato il 2025. Con risultati che già appaiono più che promettenti — pensiamo in campo sanitario —, ma anche con segnali inquietanti: pensiamo all’uso nel campo bellico.

Come sottolineato da Leone XIV nel suo primo messaggio per la Giornata mondiale della pace, oggi «l’ulteriore avanzamento tecnologico e l’applicazione in ambito militare delle intelligenze artificiali» hanno radicalizzato «la tragicità dei conflitti armati». Il Pontefice mette in guardia da «un processo di deresponsabilizzazione dei leader politici e militari, a motivo del crescente “delegare” alle macchine decisioni riguardanti la vita e la morte di persone umane».

Si tratta — è il monito del Papa — di «una spirale distruttiva, senza precedenti, dell’umanesimo giuridico e filosofico su cui poggia e da cui è custodita qualsiasi civiltà». Di qui, l’appello a «denunciare le enormi concentrazioni di interessi economici e finanziari privati che vanno sospingendo gli Stati in questa direzione», favorendo, al contempo, «il risveglio delle coscienze e del pensiero critico».

Risvegliare le coscienze è dunque tra le speranze del nuovo anno. Speranze che hanno contraddistinto il Giubileo del 2025, dedicato proprio alla virtù teologale che non delude. Ma certamente, tra gli auspici del 2026 c’è anche la pace, quella «disarmata e disarmante» così spesso invocata da Leone XIV. Perché, che si abbia o meno il dono della fede, occorre «aprirsi alla pace»: essa «è una presenza e un cammino», «un principio che guida e determina le nostre scelte», «un dono che consente di non dimenticare il bene, di riconoscerlo vincitore, di sceglierlo ancora e insieme».

La preghiera per la pace sarà al centro anche dei prossimi impegni del Pontefice che da ieri sera è a Castel Gandolfo, da dove rientrerà nelle prossime ore. Giovedì 1° gennaio, solennità di Maria santissima Madre di Dio nell’Ottava di Natale, nonché LIX Giornata mondiale della pace, il vescovo di Roma presiederà alle 10, nella basilica Vaticana, la santa messa. Nel medesimo luogo, il giorno precedente, alle 17, celebrerà i Primi Vespri, cui farà seguito il tradizionale canto dell’inno «Te Deum», a conclusione dell’anno civile. Sempre il 31 dicembre, alle 10 in piazza San Pietro, si terrà l’ultima udienza generale del 2025.
(fonte: L'Osservatore Romano 30/12/2025)


martedì 17 settembre 2024

Nell’anno dell’intelligenza artificiale gli auguri ed i consigli di un vescovo agli studenti: “Il link giusto per la scuola e la vita? Quello tra cervello, cuore, occhi e mani”

Nell’anno dell’intelligenza artificiale 
gli auguri ed i consigli di un vescovo agli studenti:
“Il link giusto per la scuola e la vita?
Quello tra cervello, cuore, occhi e mani”


Il messaggio del Vescovo di Lamezia agli studenti per l’avvio del nuovo anno scolastico 

Sarà l’anno dell’intelligenza artificiale, quello che i ragazzi si apprestano a vivere con il rintocco della prima campanella. Una tecnologia pervasiva che finirà inevitabilmente per mutare l’approccio allo studio e alla conoscenza. Una vera e propria rivoluzione a cui forse non siamo ancora pronti dal punto di vista antropologico e psicologico.

Ecco perché è importante mantenere fermo il timone dell’Humanum per evitare di perdersi tra le onde di un oceano vasto, sconosciuto e non privo di pericoli. È questo il senso della lettera che monsignor Serafino Parisi, vescovo di Lamezia Terme, ha rivolto agli studenti in apertura del nuovo anno scolastico. Un invito affinché fra i tanti link che i ragazzi utilizzeranno per videoconferenze, libri digitali, mail e servizi vari, non smarriscano quello più essenziale: il collegamento che connette cervello, cuore, occhi e mani. Quella “connessione interna – scrive il Vescovo ai ragazzi – che abita dentro ciascuno di Voi e che Vi garantisce, quando state bene, di restare vigili, lucidi, reattivi, proattivi e non resilienti, padroni della Vostra volontà e della capacità di autogovernarVi […]. Solo se questo sistema di connessione – o, per meglio dire, di ‘inter-connessione’ – resta funzionante, sarete in grado di fronteggiare altre connessioni e di raggiungere gli obiettivi prioritari, al netto di quelli che molto spesso sono orientati allo sfruttamento e al cumulo spietato del lucro di chi gestisce tali sistemi e potrete farlo senza restarne ‘stirati’, manipolati e violentati dal potenziale dirompente di questa tecnologia che, fra l’altro, rischia di favorire – se non proprio determinare – la privazione della interazione umana”.

Il Vescovo parla ai ragazzi con sollecitudine paterna delle nuove forme di schiavitù che le nuove frontiere del digitale finiscono inevitabilmente per costruire. Gli algoritmi sono efficaci ma non possono leggere il cuore dell’uomo e pertanto possono essere spietati.

Il riferimento è diretto alle nuove forme di lavoro che stanno caratterizzando la nostra epoca e che spesso vedono proprio i giovani vittime di un nuovo sistema di sfruttamento che qualcuno ha definito figlio del ‘tecnofeudalesimo’: “Pensate ai numerosi servizi come quelli che, ad esempio, ci fanno arrivare la pizza a casa, o altra merce ordinata: essi si servono di algoritmi che calcolano i tempi di consegna per i rider – ragazzi poco più grandi di voi – che con il motorino fanno le consegne a qualsiasi ora per guadagnare qualcosa. L’algoritmo non tiene conto dei bisogni più umani e scontati che anche tu, che mi leggi, hai. Ordina i ritmi e l’uso dei minuti trasformando i dipendenti in robot. A te chiedo come tu possa sentirti se omologato ad un robot. Ritieni ancora che un algoritmo possa prevedere, leggere il contesto e, per dirlo in breve, rispettare i bisogni più umani delle persone?”.

È da qui che muove l’invito di monsignor Parisi a saper leggere il contesto, quella capacità tipicamente umana che consente di sfuggire al determinismo degli algoritmi: “È importante restare lucidi e capaci di leggere sempre, fino al nostro ultimo respiro, il contesto – scrive agli studenti –. È la lettura del contesto il tratto prezioso e irripetibile che connota il sano fare degli uomini, che mette insieme la capacità di leggere dentro le cose, collegando cervello, cuore, occhi e mani”.

Il testo integrale del messaggio

Carissimi ragazzi e ragazze,

permettetemi di essere dei Vostri nel momento in cui prende vita questo nuovo anno scolastico.

Vi comunico subito il mio desiderio mentre vi raggiungo, ormai per il terzo anno consecutivo, con questo scritto: vorrei che le provocazioni che depongo nella Vostra cassetta degli attrezzi Vi servissero per l’esperienza scolastica ma soprattutto per la vita.

L’attrezzo che quest’anno vorrei consegnarvi è “immateriale”, non si tocca né si vede: è la connessione che vorrei aveste tra cervello, cuore, occhi e mani. Non come quella che maneggiate ogni giorno, in ogni ora, per restare connessi con “il mondo”. Penso invece, come dono, alla connessione interna che abita dentro ciascuno di Voi e che Vi garantisce, quando state bene, di restare vigili, lucidi, reattivi, proattivi e non resilienti (ma di questo ne parleremo), padroni della Vostra volontà e della capacità di autogovernarVi. Si tratta di un sofisticato sistema che non si vede, ma di cui si conoscono i suoi effetti, molti positivi ma tanti altri negativi.

Solo se questo sistema di connessione – o, per meglio dire, di “inter-connessione” – resta funzionante, sarete in grado di fronteggiare altre connessioni e di raggiungere gli obiettivi prioritari, al netto di quelli che molto spesso sono orientati allo sfruttamento e al cumulo spietato del lucro di chi gestisce tali sistemi e potrete farlo senza restarne “stirati”, manipolati e violentati dal potenziale dirompente di questa tecnologia che, fra l’altro, rischia di favorire – se non proprio determinare – la privazione della interazione umana.

Eccessivo questo mio dire? Pensate ai numerosi servizi come quelli che, ad esempio, ci fanno arrivare la pizza a casa, o altra merce ordinata: essi si servono di algoritmi che calcolano i tempi di consegna per i rider – ragazzi poco più grandi di voi – che con il motorino fanno le consegne a qualsiasi ora per guadagnare qualcosa. L’algoritmo non tiene conto dei bisogni più umani e scontati che anche tu, che mi leggi, hai. Ordina i ritmi e l’uso dei minuti trasformando i dipendenti in robot. A te chiedo come tu possa sentirti se omologato ad un robot. Ritieni ancora che un algoritmo possa prevedere, leggere il contesto e, per dirlo in breve, rispettare i bisogni più umani delle persone? Mettiamoci pure che tra i rilievi che possono essere mossi sugli algoritmi vi è quello che ci induce a riflettere sulla loro persistente capacità di farci vedere ciò verso cui abbiamo dimostrato interesse, rafforzandoci nelle nostre convinzioni (anche se errate) e non consentendoci di aprirci al confronto – in vista di un affrancamento, se necessario – e alla conseguente crescita come – detto con fermezza – solo lo studio può fare. In fondo la scuola è un viaggio e il viaggiare ci espone all’ignoto e quindi al rischio vantaggioso di mettere in discussione le nostre convinzioni.

A proposito delle questioni appena accennate, molto si parla, in particolar modo in ambienti accademici, di “determinismo algoritmico” di cui già subiamo le pesanti ricadute e gli innegabili vantaggi. La discussione proprio in queste ore è molto accesa su alcuni temi cruciali quali, ad esempio, la trasparenza e l’equità nella progettazione di queste tecnologie, la responsabilità nelle decisioni “autonome” delle macchine, la regolamentazione legale e le problematiche giuridiche e, sul piano religioso, la sfida circa i concetti di anima e di coscienza e, infine, la dimensione etica di un “ragionamento” – perché di questo si tratta – di per sé prevedibile in quanto pre-impostato e pre-disposto, e perciò per nulla creativo come deve essere una vera “intelligenza”.

Eppure la cosiddetta intelligenza artificiale, più brevemente e velocemente I.A., che anche tu guarderai con interesse crescente in questo nuovo anno scolastico, che della logica degli algoritmi fa la sua sostanza, è alla base di accadimenti come quello detto con l’esempio dei rider. A te voglio consegnare, proprio per tale motivo, la raccomandazione di tener sempre funzionante la connessione di cui parlavo all’inizio, per saper gestire tutte le altre connessioni, anche quelle che portano dritte all’I.A.

E infine un ricordo non guasta… Ricordi tu la frase iconica che hai sentito, sin da bambino, dai grandi di casa in varie situazioni: «Ma non lo vedi?». La frase risuonava per sottolineare l’ovvietà delle cose, delle situazioni che nella loro evidenza imponevano e impongono condotte consequenziali. Ad esempio, se tira vento, è chiaro che devi chiudere le finestre e se hai la tonsillite o la calcolosi renale non puoi andare alle Olimpiadi. Ma queste cose pur banali, sono chiare se ci vedi, ossia se funziona la tua connessione interna. Se sei appannato e spento, è quasi certo che il vento ti spingerà fuori dalla finestra e non potrai nemmeno dare un calcio al pallone nel campetto parrocchiale. È importante restare lucidi e capaci di leggere sempre, fino al nostro ultimo respiro, il contesto. È la lettura del contesto il tratto prezioso e irripetibile che connota il sano fare degli uomini, che mette insieme la capacità di leggere dentro le cose, collegando cervello, cuore, occhi e mani. Questo significa intelligenza. La lettura del contesto la fa solo l’uomo, nessun altro… nemmeno chi gestisce al meglio gli algoritmi che potrebbero, come bestie feroci, fagocitarlo. La persona e il suo cuore devono restare centrali nella considerazione attenta, critica e al tempo stesso speranzosa della complessa questione che, in definitiva, è antropologica.

A proposito di “maccheroniche” abbreviazioni: i latini – che già conoscevano l’espressione «omne ignotum pro magnifico» (“Tutto ciò che è ignoto è sublime”, cf. Tacito, Vita di Agricola, 30) – con la loro capacità sapienziale di «intelligere» (cioè “intus legere”, leggere dentro), suggerivano di accostarsi a tutte le situazioni, soprattutto quelle nuove, con un po’ di discernimento, «cum grano salis», appunto. Una raccomandazione per la vita che potrebbe servirci… per non soccombere.

A tutti coloro che gravitano intorno al mondo della scuola: studenti, docenti, dirigenti, personale amministrativo, tecnico e ausiliario e a tutte le famiglie giungano i miei più cari auguri di buon anno e di buon lavoro.
Il Vostro vescovo
+ Serafino Parisi
(fonte: Diocesi di Lamezia Terme 15/09/2024)


mercoledì 10 luglio 2024

Appello di Papa Francesco ai leader religiosi di tutto il mondo: "La pace si può costruire solo insieme" (tweet cronaca e messaggio)

Il Papa ai leader religiosi che hanno firmato la Rome Call for #AIethics a Hiroshima, città simbolo della tragedia atomica

La pace si può costruire
solo insieme


Appello per una saggia gestione nel governo delle intelligenze artificiali

«I leader delle religioni del mondo oggi a #Hiroshima hanno firmato la Rome Call for #AIethics. Solo insieme possiamo costruire la #pace, grazie anche a tecnologie a servizio dell’umanità e nel rispetto della nostra casa comune». 

Con questo post sull’account @Pontifex di X Papa Francesco rilancia oggi il suo appello ai leader religiosi di tutto il mondo a “costruire insieme la pace” tra i popoli. 
Il riferimento è all’incontro “AI Ethics for Peace” svoltosi dal 9 al 10 luglio nella città giapponese simbolo della tragedia atomica su iniziativa della Pontificia Accademia per la vita (Pav), per riproporre anche ai leader delle principali religioni orientali il documento sottoscritto a Roma nel 2020 con l’obiettivo di incentivare un’etica dell’intelligenza artificiale.

Le religioni del mondo firmano la «Rome Call»

Alla presenza dell’arcivescovo Vincenzo Paglia, presidente della Pav, nel Parco del monumento alla memoria di Hiroshima hanno firmato l’appello i partecipanti ai lavori, promossi anche da Religions for Peace Japan, da Abu Dhabi Forum for Peace degli Emirati Arabi Uniti e dalla Commissione per le relazioni interreligiose del Gran Rabbinato di Israele. Vi hanno preso parte, fanno sapere gli organizzatori in una nota, 150 persone appartenenti a 11 religioni e provenienti da 13 nazioni: esponenti del buddhismo, induismo, zoroastrismo, Bahá’í e di altre religioni orientali, accompagnati dai leader delle religioni abramitiche (cristiani, ebrei e musulmani), si sono ritrovati alla presenza di rappresentanti del governo giapponese e di importanti aziende tecnologiche. Secondo il Pew Research Center, l’85% della popolazione mondiale si riconosce in una tradizione religiosa: questo rende la «Rome Call» rappresentativa della maggior parte delle persone sul pianeta. A chiusura della due giorni è stato inoltre presentato il documento «Hiroshima Appeal», nel quale, oltre a ribadire la necessità di utilizzare l’intelligenza artificiale solo per il bene dell’umanità e del pianeta, i promotori esortano la comunità internazionale a ricorrere a mezzi pacifici per risolvere i contrasti, nella speranza di ottenere l’immediata cessazione di tutti i conflitti armati.

Nella circostanza Francesco ha anche fatto pervenire loro un messaggio in cui auspica l’inclusione «nel governo delle intelligenze artificiali» delle «ricchezze culturali dei popoli e delle religioni... per una saggia gestione dell’innovazione tecnologica».

*****************

Nella nuova stagione
delle macchine impegnarsi per tutelare la dignità umana

«Mostrare al mondo che uniti chiediamo un fattivo impegno per tutelare la dignità umana in questa nuova stagione di uso delle macchine». È quanto scrive Papa Francesco nel messaggio inviato ai partecipanti all’incontro “ AI Ethics for Peace”, svoltosi a Hiroshima, in Giappone, dal 9 al 10 luglio. Nel documento pontificio diffuso oggi, mercoledì 10, a conclusione dei lavori, anche l’esortazione a bandire l’uso delle armi letali autonome. Eccone il testo.

MESSAGGIO DEL SANTO PADRE FRANCESCO
PER L’INCONTRO “AI ETHICS FOR PEACE”

[Hiroshima, 9-10 luglio 2024]

______________________________________

Cari amici, vi giunga questo saluto per il vostro incontro dal titolo “AI Ethics for Peace”. Intelligenza artificiale e pace sono due temi di assoluta importanza, come ho avuto modo di sottolineare ai leader politici del G7: “Conviene sempre ricordare che la macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciò che la macchina fa è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica. A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana” (Cfr. Discorso al G7, 14 giugno 2024).

Nel lodare questa iniziativa vi chiedo di mostrare al mondo che uniti chiediamo un fattivo impegno per tutelare la dignità umana in questa nuova stagione di uso delle macchine.

Il fatto che vi ritroviate a Hiroshima per parlare di intelligenza artificiale e pace è di grande importanza simbolica. Tra gli attuali conflitti che scuotono il mondo, sempre più spesso purtroppo oltre all’odio della guerra si sente parlare di questa tecnologia. Per tale motivo ritengo di straordinaria importanza l’evento di Hiroshima. È fondamentale che, uniti come fratelli, possiamo ricordare al mondo che: “in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano” (Cfr. Discorso al G7, 14 giugno 2024)

Se guardiamo alla complessità delle questioni che abbiamo davanti, includere nel governo delle intelligenze artificiali le ricchezze culturali dei popoli e delle religioni è una chiave strategica per il successo del vostro impegno per una saggia gestione dell’innovazione tecnologica.

Mentre auguro che questo incontro porti frutti di fraternità e di collaborazione, prego affinché ognuno di noi possa farsi strumento di pace per il mondo.

FRANCESCO


giovedì 27 giugno 2024

Insegnare e apprendere con le nuove tecnologie

Dariusz Grządziel
Insegnare e apprendere con le nuove tecnologie
a cura di Paola Zampieri 


Insegnare online non è un semplice “trapiantare” in un altro ambiente ciò che si faceva in aula. Oggi la relazione fra apprendimento e insegnamento chiede che i docenti siano professionisti capaci di progettare anche ambienti di apprendimento nuovi con una visione pedagogica che metta al centro i processi di apprendimento e le finalità educative. L’uso incompetente delle tecnologie oggi non è più giustificabile.

Ad affermarlo è Dariusz Grządziel, professore straordinario di Didattica generale nella Facoltà di Scienze dell’Educazione all’Università Pontificia Salesiana a Roma, intervenuto al collegio plenario dei docenti della Facoltà teologica del Triveneto (Verona-Pordenone, 15 giugno 2024). Le sue ricerche e pubblicazioni si collocano sul confine tra l’educazione e la didattica scolastica e universitaria e, negli ultimi anni, riguardano l’integrazione degli strumenti tecnologici nella didattica.

Abbiamo approfondito questo aspetto con una riflessione a tutto tondo, che ha richiamato anche la necessità dell’educazione al pensiero critico e alla cittadinanza consapevole, per fornire alle persone strumenti per sottrarsi a una specie di capitalismo digitale e non perdere la libertà personale.

Non poteva mancare un riferimento al tema dell’intelligenza artificiale, di cui è stato sottolineato – al di là delle impressionanti potenzialità – come la velocità esponenziale e la modalità del suo sviluppo rendano difficile realizzare di pari passo un’adeguata riflessione sulle relative implicazioni, da quella economica e produttiva a quella personale e sociale oppure quella antropologica ed etica.

Tuttavia, la formazione odierna alle competenze digitali, e qualunque altra formazione professionalizzante, oltre a basarsi sui modelli verificati positivamente nel passato, non può non prendere in considerazione questi aspetti emergenti nuovi e sempre più complessi.

***

Professor Grządziel, a partire dal 2020, a causa della pandemia di Covid-19, la didattica a distanza è stata sviluppata anche in ambienti che in precedenza la utilizzavano poco o per niente, quali le facoltà teologiche. L’introduzione delle nuove tecnologie informatiche come ha cambiato la relazione fra insegnamento e apprendimento?

La relazione tra insegnamento e apprendimento deve essere vista sempre come complementare. Dalla qualità e correttezza di questa relazione dipendono i risultati di apprendimento degli studenti.

L’emergenza di passare alla didattica online durante la pandemia ha rilevato, paradossalmente, proprio il significato e l’importanza di questa relazione. Sia docenti sia studenti, per il fatto di dover comunicare tra loro tramite forme mediate e a distanza, hanno sofferto l’indebolimento o la mancanza della relazione diretta, che nella didattica in aula, al contrario, essendo implicitamente presente, spesso non viene nemmeno avvertita. Oggi sappiamo che questa percezione era causata non solo dalle tecnologie in sé stesse, ma anche dalla poca dimestichezza dei docenti nell’impiegare le tecnologie per le finalità didattiche.

Velocemente, dopo le prime settimane di lock down, i docenti si sono accorti che insegnare online non è un semplice “trapiantare” in un altro ambiente ciò che si faceva in aula. Ci vogliono nuove competenze di natura didattica, che integrano saperi disciplinari, metodologici, progettuali e, appunto, tecnologici, e ci vogliono anche nuove competenze di natura pedagogica, che permettono di instaurare in modo valido la relazione tra docente e studente negli ambienti online o misti.

Questi nuovi ambienti possono potenziare le condizioni di studio e i processi di apprendimento anche oggi?

La domanda è molto importante, perché rivolge l’attenzione alle diverse opportunità che nascono dall’integrazione degli strumenti tecnologici nella didattica.

Anzitutto, può essere ridimensionata la gestione del tempo e dello spazio in cui si svolgono le attività didattiche. Grazie a tali strumenti, come ad esempio le piattaforme di condivisione e di co-costruzione dei lavori e delle riflessioni, la collaborazione nello studio può superare i limiti dell’aula e delle lezioni scanditi dagli orari.

L’accesso alle risorse scientifiche online, rappresentare le conoscenze tramite forme multimediali o interattive, inoltre, può potenziare i processi di apprendimento in forma più attiva e più autonoma.

Ovviamente, la predisposizione di questi ambienti nuovi suppone anche un’adeguata competenza dei docenti. Non a caso alcuni studiosi – ad esempio Diana Laurillard, pedagogista britannica all’Università di Londra – suggeriscono che la professionalità docente deve passare oggi da quella che “maggiormente parla” a quella che, oltre che parlare, “progetta anche ambienti di apprendimento nuovi”.

Purtroppo, l’osservazione quotidiana attuale, ma anche le ricerche realizzate in questo ambito, fanno notare situazioni non rare in cui la didattica è tornata alle forme pre-pandemiche e in cui le modalità innovative non vengono valorizzate con tutto il loro potenziale. L’investimento nelle attrezzature delle aule e nei corsi di formazione dei docenti, fatto durante e subito dopo la pandemia, viene valorizzato in grado piuttosto ridotto.

Quali sono i rischi in agguato in questo campo?

Alcuni sono emersi già durante la pandemia, quando le tecnologie sono state impiegate nei processi didattici in maniera non appropriata o non competente, a cui ho accennato prima. Solo che, in quel periodo, la situazione richiedeva decisioni emergenziali per garantire la continuità dei processi didattici e formativi nelle istituzioni. Oggi l’uso incompetente delle tecnologie non è più giustificabile.

Parlando dei rischi, bisogna sottolineare, però, che l’integrazione dei nuovi strumenti tecnologici nella didattica non può essere considerata solo in termini delle abilità di “usarle”, o peggio, solo in chiave tecno-centrica, senza una visione pedagogica che metta al centro i processi di apprendimento e le finalità educative. La competenza didattica richiede quindi un’adeguata teoria di fondo sull’apprendimento e ancora di più sull’insegnamento.

È un’illusione pensare che essere esperto in un campo disciplinare predisponga automaticamente alla docenza competente. Sono due dimensioni della professionalità docente che richiedono un adeguato impegno per svilupparle. Tutti gli sbilanciamenti a scapito dell’una o dell’altra si riversano negativamente sulle condizioni di studio che siamo tenuti a creare a favore degli studenti.

Non diversamente accade con l’impiego degli strumenti innovativi. Anche questo aspetto dev’essere ripensato in modo funzionale, tenendo conto delle finalità da raggiungere e delle relative condizioni che bisogna creare. Se vari elementi della competenza didattica vengono sviluppati nella formazione iniziale dei docenti e poi aggiornati continuamente, i rischi, che sempre possono rivelarsi, non dovrebbero costituire minacce o ostacoli insuperabili.

***

Per allargare la questione. Oggi l’immersione nel digitale è un dato di fatto: siamo costantemente connessi con gli altri anche attraverso i dispositivi elettronici, in uno stato di relazione continua con il mondo. Questo nuovo modo di vivere la realtà è un elemento oggi imprescindibile nel discorso educativo, a tutti i livelli. L’uso delle nuove tecnologie, così diffuso tra i “nativi digitali”, è sufficientemente valorizzato – in ambito universitario – ai fini formativi ed educativi, e quindi a una preparazione per la vita lavorativa, sociale e familiare?

Di fatto, come avverte da tempo Luciano Floridi, professore di filosofa a Oxford, oggi siamo immersi nella cosiddetta Infosfera e viviamo nella realtà che lui chiama Onlife. Ciò significa che gli strumenti digitali non solo vengono adoperati in modo funzionale nelle pratiche sociali e professionali dalle persone, ma diventano essi stessi ambienti di partecipazione e di vita quotidiana.

Secondo questa prospettiva, non siamo più noi a scegliere di essere online o offline, ma sono questi strumenti a essere nelle nostre vite indipendentemente dalle nostre scelte. Come sottolinea spesso anche Cesare Rivoltella, esperto della pedagogia multimediale, la tecnologia non si vede più perché essa stessa scompare dietro ai dispositivi.

Dobbiamo comprendere, quindi, che tutto ciò – i dispositivi e la tecnologia nascosta che sta dietro – creano una filigrana del sistema sociale e lavorativo in cui noi funzioniamo ogni giorno, spesso, senza rendercene conto. È qui che emerge il ruolo pedagogico per la scuola e per l’università. Oltre che usare questi sistemi, guidati sempre più frequentemente anche dai modelli di Intelligenza Artificiale, dobbiamo capirli prima di tutto per – come dice una sociologa statunitense, Shoshana Zuboff – non lasciarsi opprimere dagli algoritmi invisibili che sorvegliano e decidono al nostro posto ciò che dobbiamo o non dobbiamo fare.

Ci vuole, quindi, l’educazione al pensiero critico, alla cittadinanza consapevole, per fornire alle persone strumenti per sottrarsi a una specie di capitalismo digitale della sorveglianza e non perdere la libertà personale.

Ubiquitous learning, collaborative intelligence, multiliteracies… Queste forme innovative come si saldano con le più tradizionali forme di insegnamento diretto ed esplicito? È possibile promuovere una feconda integrazione di tali strumenti nel progetto formativo delle università, in particolare delle facoltà teologiche?

Tutti abbiamo sperimentato come, durante il lock down, sia avvenuto un radicale sganciamento delle attività didattiche dagli ambienti fisici e una loro ricollocazione negli ambienti online e sulle piattaforme digitali. Con ciò è stato attivato – possiamo dire – un processo di deterritorializzazione delle attività di studio e di docenza, molte delle quali sono state realizzate non solo in forma sincrona online, cioè, nello stesso tempo, per docenti e per studenti, ma anche in forma asincrona.

Sembra, appunto, che il valore di maggiore flessibilità organizzativa riguardo agli spazi e ai tempi, in cui si possono svolgere alcuni tipi di attività didattiche, anche nelle facoltà teologiche, possa costituire quell’elemento aggiunto su cui riflettere adeguatamente nella costruzione della proposta formativa attuale e futura.

Gli studiosi Cope e Kalantzis, dell’Università dell’Illinois negli Stati Uniti, hanno elaborato, al riguardo, il termine ecologie di apprendimento. Con questo concetto individuano alcune nuove opportunità (affordance) di realizzare la didattica, ad esempio nelle forme ubique, o con modalità più attive e più collaborative. Tra le affordance vedono anche la possibilità di valorizzare linguaggi multimodali per rappresentare le conoscenze, oppure occasione di attivare una formazione esplicitamente differenziata, a seconda dei bisogni e degli interessi degli studenti.

Le ricerche e le esperienze – là dove vengono valorizzate consapevolmente queste nuove opportunità – confermano la loro validità didattica. Mettono in risalto, ad esempio, quanto cambiano le tradizionali tipologie delle relazioni tra docenti e studenti: da quelle unidirezionali a quelle multidirezionali. Oppure, quanto sono arricchite le interazioni tra i soggetti se vengono incluse e valorizzate nella didattica diverse dinamiche tra fattori linguistici, discorsivi e spaziali.

Lei è salesiano, don Bosco raccomandava agli educatori la necessità di essere presenti sul posto di lavoro ancora prima che arrivino i giovani. Oggi, in senso più ampio, potremmo dire che ai docenti è richiesto di sviluppare adeguate competenze per funzionare efficacemente negli spazi digitali… Quali competenze digitali sono richieste oggi ai docenti? E, di conseguenza, quale formazione per loro è opportuna perché la didattica sia integrata ed efficace nelle diverse modalità (interamente online e mista/duale)?

Sono convinto che don Bosco sarebbe oggi ugualmente presente tra i giovani negli spazi digitali online, come lo era uno volta nell’oratorio, nella parrocchia o sulle piazze di Torino dell’Ottocento dove trovava ragazzi poveri e abbandonati. La povertà di oggi deve essere interpretata non solo in termini materiali, ma anche in quelli culturali e umani.

Qui c’è spazio per i salesiani e per gli educatori di oggi. Focalizzando la nostra attenzione sui processi didattici realizzati negli spazi digitali o misti, dobbiamo riconoscere che qui c’è molto spazio per la presenza dei docenti. I processi didattici, realizzati negli ambienti misti o online, comunque, non solo modificano la progettazione o la valutazione, ma richiedono anche specifiche modalità di relazionarsi tra le persone coinvolte, specie tra docenti e studenti.

In questo contesto, Randy Garrison dell’Università di Calgary in Canada, individua tre tipologie di presenza con cui il docente sostiene i processi di apprendimento: teaching presence, social presence e cognitive presence. Tramite la prima, il docente fa percepire agli studenti le sue attività di progettazione e di organizzazione degli ambienti e delle esperienze di apprendimento. Tramite la seconda, il docente cerca di instaurare le relazioni di comunità di apprendimento al fine di rimediare la percezione di distanziamento creato dalle forme mediate di docenza.

Infine, tramite la terza, il docente si fa percepire come esperto che guida non solo le di studio esterne, ma anche quelle interne nella struttura cognitiva e metacognitiva degli allievi. Anche se i tre tipi di presenza, definiti da Garrison, sono importanti per la didattica online e mista, è evidente che i principi su cui esse si basano sono universali e validi anche per la didattica in presenza in aula.

***

La competenza digitale, in vista di promuovere l’occupabilità dei giovani, costituisce una delle preoccupazioni principali della Raccomandazione del Parlamento Europeo del 4 giugno 2018. Come formare efficacemente le competenze digitali nella prospettiva lavorativa e occupazionale?

Ci sono vari studi e pubblicazioni su questo tema. Non è il caso di sintetizzarli adesso o di analizzare i diversi aspetti che essi approfondiscono. Comunque, come la competenza del docente non si acquisisce separatamente dalle attività di insegnamento, così la competenza digitale in qualunque ambito lavorativo, per svilupparsi, deve essere praticata nel contesto concreto.

Inoltre, come nell’ambito didattico questa competenza non può essere ridotta solo all’abilità di usare strumenti e tecnologie, così negli ambiti disciplinari e occupazionali deve integrare aspetti personali, sociali e culturali. Queste cose sono ovvie e non c’è bisogno di soffermarsi su di esse più di tanto.

Comunque, è obbligatorio parlare e riflettere oggi su un aspetto nuovo, di cui i documenti europei citati nella domanda ancora non parlano. Si tratta della comparsa degli strumenti basati sull’Intelligenza Artificiale (IA).

Le loro possibilità superano in diversi casi le capacità della mente umana, ad esempio la velocità di elaborazione dei dati, di utilizzare complessi linguaggi di programmazione informatica, oppure avere accesso immediato alle enormi quantità di informazioni e risorse accumulate nella rete.

Ciò che richiede un’attenzione particolare, comunque, non sono le potenzialità dell’IA in sé stesse, anche se impressionanti. Ciò che dovrebbe far pensare è che questi sistemi vengono sviluppati con una velocità esponenziale e in modo che è difficile realizzare di pari passo un’adeguata riflessione sulle relative implicazioni. E quelle sono di varia natura, da quella economica e produttiva a quella personale e sociale, oppure quella antropologica ed etica.

La formazione odierna alle competenze digitali, e qualunque altra formazione professionalizzante, quindi, oltre a basarsi sui modelli verificati positivamente nel passato, non può non prendere in considerazione questi aspetti emergenti nuovi e sempre più complessi.

Che cos’è l’ePortfolio e qual è il suo potenziale in vari ambiti disciplinari e professionali, tra cui anche quello dell’insegnamento universitario? Può essere attuato anche nelle facoltà teologiche?

Quello dell’ePortfolio, è un tema molto studiato nella didattica. Si tratta di uno strumento che può sostenere i processi didattici a vari livelli.

Per la forte componente riflessiva della metodologia di lavoro con questo strumento, gli studenti vengono sostenuti in modo particolare nell’apprendimento autoregolato, nella consapevolezza delle mete da raggiungere e dei processi che bisogna attivare.

Dal punto di vista pratico, attraverso artefatti realizzati, gli studenti documentano sia i precorsi di apprendimento, sia i risultati raggiunti. La forma digitale del portfolio permette valorizzare, inoltre, tutte le opportunità offerte dal Web 2.0, cioè non solo l’accesso alla rete, ma anche un’attiva collaborazione con altri, docenti e studenti.

Ciò che è più importante, però, non è la raccolta di lavori o la presentazione dei risultati parziali che esso raggiunge, ma – come ho accennato sopra – una riflessione continua sui processi di apprendimento e sui progressi realizzati verso le finalità prestabilite.

In questo modo lo studente, grazie a questo dialogo interiore con sé stesso, diventa sempre più consapevole della propria crescita professionale e umana. Anzi, non solo è consapevole dei processi in atto, ma, grazie alla riflessione su tutto ciò che fa e grazie ai processi metacognitivi che si attivano in quei momenti, intenzionalmente gestisce lo sviluppo della propria identità come persona e come futuro professionista. Quest’ultimo aspetto è fondamentale per qualunque ambito disciplinare, anche quello teologico.

Per quanto riguarda i docenti, invece, l’ePortfolio offre ottime possibilità di realizzare una guida didattica e monitorare i progressi degli studenti. Avendo una visione aggiornata su questo, possono realizzare anche un feedback continuo e la valutazione formativa che, da parte loro, costituiscono elementi fondamentali della docenza in ogni contesto formativo e su ogni livello di istruzione.
(fonte: Settimana News 23/06/2024)


sabato 15 giugno 2024

PAPA FRANCESCO AL G7 SULL'INTELLIGENZA ARTIFICIALE: "Nessuna macchina dovrebbe scegliere se togliere la vita a un essere umano"

PAPA FRANCESCO PARTECIPA ALLA SESSIONE DEL G7 SULL'INTELLIGENZA ARTIFICIALE
[13-15 giugno 2024] 

Borgo Egnazia (Puglia)

Venerdì, 14 giugno 2024




*****************

G7, il Papa: nessuna macchina dovrebbe scegliere se togliere la vita a un essere umano

Francesco interviene al summit a Borgo Egnazia, in Puglia. Quattro bilaterali, poi l’intervento nella sessione comune con i leader del mondo, ai quali indica opportunità, pericoli, effetti dell’intelligenza artificiale: “Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine". L'appello ad una "sana politica" per il bene comune

Papa Francesco nel suo intervento sul tema della Intelligenza Artificiale al G7

Lo scenario appare distopico, ma il rischio è quanto mai reale: “Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”. Francesco è al G7 di Borgo Egnazia, in Puglia, primo Papa a prendere parte a un summit dei ‘Grandi della terra’ a cui parla di intelligenza artificiale: uno “strumento affascinante” ma allo stesso tempo “tremendo”, dice, capace di portare benefici o provocare danni come tutti “gli utensili” creati dall’uomo sin dalla notte dei tempi.

L'arrivo in Puglia

Con venti minuti d’anticipo rispetto al programma, l’elicottero del Papa è atterrato alle 12.10 sul campo sportivo in una distesa di ulivi. Ad accogliere il Pontefice, il presidente del Consiglio italiano, Giorgia Meloni. Con lei una stretta di mano e alcune battute: “Ancora vivi”, dice la premier. “Siamo in due”, risponde Francesco. E Meloni: “Sarà una giornata lunga ma bella”. Insieme in golf car, si dirigono verso la residenza riservata dove, dopo le 12.30, si dà il via ai primi quattro bilaterali previsti: Kristalina Georgieva, direttrice generale del Fondo Monetario Internazionale, e i presidenti ucraino Zelensky, francese Macron e canadese Trudeau. Alle 14 Papa Francesco si trasferisce nella Sala Arena, dove, a turno, stringe le mani di tutti i presenti seduti al tavolo circolare. Qualcuno lo abbraccia o si abbassa per sussurrare alcune parole all’orecchio.

Il Papa durante il bilaterale con il presidente ucraino Zelensky

Urgente ripensare sviluppo e utilizzo delle cosiddette “armi letali autonome”

Meloni introduce il discorso del Papa, spiegando anzitutto la scelta della Puglia quale terra che “storicamente ha rappresentato un ponte tra Oriente e Occidente, luogo di dialogo, mare di mezzo con Africa e Medio Oriente”. Ringrazia poi “Sua Santità”, la cui partecipazione, dice, “rende inevitabilmente questo appuntamento storico”.

Seduto al tavolo con i leader, il Papa condivide quindi le sue riflessioni sull’Intelligenza Artificiale, tema a cui aveva già dedicato il Messaggio per la 58.ma Giornata Mondiale delle Comunicazioni sociali. Dinanzi a uomini e donne che detengono responsabilità sul mondo, ne sviscera ora opportunità ma soprattutto rischi ed “effetti sul futuro dell’umanità”. Lo sguardo è fisso soprattutto a questa guerra dai ‘pezzi’ sempre più unificati.

In un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano.

Francesco in golf car con la premier italiana Meloni, al suo arrivo a Borgo Egnazia

Il potenziale umano

Mai succeda che siano le macchine ad uccidere l’uomo che le ha create. Proprio dall’ingegno umano Francesco snoda la sua riflessione dal palco del G7, per chiarire come non ci sia pregiudizio alcuno sui progressi scientifici e tecnologici, ma piuttosto il timore di una deriva: “La scienza e la tecnologia sono prodotti straordinari del potenziale creativo di noi esseri umani”, scandisce il Pontefice. Ed “è proprio dall’utilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce l’intelligenza artificiale”. Uno “strumento estremamente potente”, sottolinea il Papa, impiegato in tantissime aree dell’agire umano: medicina, lavoro, cultura, comunicazione, educazione, politica. “È ora lecito ipotizzare che il suo uso influenzerà sempre di più il nostro modo di vivere, le nostre relazioni sociali e nel futuro persino la maniera in cui concepiamo la nostra identità di esseri umani”.

All'essere umano deve rimanere la decisione

Perciò, da un lato, entusiasmano le possibilità che l’IA offre; dall’altro, generano timore per le conseguenze che lasciano presagire. Anzitutto per Francesco bisogna distinguere opportunamente tra una macchina che “può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche” e dunque “una scelta tecnica tra più possibilità”, e l’essere umano che, invece, “non solo sceglie, ma in cuor suo è capace di decidere”.

Per questa ragione, di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita

Il tavolo della sessione comune dei partecipanti al G7

A rischio la dignità umana

Il monito del Papa è incisivo: “Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno – dice - di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana”.

Rivoluzione cognitivo-industriale

Insomma, non si tratta solo di progresso scientifico ma si è davanti ad “una vera e propria rivoluzione cognitivo-industriale, che – afferma Papa Francesco - contribuirà alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali”.

L’intelligenza artificiale potrebbe permettere una democratizzazione dell’accesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilità di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”. Questo è il pericolo...

L'intervento di Papa Francesco

Etica e algoretica

Francesco parla quindi di “etica”: è in essa che si gioca la condizione umana di “libertà” e “responsabilità”; è senza di essa che “l’umanità ha pervertito i fini del suo essere trasformandosi in nemica di sé stessa e del pianeta”. E oggi che, osserva il Papa, “si registra come uno smarrimento o quantomeno un’eclissi del senso dell’umano e un’apparente insignificanza del concetto di dignità umana”, i programmi di intelligenza artificiale “debbono essere sempre ordinati al bene di ogni essere umano”. Devono avere, cioè, “un’ispirazione etica”.

In tal senso il Papa cita favorevolmente la firma a Roma, nel 2020 segnato dalla pandemia, della Rome Call for AI Ethics e il sostegno a quella forma di moderazione etica degli algoritmi condensata nel neologismo “algoretica”.

Se facciamo fatica a definire un solo insieme di valori globali, possiamo però trovare dei principi condivisi con cui affrontare e sciogliere eventuali dilemmi o conflitti del vivere

Il saluto al presidente statunitense Biden

Può funzionare il mondo senza politica?

Tra i vari rischi il Papa paventa pure quello di un “paradigma tecnocratico”. È proprio qui, afferma, che si rende “urgente l’azione politica”. La politica... per molti oggi “una brutta parola” che richiama “errori”, “corruzione”, “inefficienza di alcuni politici” a cui si aggiungono “le strategie che mirano a indebolirla, a sostituirla con l’economia o a dominarla con qualche ideologia”. Il Papa ricorda invece le parole spesso attribuite a Paolo VI, ma che il primo a pronunciare fu Pio XII: "La politica è la forma più alta della carità, la forma più alta dell'amore".

“Può funzionare il mondo senza politica?”, domanda quindi Jorge Mario Bergoglio. Sì, “la politica serve” è la risposta. "Sempre c’è la tentazione di uniformare tutto", aggiunge a braccio. E cita "un romanzo famoso di inizio '900", The lord of the World, il libro di Richard Hugh Benson citato già diverse altre volte in passato: "Un romanzo inglese che fa vedere il futuro senza politica, un futuro uniformante. È bello leggerlo, è interessante", dice il Pontefice.

L'urgenza dell'azione di una "sana politica"

Ribadisce quindi, davanti agli scenari descritti, l'urgenza di una “sana politica” che possa far guardare con speranza e fiducia al nostro avvenire. Ci sono infatti “cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti” e “solo una sana politica potrebbe averne la guida, coinvolgendo i più diversi settori e i più vari saperi”, assicura il Papa. “In tal modo – aggiunge - un’economia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune può aprire la strada a opportunità differenti, che non implicano di fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo”.

Una immagine della sessione comune del G7 con la presenza del Papa

(fonte: Vatican News, articolo di Salvatore Cernuzio 14/06/2024)

*****************

Leggi anche:


mercoledì 12 giugno 2024

Intelligenza artificiale e conflitti armati - L’IA che uccide

 Intelligenza artificiale e conflitti armati
L’IA che uccide 


Ha destato curiosità l’intenzione di Papa Francesco di partecipare alla sessione del G7 dedicata all’Intelligenza Artificiale (IA). Al Pontefice evidentemente non sfugge la pericolosità di alcune applicazioni dell’Intelligenza artificiale, che spesso rimangono in secondo piano.

Non c’è infatti solo un problema relativo alle caratteristiche intrinseche dell’IA e alle questioni che apre un suo sviluppo futuro sulle forme della comunicazione e relazione. C’è anche il problema dei suoi campi d’applicazione, che — come in molte altre innovazioni scientifiche e tecnologiche che l’hanno preceduta — sembrano dare precedenza all’area militare.

Così costituisce una drammatica allerta quanto accaduto nel corso della sanguinosa guerra attualmente in corso a Gaza. Secondo due autorevoli media come il quotidiano britannico «The Guardian», e i giornali on-line «+972 magazine» e «Local call magazine», editi a Tel Aviv, infatti i soldati israeliani che combattono a Gaza dopo il 7 ottobre sarebbero guidati, se non “comandati” da due programmi di Intelligenza Artificiale, a cui andrebbe, tra l’altro, attribuito l’alto numero di civili vittime dei bombardamenti israeliani sulla Striscia.

Secondo i tre media, che hanno raccolto le informazioni direttamente da ufficiali dell’intelligence israeliana, l’Idf (Israeli defence force) avrebbe infatti utilizzato, soprattutto nei primi mesi del conflitto, un software di IA denominato Lavender, contenente un data base di circa 37.000 target potenziali, individuati in base ad un supposto collegamento con i terroristi di Hamas. Le strutture di comando delle truppe israeliane avrebbero cioè privilegiato nell’identificazione degli obiettivi da colpire le fredde indicazioni dell’ IA piuttosto che le osservazioni e valutazioni dei soldati in campo. In soli 20 secondi il programma era in grado di riconoscere il target già inserito nella banca dati, individuarlo anche attraverso il riconoscimento facciale, e ordinarne l’esecuzione fornendo le coordinate. Poco importa che nel medesimo edificio si trovassero altri civili incolpevoli. Secondo le fonti israeliane raccolte dai due magazine israeliani , e rilanciate dal quotidiano londinese, l’alto numero di casualties, cioè di civili rimasti vittime dei bombardamenti, sarebbe stato causato proprio dall’uso indiscriminato dell’IA.

L’intervento umano sarebbe stato limitato ad una mera validazione posta al termine dell’intera procedura. Anzi, sembrerebbe che il programma fosse in grado di calcolare in anticipo anche la stima del numero di civili che sarebbero stati colpiti in ogni singola operazione, e che, nelle prime settimane di conflitto, il limite preventivamente indicato, ed autorizzato di casualties, fosse nell’ordine di 15/20 vittime civili per ogni terrorista colpito. Un numero flessibile a seconda dei contesti: in alcuni casi scendeva a 5, ma nel caso di esponenti del vertice dell’ala militare di Hamas o di Jihad Islamica poteva arrivare anche a 100. I vertici militari israeliani non hanno smentito le rivelazioni del «The Guardian» sull’uso dell’Intelligenza Artificiale nel conflitto, dichiarando però di non essersi mai mossi al di fuori delle regole internazionali di proporzionalità dei danni collaterali, e che Lavender è essenzialmente un data-base che incrocia diverse fonti di intelligence per avere informazioni aggiornate sugli operativi dei gruppi terroristici, e non una lista di quelli da eliminare fisicamente. Il programma Lavender — sempre secondo le testimonianze anonime di ufficiali dell’intelligence israeliana — avrebbe funzionato in parallelo con un altro sistema di IA tragicamente denominato The Gospel. Mentre il primo è fondato su un data base di target umani, il secondo invece è dedicato ai target costituiti da edifici e strutture. Ovviamente la struttura del data base Lavender dipende dall’input umano relativo alla nozione di “terrorista”, ai parametri cioè che lo definiscono. Più ampia o più dettagliata è la definizione fornita alle macchine, maggiore o più ristretta è la lista di target fornita da Lavender. Il timore è che dopo la carneficina perpetrata da Hamas il 7 ottobre, prevalendo uno spirito di vendetta, siano stati “allargati” i requisiti per venire inseriti nelle liste. Di conseguenza il maggior numero di target avrebbe richiesto una velocizzazione temporale delle procedure che solo l’IA poteva permettere.

Anche l’altro grande conflitto di questi difficili tempi ha visto il debutto dell’Intelligenza Artificiale sui campi di battaglia. Le forze armate ucraine hanno iniziato ad usare droni guidati dall’IA. Generalmente un drone ha un pilota che lo guida da remoto verso l’ obiettivo, aggiustando la rotta se necessario e in considerando i possibili rischi di effetti collaterali. Una nuova generazione di droni, per i quali non c’è più un pilota ma solo un operatore che indica l’obiettivo sul geolocalizzatore e schiaccia un pulsante, si sta affacciando ora sul ricco e promettente mercato della robotica militare. Almeno 10 società ucraine, e diverse altre occidentali, stanno utilizzando la guerra russo-ucraina come area test delle loro micidiali invenzioni. L’Intelligenza Artificiale di questi droni pianifica la rotta considerando anche le caratteristiche morfologiche dei terreni, coordina il volo dell’intero sciame, e a missione compiuta da conferma del danno arrecato al nemico. Soprattutto un solo operatore può monitorare il volo di più droni, risparmiando tempo e risorse umane. Per gli ucraini l’uso dell’Intelligenza Artificiale diviene dunque uno strumento decisivo per compensare lo squilibrio numerico delle forze in campo. I russi, da parte loro, hanno sviluppato una estesa linea di disturbo radio lungo tutto il fronte, che serve ad isolare i droni dai loro piloti remoti. Anche i russi hanno utilizzato l’Intelligenza Artificiale per lanciare i loro attacchi, ma agiscono soprattutto nel campo delle intrusioni informatiche, per rispondere automaticamente alle incursioni nemiche e persino identificare potenziali vulnerabilità in una rete. Osservatori occidentali ritengono che gli sviluppi russi sull’uso militare dell’IA e la realizzazione degli Emerging and disruptive technology (Edt) programmes possano essere stati rallentati dall’applicazione delle sanzioni, tuttavia Putin (che ha più volte evidenziato la strategicitá dell’IA militare paragonandola in termini di efficacia a ciò che rappresentó in passato il nucleare) potrebbe sempre scommettere sul livello più avanzato raggiunto nel campo dai cinesi.

Il ministero della Difesa ucraino ha creato un’unità specialistica denominata Bravel, che supporta e facilita il lavoro delle decine di start up nate per implementare l’IA in campo militare. Decine di forze militari occidentali stanno seguendo da vicino (rivela l’autorevole magazine on-line Politico.eu, in una lunga e dettagliata inchiesta sul fenomeno) gli sviluppi dei sistemi d’arma automatici in via di sperimentazione in Ucraina. Anche in questo caso come a Gaza, secondo gli analisti, il rischio maggiore è che privilegiando la velocità di esecuzione si finisca col diminuire però la capacità di controllo di queste armi autonome, aprendo la possibilità ad assassini di massa. Quindi, diversamente dal luogo comune che vede nel conflitto russo-ucraino un ritorno alla guerra tradizionale, l’est dell’Ucraina è oggi in realtà un laboratorio di sperimentazione di come si combatteranno le guerre nel prossimo futuro. Sarebbe importante che nel prossimo G7 se ne cominci a discutere, e pensare ad una convenzione internazionale che — come avvenuto in passato per gli arsenali nucleari — ponga dei limiti all’applicazione dell’Intelligenza Artificiale in campo militare. Anche se appare difficile oggi riuscire a normare un fenomeno che è ancora in una fase di sviluppo iniziale, mentre è in corso la gara a chi arriva prima a produrre le armi più letali.
(fonte: L'Osservatore Romano, articolo di Roberto Cetera 11/06/2024)

sabato 4 maggio 2024

Enzo Bianchi Il segno profetico del Papa sull’IA

Enzo Bianchi 
Il segno profetico del Papa sull’IA 

La Repubblica - 29 Aprile 2024


Nella mia lunga e intensa vita ecclesiale ho ascoltato più volte la giustificazione “a fin di bene” per azioni o comportamenti tenuti da ecclesiastici. Sì, nella chiesa si agisce sovente così anche per operazioni non sempre obbedienti alla prudenza, al discernimento, alla giustizia e soprattutto al Vangelo. Questo è stato un costume in voga nella chiesa: a fin di bene si taceva di fronte all’ingiustizia, a fin di bene si faceva silenzio sul genocidio nazista, a fin di bene si permetteva la persecuzione dei cristiani ottenendo però l’accordo con il governo, a fin di bene si violavano le stesse leggi ecclesiastiche. Sovente quelli che appaiono grandi scandali sui giornali sono in realtà piccole furbizie, piaceri e doni fatti agli amici. Di vera corruzione non ci sono casi se non rarissimi.

Papa Benedetto e Papa Francesco hanno interrotto questo tipo di giustificazione “a fin di bene” e hanno riportato in auge il primato della giustizia, del Vangelo, del “sì-sì, no-no” nel loro quotidiano operare: questo cambiamento significherà molto per la riforma spirituale della chiesa fortemente voluta da Francesco ma desiderata anche dal popolo di Dio.

Ora ci giunge la notizia che Papa Francesco interverrà, perché invitato, al G 7. Questo invito non può essere solo un gesto di cortesia, ma nasce dal desiderio di conoscere un pensiero umanista su quest’alba dell’intelligenza artificiale, desiderio forse anche di ottenere un discernimento e un giudizio che sia per tutta l’umanità di monito per continuare insieme la via dell’umanizzazione.

L’IA è una grande innovazione, può essere un’idea fondamentale per il bene sociale, ma passa totalmente in secondo piano quando sono in atto confitti tra blocchi di potere e guerre sanguinose. Essa può anche essere usata per scopi malefici, sorveglianza di masse, guerre cibernetiche, automazione di armi letali. Se l’IA non diventa sempre finalizzata al bene sociale rischia di accelerare la fine dell’umanità e non il suo sviluppo. Ecco perché può essere necessaria e urgente una parola di papa Francesco.

Il Papa si troverà di fronte ai sette grandi: gli árchontes, come li definiva l’apostolo Paolo, i padroni del mondo, quelli che possiedono e decidono l’uso delle armi saranno presenti e alcuni di loro sono impegnati in guerre feroci. Sono i paesi più ricchi sotto l’egemonia degli Stati Uniti, sono di fatto l’Occidente impegnato in questo momento in una guerra contro la Russia e in un sostegno a Israele contro i palestinesi.

Sarebbe stato opportuno invitare anche l’ottavo membro, la Russia, che a volte partecipava, per un G8 capace di confronto se non di dialogo. E il Papa che si troverà di fronte a questi potenti, dovrà, come i profeti e come Gesù, indurire il volto non per condannare ma per esprimere un giudizio su ciò che operano nel mondo e, ancora una volta, implorare la pace. Dovrà dare un segno profetico come Gesù di fronte a Erode quando ha taciuto e neppure una parola è uscita dalla sua bocca, o come di fronte a Pilato quando gli ha ricordato i limiti del suo potere nel mondo. Non sarà facile, ma se non lo facesse sarebbe solo una presenza seduta al tavolo dei potenti del mondo e il Vangelo di cui è portatore sarebbe occultato. Papa Francesco è un profeta, conosce la parresía, non teme e resta saldo anche di fronte alle possibili opposizioni, e dunque potrà – lo speriamo – enunciare in una sintesi performativa tutto il suo magistero sulla pace, sui poveri, sulle vittime delle violenze e dei soprusi chiedendo libertà e giustizia. Più che mai quel giorno di confronto a Borgo Egnazia Papa Francesco potrà manifestare il suo essere nel mondo senza essere del mondo. Per questo, come Geremia, sarà profeta sospeso tra cielo e terra.
(fonte: blog dell'autore)

mercoledì 8 novembre 2023

Intelligenza artificiale per far diventare i social veri costruttori di pace

Antonio Palmieri*
Intelligenza artificiale per far diventare i social veri costruttori di pace

Mentre a Londra è in corso il primo summit globale sulla Intelligenza Artificiale, ecco alcuni consigli per un uso corretto di social e messaggistica


Come avviene per ogni evento rilevante, il crudele e sanguinario attacco terroristico di Hamas contro la popolazione israeliana e la crisi che ne è derivata sono state accompagnate anche da una massa di fake news. In particolare Twitter/X e Tik Tok sono entrati nell’occhio del ciclone. A partire dal suggerimento (poi cancellato) di Elon Musk di seguire, per capire gli eventi in corso, due account che erano in realtà noti spacciatori di fake news e odio antisemita per arrivare alle clip diventate virali su Tik Tok di alcuni predicatori e imam radicali che hanno spinto l’Ufficio tedesco per la protezione della Costituzione a lanciare l’allarme sulla «Tiktokizzazione del Salafismo», come ha riportato sul Corriere Micol Sarfatti.

La proiezione social dei drammatici eventi in Israele sembrano quindi confermare la convinzione secondo cui la forza degli algoritmi ci imprigiona in una bolla comunicativa autoreferenziale e polarizzata. Ma insistere sulla «onnipotenza» dell’algoritmo rischia di avere come esito ultimo rinuncia, rassegnazione, deresponsabilizzazione. Ne avevo ragionato ai primi di ottobre con il professor Walter Quattrociocchi, docente alla Sapienza, dove dirige il Centro di Data Science and Complexity for Society. Il libro da lui scritto con Antonella Vicini, «Polarizzazioni. Informazioni, opinioni e altri demoni nell’infosfera», conferma con i dati di approfondite ricerche sulle conversazioni social le caratteristiche delle echo chamber (o «camere dell’eco»). Tendiamo ad aggregarci e a interagire tra persone con idee che confermano quanto già riteniamo giusto o vero. Lo facevamo anche prima dei social. Si tratta di «meccanismi tribali» che online spingono a concentrarsi su un piccolo numero di account, a dare visibilità a temi polemici che generano maggiori interazioni e per questo vengono resi più visibili dalle piattaforme. Siamo quindi in un vicolo social senza via d’uscita? No. Le straordinarie possibilità della tecnologia nell’era digitale esigono un di più di responsabilità, che è poi da sempre l’altra faccia della medaglia della libertà. È vero: l’algoritmo è lo strumento su cui si fonda l’economia dell’attenzione: più tempo stiamo sulle piattaforme più dati utili a profilarci per il mercato pubblicitario regaliamo. È però altrettanto vero che l’algoritmo lo «educhiamo» noi, con le nostre scelte. Se facciamo buon uso della nostra libertà e scelte intelligenti (chi seguire, in quali discussioni intervenire e come) l’algoritmo sarà al nostro servizio, non noi al suo.

Si tratta di saper usare a nostro vantaggio quegli stessi strumenti che se usati passivamente ci condannano alla tribalizzazione della comunicazione. Questo vale in modo particolare per le realtà del Terzo settore, la cui missione sotto certi aspetti è proprio questa: forzare i limiti di una visione angusta di economia e di società, proponendo un modo diverso di agire e di fare comunità. Vale anche online. Social e messaggistica possono essere adoperati in modo asocial(e) oppure social(e), per costruire relazioni significative tra gruppi omogenei di persone che non si ritengono migliori degli altri e che perseguono scopi di mutuo sostegno e di utilità sociale. Da diversi anni, ad esempio, la Fondazione FightTheStroke, che supporta bambini e giovani sopravvissuti all’ictus e con una disabilità di paralisi cerebrale infantile e le loro famiglie, usa i gruppi chiusi di Facebook per consentire a genitori e caregivers di confrontarsi e sostenersi tra loro. Possiamo usare gli stessi algoritmi che ci imprigionano nelle camere dell’eco per creare comunità digitali. Per esempio creando in Twitter/X liste di account «giusti» e scegliendo di visualizzare solo i loro contenuti.

Nulla ci vieta di usare i meccanismi dei social per valorizzare le caratteristiche positive di noi esseri umani, per essere costruttori di ambienti digitali più sani, per essere anche in questo modo costruttori di pace. Se ne dialogherà il 9 e 10 novembre a Milano, ai Techsoup Days. In conclusione, non consegniamoci a un uso passivo delle piattaforme, che peraltro stanno trasformandosi in piattaforme di intrattenimento, sempre più simili ai media broadcast tradizionali. Usiamole come strumenti utili per dare più consistenza a noi stessi e alle nostre realtà associative. Come diceva il «patrono di Internet», il beato Carlo Acutis, «tutti nascono originali, ma molti muoiono come fotocopie». Adoperiamo i social in modo adeguato e non saremo fotocopie. Men che meno fotocopie digitali.

*Fondazione Pensiero Solido
(fonte: Corriere - Buone notizie 02/11/2023)

*****************

Vedi anche il post precedente: 
Il frate scelto dall’Onu: “L’intelligenza artificiale non deve spaventarci”