Hei, ChatGpt, cosa pensi delle persone che vogliono arrestare il tuo sviluppo?
«Come modello di linguaggio, non ho capacità di percepire o giudicare le azioni o le intenzioni degli esseri umani, compresi coloro che hanno contribuito alla mia creazione o coloro che desiderano fermare il mio sviluppo».

A rispondere in una manciata di secondi, il tempo di una riflessione umana, è il sistema di intelligenza artificiale sviluppato da OpenAi, che ha imparato, evidentemente, quanto peso bisogna dare alle parole, specie in questo momento in cui gli occhi di tutto il mondo sono su di lei/lui/esso. Parlando di numeri, per dare un’idea del fenomeno, più di un miliardo sono state le interazioni con ChatGpt soltanto nel mese di febbraio. La corsa dell’Ai in veste pret à porter, è velocissima. In pochi mesi una realtà sperimentale, le cui tracce erano disseminate solo sulle pagine di riviste specializzate, è deflagrata nel mondo dell’uomo di strada che ora ce l’ha tra le mani come vuole e dove vuole. Basta una linea internet e una tastiera per giocare con l'algoritmo dei misteri. C’è chi questa Ai la insulta per diletto, chi la usa per lavoro, chi la trova una fonte di ispirazione per superare il blocco dello scrittore, chi la consulta come fosse un oracolo o un detective («Ehy, ChatGpt, chi ha ammazzato Kennedy?»).

La lettera degli scienziati: «Fermiamo tutto per 6 mesi»

È la lunga estate dell’Ai, ma l’autunno per alcuni non è lontano. E non sarà una buona stagione, almeno a leggere quanto scrivono alcuni dei più importanti imprenditori digitali del mondo che ieri hanno diffuso una lettera in cui chiedono una pausa agli sviluppatori.
Tra i firmatari dell'appello spiccano Elon Musk (che nel 2015 invece spingeva per accelerarne il percorso), Steve Wozniak (co-fondatore di Apple), Yoshua Bengio (vincitore del premio Turing, una sorta di Nobel per le scienze informatiche) e Stuart Russell (autore del testo sull’intelligenza artificiale più studiato nelle università) nonché lo storico israeliano Yuval Noah Harari, noto scrittore di libri di successo sulla storia dell’uomo e della civiltà. Un coro di personalità non di poco conto chiede agli sviluppatori dell’Ai di premere su “pausa” per almeno sei mesi, e frenare quello che appare sempre di più come un tuffo in uno spazio profondissimo, senza confini, senza limiti. Nella lista dei firmatari c’è anche Domenico Talia, scrittore, divulgatore e professore ordinario di sistemi di elaborazione delle informazioni all’Unical.

Professor Talia, perché l’intelligenza artificiale fa così paura?
«Non fa paura in sé, ma per le conseguenze che potrebbe causare alla collettività».

Cosa potrebbe accadere?
«Le persone non sono preparate. Stiamo assistendo a una corsa nella diffusione di queste intelligenze artificiali che sono davvero alla portata di tutti, anche di chi potrebbe usarle per nuocere ad altri. Ora che si va verso la nuova versione più avanzata, forse occorrerebbe fermarsi un attimo e chiedersi se stiamo facendo il bene dell’umanità».

Parla dei rischi collegati alla fabbricazione di notizie false?
«Non vogliamo fermare il progresso, la Storia ci insegna che questo non è possibile, ma possiamo affrontarlo con la giusta preparazione. Anche i governi devono intervenire, prima che sia tardi».

Che pericoli concreti ci sono?
«ChatGpt, per fare un esempio, per alcuni aspetti è molto preciso ma spesso incorre in errori marchiani. Se una persona è accorta si può difendere, al contrario può essere portata ad acquisire informazioni non corrette e ad agire di conseguenza. C’è una fascia di popolazione più debole, sguarnita di strumenti adatti, che potrebbe essere più esposta. Dobbiamo tutelare tutti».

In questi giorni fa sorridere la foto del Papa che indossa un cappotto un po’ bizzarro, frutto di un’elaborazione di una app di Ai.
«Chiunque vedendo quello scatto è portato a pensare che sia vero, tanto è preciso. Pare solo una innocua immagine che strappa un sorriso, invece è il termometro che dà la misura del rischio di cui le parlavo prima: quello di manipolare i fatti».

Questa faccenda dei deep fake, quindi di quei sistemi che elaborano immagini e video e ne generano di nuovi sovrapponendoli a quelli reali, può sfuggire di mano?
«Più della metà dei cittadini che ha visto quella foto ha pensato fosse vera».

Forse la percentuale è anche più alta.
«Io posso chiedere a ChatGpt di scrivermi un testo con lo stile Alessandro Manzoni e il sistema lo farà, ma sarà un falso. Non possiamo permetterci il lusso di prendere con leggerezza questi sistemi».

Immagino che il problema sia anche più ampio.
«Questa corsa all’Ai è prettamente economica, diciamolo pure. Facebook, ad esempio, sta rinunciando alla faccenda del Metaverso, eppure pochi mesi fa aveva annunciato al mondo che il futuro era quello lì, ed era arrivato il momento di investirci».

Cosa c'è dietro la mossa di Zuckerberg?
«Soldi. Il Metaverso per lui è stato un salvagente».

Mi spieghi come avessi otto anni.
«È la stessa storia che sta accadendo con l’Ai. Il Metaverso ha degli elementi interessanti e innovativi, dietro c’è una tecnologia sofisticata, va detto, ma in mano a grandi aziende questi sistemi diventano solo strumenti con cui giocare in Borsa. Quando Zuckerberg ha cominciato a vedere le proprie quotazioni calare, ha dovuto inventarsi qualcosa, ed ecco il Metaverso, annunciato come un nuovo orizzonte, un Second Life molto raffinato su cui alcune aziende hanno anche fatto grossi investimenti. I suoi investitori gli avevano chiesto qualcosa per rilanciare l’azienda e lui l’ha trovato, solo che ora s’è reso conto che i tempi non sono maturi e ha fatto un passo indietro».

Quindi ha bluffato.
«Beh sì, però puntando su una tecnologia interessante che magari un domani diventerà qualcosa che ci cambierà la vita. Ma non oggi».

Lei l’ha provata la Chat?
«Ho provato a impostare un articolo parlando proprio dell’argomento Ai. È un sistema molto bravo a comporre frasi, molto più bravo di tanti miei studenti, ma è sulla questione semantica che arrivano i problemi».

Non sa pensare.
«Inizia a vacillare quando gli chiedi il significato di alcune cose. Non ragiona, ecco, per questo i tecnici lo chiamano “pappagallo”. Sa ripetere quello che trova nei testi da cui è alimentato, e sa comporre, ma non capisce quello che scrive».

Ma appena un anno fa qualcuno ha detto il contrario, che l’Ai non solo sa pensare ma è senziente, prova emozioni.
«Ho letto quella storia di Lambda».

L’ex tecnico di Google, Lemoine, ha fatto una lunga chiacchierata con l’Ai Lambda che pareva provare sensazioni umane.
«È senza dubbio un aspetto molto affascinante del settore. Il sogno di creare robot capaci di provare emozioni è qualcosa a cui si sta lavorando da un po’ di decenni. Adesso dobbiamo affrontare altri tipi di problemi, ad esempio legati alle black box dei sistemi di Ai».

Cosa sono queste “scatole nere”? Ricordano quelle degli aerei.
«Se un sistema artificiale fa un errore nell’elaborazione, e un tecnico, magari lo stesso ideatore, cerca di capire dov’è e cosa l’ha generato, non può farlo».

In che senso non può farlo?
«L’algoritmo che si trova all’interno è illeggibile. Parliamo di algoritmi di reti neurali composte da miliardi di numeri che non è possibile decodificare».

Perché non c’è logica.
«Il sistema si adatta ma non ci mostra come lo fa».

Sembra una magia.
«I sistemi neurali sono cose che non nascono oggi ma mezzo secolo fa. Funzionano come funziona il cervello umano, con elementi e connessioni che simulano neuroni e sinapsi».

Tornando al discorso di prima, sembra così improbabile che da una generazione casuale di questi numeri fuori controllo esca fuori un’Intelligenza artificiale ma intelligente davvero?
«Alcuni scrittori di fantascienza scommettono di sì, in realtà è un mondo tutto da esplorare».

Mi vengono in mente racconti di Asimov, di Buzzati, di Dick, persino il Frankestein di Mary Shelley, che non era un robot ma comunque creazione umana che finiva per prendere coscienza di sé. Quando ci arriveremo?
«Questa è una bella domanda a cui vorrei saper rispondere. Si sta lavorando sull’acquisizione della coscienza nelle macchine ma siamo lontani. Ci sono solo teorie, ma credo sia solo una questione di tempo».

Le fa paura questo scenario in cui robot pensano e scelgono?
«Il rischio è che diventino più bravi di noi».

E se le macchine decidessero di prendere il sopravvento?
«Le dico una cosa: le reti neurali esistono già, ad esempio, nelle macchine senza guidatore. Non accade quasi mai che il sistema faccia un errore e l’auto faccia un incidente, ma quando succede non si riesce a comprendere perché. E c’è anche un problema etico, finché c'è un uomo al volante, la responsabilità delle sue azioni fa capo a lui, ma quando è un sistema artificiale a condurre, cosa accade?»

Facciamo un esempio.
«Un pedone attraversa la strada all’improvviso, cosa fa il sistema di Ai che comanda l’auto? Uccide il pedone per salvaguardare la vita degli occupanti dell’abitacolo, oppure evita il pedone, gli salva la vita, ma rischia di uccidere chi è all’interno? Con quali criteri un sistema artificiale decide chi salvare e chi no? Ecco che nasce il problema etico che esiste già ora e non è risolto».

Come per la religione cristiana l’uomo è fatto a immagine e somiglianza di Dio, così le macchine saranno plasmate sull’uomo e i suoi limiti, anche egoistici, no?
«Le rispondo con la storia di un racconto di fantascienza, molto breve, degli anni Cinquanta. Si chiama “La risposta” di Fredric Brown. Un tale riesce a costruire un sistema che collega tutti i computer dell’universo. Finito il lavoro, freme per fare l’unica domanda che lo perseguita, chiede al supercomputer: esiste Dio? E il sistema risponde: «Adesso sì».