Intelligenza Artificiale, rivoluzione in corso

Entriamo nel laboratorio di Antonio Sgorbissa per capire come smettere di preoccuparci e iniziare ad amare o almeno a convivere con l’IA

Genova – Tutto è partito da un esperimento: scrivere un dialogo teatrale tra vaccinati e no vax. Niente di strano se non il fatto che a mettere insieme lo spettacolo con Antonio Sgorbissa, professore di Robotica e Intelligenza Artificiale dell’Università di Genova, c’era la chat più frequentata del momento, ChatGPT, un software specializzato nella conversazione con un utente umano che può scrivere articoli di giornale e persino farti i compiti.

Un tempo materia di romanzi di fantascienza e film futuristici, l’Intelligenza Artificiale oggi è una realtà con cui molti di noi interagiscono quotidianamente, spesso senza nemmeno rendersene conto. Pensate agli assistenti vocali che ci aiutano a controllare le luci di casa, ai suggerimenti personalizzati di Netflix e Spotify, o alle auto autonome.
Per questo abbiamo chiesto a Sgorbissa di aprirci le porte del suo laboratorio, al Dibris, e di spiegarci cos’è l’Intelligenza Artificiale, per capire come smettere di preoccuparci e iniziare ad amare o almeno a convivere con l’IA.

Com’è nata l’IA?

“La sua nascita ufficiale si fa risalire a un evento preciso che è il 1956, data di un famoso seminario del Dartmouth College in cui erano presenti tutti  gli esperti di informatica e di Intelligenza Artificiale del periodo. È lì che è stato introdotto questo termine per la prima volta, per descrivere un insieme di discipline che in qualche modo esaminavano la questione di creare un computer in grado di affrontare e risolvere problemi complessi. L’idea stessa di un’intelligenza artificiale, però, fa parte già dell’idea di calcolatore. E infatti il calcolatore elettronico in qualche momento della sua storia è stato chiamato cervello elettronico, utilizzando fin da subito una similitudine con quello che è il nostro cervello”.
Ce lo spiega Sgorbissa che poi sottolinea come, da allora, l’IA si sia evoluta in diverse direzioni, includendo il mondo della robotica e l’elaborazione dati tramite l’apprendimento automatico.
È a questo che si fa riferimento oggi quando si parla di IA, “un approccio che coinvolge l’addestramento di sistemi informatici con un vasto insieme di esempi, come immagini di cani in diverse pose, illuminazioni e sfondi. Attraverso reti neurali a molti strati, i sistemi di Deep Learning sono in grado di apprendere una vastissima quantità di questi dati di etichettatura e riconoscere automaticamente oggetti o modelli complessi, come un cane appunto”.

Si è parlato di apprendimento, quindi l’intelligenza artificiale pensa? O è un concetto sbagliato e tutto umano?

Ci risponde l’esperto che “la questione se l’intelligenza artificiale pensi o meno non può avere una risposta definitiva perché non esiste una definizione univoca di cosa significhi pensare per gli esseri umani“.
In effetti, quando si parla di intelligenza non esistono risposte facili e nemmeno c’è il consenso unanime della comunità scientifica sui diversi modelli di intelligenze proposti dai neuropsicologi.
Continua Sgorbissa: “Il pensiero umano è strettamente legato all’elaborazione di concetti e all’idea di coscienza, che comprende la consapevolezza dell’elaborazione mentale che avviene nella propria mente”. Quindi lontanissimo dal pensiero sintetico.
Ma c’è un però.
“Se definiamo il pensiero come l’elaborazione linguistica di concetti e simboli memorizzati, allora un’Intelligenza Artificiale in grado di produrre linguaggio per me sì, devo dire che pensa“, commenta l’esperto aggiungendo che, ad esempio, “i modelli come ChatGPT sono in grado di rispondere a domande molto complesse elaborando i contenuti che hanno memorizzato durante l’addestramento e generando soluzioni originali. ChatGPT non è collegata a internet, non va a pescare in un enorme database, ma processa le informazioni e le mischia per produrre qualcosa di nuovo“.
Ora, non è chiaro se gli esseri umani risolvano i problemi attraverso un processo simile di elaborazione linguistica ma considerando la struttura del nostro cervello  potrebbe essere una possibilità.
E quindi? Pensa o no? “Sebbene sia difficile immaginare che l’IA possa avere una consapevolezza di sé, se definiamo il pensiero come un processo linguistico che genera nuovi concetti, allora l’Intelligenza Artificiale può essere considerata una forma di intelletto”.

Quando si parla di robot, di Intelligenza Artificiale, ci sono sempre e da sempre voci allarmistiche. L’IA può essere pericolosa? Può decidere di non seguire le regole dettate dall’uomo? E quindi: può autodeterminarsi?

“Questa è una domanda molto seria che chi si occupa di IA si è posto”, ci conferma Sgorbissa che chiarisce come “a un certo punto è entrata in gioco una distinzione, quella tra Intelligenza Artificiale forte e IA debole. L’Intelligenza Artificiale debole è quella che esiste oggi, applicata a quesiti specifici. Ad esempio, se il problema che vogliamo risolvere è riconoscere la presenza di un cane in un’immagine, l’Intelligenza Artificiale potrà commettere degli errori, ma non può decidere autonomamente di riconoscere gatti al posto dei cani, poiché è stata addestrata per quel compito specifico e non può scegliere di fare un’altra cosa”.
In altre parole: è limitata dal compito per cui è stata creata. Il problema però è se potrà farlo in futuro. Ed è qui che entra in gioco l’IA forte.
Si tratta di “un’astrazione teorica fatta per similitudine con l’intelligenza degli esseri umani che ha le capacità di porsi i propri obiettivi e perseguirli. Ma un’Intelligenza Artificiale di questo tipo non esiste attualmente e nessuno ha in programma di realizzarla”.
Insomma, tutto dipende sempre dalla volontà dell’uomo.
“L’IA non potrà mai decidere autonomamente di controllare una centrale nucleare o mandare e-mail ai diplomatici per far scoppiare una guerra se un umano non le dà le chiavi del mondo. Ma questo non è un  problema dell’Intelligenza Artificiale ma di chi gliele dà. È un po’ come dare le chiavi di una macchina a un bambino di 4 anni e dirgli di andare a farsi un giro. È chiaro che non si può escludere completamente questa possibilità in modo predefinito, poiché non sappiamo cosa farà l’umanità. Farà cose pericolose? N
e ha fatte tante in passato e magari ne farà altre”.

L’intelligenza artificiale può inventare storie di fantasia. Può anche mentire?

Non tutto va liscio come sembra. Perché l’IA può soffrire di allucinazioni.
Ci fa un esempio Sgorbissa: “Alcuni miei colleghi hanno provato a utilizzare ChatGPT per fare la cosiddetta ricerca bibliografica. Se uno gli chiede quali articoli sono stati pubblicati su un certo argomento lui produce una lista di articoli meravigliosa. Poi però i miei studenti sono andati a verificare ed era completamente falsa. C’erano i nomi degli autori, il titolo plausibile, la rivista, la data di pubblicazione, le pagine. Tutto plausibile ma falso”. E questo cosa ci dice? Che se è vero che “l’IA non può mentire volontariamente, è altrettanto verto che non va a verificare le informazioni perché non è quello il suo scopo. Lo dice chiaramente: quello che fa è manipolazione linguistica”.
E nemmeno si aggiorna di continuo.
Restiamo dalle parti di ChatGPT. Il suo addestramento si è concluso nel 2021 eppure se gli chiediamo se è in grado di parlarci di argomenti successivi ci risponde che, “anche se il mio addestramento è finito a settembre 2021, posso comunque fornirti informazioni sugli argomenti che sono stati discussi e hanno avuto successo dopo tale periodo”.
Sorride l’esperto: “È furbetto. Mi ricorda quegli studenti che, non sapendo le risposte, provano a dire cose plausibili per cavarsela”.
Un comportamento estremamente umano, che si è ripetuto anche in risposta a una nostra domanda sui libri di Gratteri e Nicaso. Ha detto che il più noto era stato pubblicato nel 2012 e si intitolava “Frattali di paura: la ‘ndrangheta che avanza”. Una bufala inventata da lui. Lo abbiamo corretto e si è scusato. Esattamente come farebbe una persona. Impressionante.

Io scrivo per lavoro. Arriverà un giorno in cui l’IA vincerà il Pulitzer?

“È già arrivato”, afferma l’esperto lasciandoci a bocca aperta.
“L’IA, quella per le elaborazioni di immagine e fotografia, ha già vinto recentemente un premio prestigioso della Sony, il Sony World Photography Awards 2023“.
Ecco com’è andata: “Un artista ha concorso con una fotografia creata con l’intelligenza artificiale e poi si è rifiutato di ritirare il premio. L’ha fatto come provocazione. Se penso che in futuro potrebbe vincere il Pulitzer? Sì, ma non glielo daranno perché probabilmente cambierà il concetto di premio letterario”.
Stiamo dicendo che i discendenti di ChatGPT potrebbero rimpiazzare i giornalisti?
“Probabilmente è vero che la scrittura intesa come la bella esposizione, l’esposizione convincente, sarà fatta in gran parte con l’aiuto digitale ma io penso che rimarrà sempre lo spazio per decidere i contenuti”. Quindi noi potremo raccogliere i dati di un’inchiesta, le interviste, e inserire tutto in questo contenitore che è l’IA perché ci faccia un articolo? “È così. Il cambiamento potrebbe non esse indolore ma pensare che scompaia il ruolo umano secondo me è inimmaginabile”.

Anche la bufala si evolve, che consigli ci può dare per riconoscere le foto fake? Penso alla questione delle mani che l’intelligenza artificiale ha difficoltà a riprodurre

“Io credo che la soluzione sia altrove. La questione che l’IA ha difficoltà a creare le immagini delle mani, ad esempio, vale per ora. Domani sarà sorpassata”, sottolinea Sgorbissa mettendo l’accento sul fatto che per sfuggire alle bufale l’unico antidoto è “sviluppare il pensiero critico”.
Controllare sempre e controllare tutto.
“E invece viviamo in un’epoca dove ci si limita a leggere solo i titoli o, peggio, il titolo non rispecchia affatto il contenuto dell’articolo”. È per questo che impazza il clickbait.
“E non si tratta solo di una questione di diseducazione, ma di un disinteresse generale nell’approfondire le informazioni. La maggior parte delle persone sembra essere interessata solo a utilizzare le notizie per scaldarsi, rafforzare le proprie posizioni o per indignarsi. A fronte di un mondo così io non penso che il problema sia l’IA, anche se è in grado di generare fake news più facilmente e più rapidamente di quanto farebbe una mano”.
Insomma, l’antidoto efficace contro le fake news è semplice: usare il cervello. Quello umano.

Facciamo un esperimento: creare un titolo per questa intervista con l’aiuto di ChatGPT 

Incontriamo ChatGPT. Ne avrete sentito parlare molto anche voi ultimamente, non solo in questa intervista. Se vi siete chiesti che cosa può fare, ecco  un piccolo assaggio delle sue capacità: produrre un titolo assolutamente inedito per un articolo di giornale.
Glielo abbiamo chiesto al Dibris, il Dipartimento di Informatica, Bioingegneria, Robotica e Ingegneria dei Sistemi dell’Università di Genova, dove abbiamo intervistato Antonio Sgorbissa. Ecco come l’IA ha pensato il titolo per l’intervista al professore di robotica.

Simona Tarzia
© riproduzione riservata

Un ringraziamento speciale al professor Sgorbissa che ci ha aperto le porte del suo laboratorio.

Simona Tarzia

Sono una giornalista con il pallino dell’ambiente e mi piace pensare che l’informazione onesta possa risvegliarci da questa anestesia collettiva che permette a mafiosi e faccendieri di arricchirsi sulle spalle del territorio e della salute dei cittadini.
Il mio impegno nel giornalismo d’inchiesta mi è valso il “Premio Cronista 2023” del Gruppo Cronisti Liguri-FNSI per un mio articolo sul crollo di Ponte Morandi. Sono co-autrice di diversi reportage tra cui il docu “DigaVox” sull’edilizia sociale a Genova; il cortometraggio “Un altro mondo è possibile” sul sindaco di Riace, Mimmo Lucano; “Terra a perdere”, un’inchiesta sui poligoni NATO in Sardegna.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *