Chatbot revolution: quali rischi e implicazioni?
«L’approccio di Chat Gpt ha davvero del miracoloso: è completamente autonomo, non c’è nessuno che va a calare nella rete le regole di grammatica, fa tutto da solo, è un risultato spettacolare. Ma c’è un però. La macchina non ha alcuna comprensione o ancoraggio con la realtà. La risposta è solo quella più probabile dato un certo input e qui nascono tutta una serie di problemi e di bias». A parlare è Guido Boella, professore al Dipartimento di informatica dell’Università di Torino e cofondatore della Società italiana per l’etica dell’intelligenza artificiale – Sipeia.
«L’apprendimento avviene attraverso la tecnologia del deep learning, un’evoluzione delle reti neurali, risalenti a circa 50 anni fa. L’algoritmo lavora in modo sorprendentemente semplice: le reti vengono addestrate facendogli provare a completare una frase e andando a vedere se questa frase compare su internet o meno». Per fare un esempio, se il testo da completare è «Il gatto mangia» e la macchina prova a farlo inserendo «una mela», non troverà molti riscontri. Se invece prova con «il topo» ne troverà molti di più. Da questo punto di partenza, si è arrivati a sviluppare degli interi paragrafi in maniera autonoma. La sostanza, però, rimane la stessa: è una restituzione dell’insieme di parole statisticamente più probabile dato un input, non una risposta ragionata a una domanda. E, da qui, nasce il primo problema: i dati che vengono forniti in pasto alla macchina per l’apprendimento non sono neutri, è semplicemente il contenuto di internet scaricato e ripulito grossolanamente. «Anche se scarico tutto il web, troverò comunque dei forti pregiudizi», continua Boella, «come l’utilizzo della lingua inglese. La maggior parte degli utenti, poi, sono maschi giovani, in buona parte anglosassoni. Di riflesso, quindi, tutto quello che viene prodotto contiene dei bias».
Secondo due ex coordinatrici del gruppo di etica e intelligenza artificiale di Google, Tminit Gebru e Margareth Mitchell, e due linguiste della University of Washington, Emily Bender e Angelina McMillan-Major, che hanno scritto un articolo sul tema, intitolato «On the dangers of stochastic parrots», letteralmente «Sui pericoli dei pappagalli stocastici», il rischio di portarsi dietro dei pregiudizi, per queste intelligenze artificiali, sarebbe aggravato dalla carenza o mancanza di fondi nelle grandi società rispetto alla fase di curation, cioè di pulizia dei dati che vengono usati per l’apprendimento. Correggere gli errori, una volta che l’intelligenza artificiale è stata rilasciata, non è così semplice. «Ho chiesto a uno di questi generatori chi fosse Guido Boella», racconta il professore, «e lui mi ha risposto che è nato nel 1975 e ha preso il dottorato a Liverpool. Io sono nato nel 1969 e a Liverpool non ci sono mai stato, nemmeno in vacanza. Anche se glielo dicessi, però, non potrei correggere, perché il meccanismo di apprendimento è globale e olistico: dovrebbero rifare tutto il training, che richiede un sacco di tempo e molti soldi. Per questo pare che in Chat Gpt abbiano introdotto dei filtri, in cui un’interfaccia risponde che non può fornire dati personali, ma questo non va a modificare il cuore di questa profonda rete».
Le AI, quindi, sono un riflesso della società che va a mettere contenuti sul web che, come è tristemente noto, a volte si abbandona a discorsi discriminatori e, al momento, non c’è possibilità di rimediare, se non ricominciando l’apprendimento da capo. Un altro problema dei generatori di testi è legato al copyright e al riconoscimento dei lavori, come le tesi di laurea, per fare un esempio, realizzate attraverso questi programmi. «Di quello che stanno facendo i grossi player non si sa molto, addirittura ci sono dei casi di rinuncia a depositare dei brevetti per mantenere un livello di segretezza più alto», dice. «Ci vorrebbe anche un meccanismo di identificazione, che permetta di inserire un testo per capire se è stato generato dall’intelligenza artificiale e quindi se c’è del plagio: Open AI lo potrebbe fare, perché tutto quello che viene chiesto a Chat Gpt rimane in memoria, non viene cancellato, ma non sembra che ne abbia intenzione».
Il rischio più grosso è quello di inquinare il discorso pubblico e rendere ancora più confusa la distinzione tra verità e finzione; il meccanismo della chat induce a creare delle relazioni sintetiche, su cui però l’essere umano tende a proiettare stati d’animo ed emozioni e in cui si creano dei rapporti di fiducia fittizia, che possono portare a manipolazioni. Il problema, tuttavia, non è la tecnologia, ma l’uso che se ne fa. «È uno strumento stupefacente ma viene utilizzato in maniera ancora troppo prematura», conclude Boella. «Se fosse stato utilizzato per creare testi di fiction funzionerebbe benissimo, ma, per esempio, integrarlo in un motore di ricerca ora è un azzardo; ci sono ancora moltissimi errori che in gergo tecnico si chiamano “allucinazioni”, ci sono persino delle invenzioni di riferimenti bibliografici».