Skip to main content

Intelligenza artificiale, ChatGPT è una risorsa o un limite?

In questi ultimi mesi e, in Italia, nelle ultimissime settimane, si è parlato molto di intelligenza artificiale – AI e in particolare di ChatGPT, ultimo ed evolutissimo programma del laboratorio di ricerca californiano Open-AI, fondato nel 2015 da Elon Mask e colleghi.

Ne hanno scritto addetti ai lavori e non solo, lodando le capacità dello strumento o alzando il sopracciglio o, ancora, ipotizzando ruoli istituzionali da affidare a una entità altra dalla schiera di politici già testati sul campo. Marcello Veneziani, ad esempio, ha osservato con ironia che “dopo averle provate tutte, premier di sinistra, di centro e di destra, tecnocrati, finanzieri e populisti, politici e antipolitici, ricchi e poveri, maschi e donne, non ci resta che la soluzione finale: il prossimo premier sarà un robot”.

Ottavio Fatica, traduttore al top della classifica nel suo campo – Tolkien e Melville il suo pane quotidiano – mostra invece sospetto verso la realizzazione di testi complessi, ma spesso inesatti, e crede che ChatGPT “non capirà mai le umane perversioni”.

Il fascino dell’intelligenza artificiale

Sono innumerevoli i film che hanno nel ruolo di protagonista o co-protagonista un cervello non umano, un cervello – mente – intelligenza progettati da una espertissima persona umana. Eppure, nella realtà, la piena capacità di potenza dell’intelligenza artificiale è ancora un sogno/incubo non pienamente realizzato.

Lo straordinario chatbot di intelligenza artificiale funziona così: gli fai una domanda e lui/lei farà del suo meglio per rispondere attingendo ai miliardi di testi/parole/dati presenti in rete e inerenti l’argomento proposto. Partendo da libri, conversazioni e articoli web, costruisce un modello basato sulla probabilità statistica delle parole e delle frasi utilizzate prima in quel contesto.

Una definizione letta sulla stampa anglosassone avvicina il processo di realizzazione del testo a quello predittivo che troviamo su un telefono cellulare, ma ingrandito in maniera esponenziale. Ne nascono intere risposte, invece di singole parole. Bello, bellissimo, eccezionale, diranno in molti, ma quali potrebbero essere gli effetti indesiderati, se non avversi?

Pensiamo alla scuola: ci chiedono il pensierino all’inizio delle elementari, poi il riassunto, il tema, il saggio universitario. Quanti, tra noi genitori, hanno trascorso ore seduti accanto ai figli nell’esercizio della maieutica, spronando dolcemente e poi con veemenza i pargoli a ragionare, mettere in fila le parole, dare risposta alle domande nascoste, raccontare con parole proprie le ultime vacanze?

Il programma AI, invece, può dare rapidamente risposta alle domande più grandi e più piccole della vita: redige testi articolati, storie di fantasia, domande di lavoro, forse persino lettere d’amore o necrologi. Fa tutto ciò attingendo all’incredibile quantità di testo su Internet.

Verifica delle informazioni

Sicuramente qualcuno tra i lettori avrà già provato ChatGPT, sempre che abbia avuto la fortuna di non trovare il programma in buffering. Oggi emerge che, vista la corsa collettiva (a livello mondiale) a fargli realizzare piccoli pezzi – anche giornalistici! – sarà attivato un profilo a pagamento per quanti non vogliano rinunciare al divertimento. O alla scorciatoia. Ma attenzione, come per tutte le cose belle, c’è qualche spina: il testo prodotto, benché molto scorrevole, può contenere informazioni e dati drammaticamente errati. Immaginiamo di attingere a un articolo di approfondimento su una determinata malattia e di trarne indicazioni per il suo trattamento: uno scenario spaventoso. Dati che potrebbero, peraltro, inquinare quanto già presente in rete.

Sebbene ChatGPT abbia ricevuto, rispetto al modello iniziale, una sorta di formazione aggiuntiva, alimentata con un vasto numero di domande e risposte fornite da formatori di intelligenza artificiale umana, il rischio resta alto. Esso non ha, infatti, alcun controllo sulla verità; le risposte date possono quindi apparire plausibili, ma manca ogni garanzia di correttezza.

Il rischio diventa altissimo se lo interroghiamo su temi o questioni recenti, visto che l’ultimo aggiornamento – secondo quanto letto – risale al 2021.

Torniamo al comparto scuola. Gli istituti scolastici di New York City hanno già vietato l’uso di ChatGPT su tutti i dispositivi e le reti degli studenti nel timore che possa incoraggiare l’imbroglio, il plagio. Nei dipartimenti universitari di alcune nazioni del Vecchio Continente sono stati istituiti gruppi di lavoro per valutare il valore della nuova sfida: come affrontare l’iterazione della tecnologia di generazione di testo AI?

Problema versus opportunità

Per fortuna non mancano studenti capaci: è il caso di Edward Tian, 22 anni, allievo dotato e ligio alle regole che ritiene di aver già trovato un antidoto a ChatGPT. Senior presso la Princeton University, Tian ha infatti sviluppato GPTZero. Una sorta di antiplagio che, attraverso l’incrocio di verifiche tra set di dati di articoli di notizie della BBC e articoli generati dall’intelligenza artificiale dagli stessi suggerimenti dei titoli, ha un tasso di falsi positivi <2%. Il suo obiettivo era garantire la correttezza nello svolgimento degli esami scritti, dando così pari opportunità di valutazione a tutti di studenti.

Ma qual è il punto di vista dei docenti? Le università potrebbero provare a vietare l’uso di ChatGPT, così come vietano altre forme utili a eludere la fatica di impegnarsi di persona – copiare, ad esempio, piuttosto che rimaneggiare gli elaborati di compagni o ex studenti, o sovvenzionare la produzione di un lavoro originale. Vi è anche un’altra strada.

Il Draper Journal di Salt Lake City – Utah afferma che l’alternativa sia di permettere agli studenti di usarlo. Il razionale è che se davvero stiamo preparando gli studenti per il mondo del lavoro e se questo tipo di tecnologia viene messo a disposizione sul posto di lavoro, allora ChatGPT dovrebbe essere utilizzata a beneficio dell’umanità, piuttosto che vietata. La missione di OpenAI è, infatti, quella di garantire che l’intelligenza artificiale generale – AGI, con cui si intendono sistemi altamente autonomi che superano gli esseri umani, avvantaggi tutti i cittadini.

Lo strumento, difatti, secondo alcuni offrirebbe semplicemente una attesa opportunità per rivoluzionare il modo in cui tutti accediamo alle informazioni e scriviamo, proprio come hanno già fatto la grammatica e i correttori ortografici. Va, quindi, sfruttato a nostro favore, ma con alcune idee ben chiare in mente.

Attenzione al contesto

E’ facile cadere nella trappola di pensare che questi strumenti capiscano cosa stanno scrivendo. Non lo fanno, anche se le risposte date potrebbero farcelo pensare. Funzionano prevedendo la parola successiva in una data sequenza, senza alcuna comprensione di ciò che stanno scrivendo se non la capacità di formare frasi appropriate plausibili attorno a un’area tematica generale.

Il problema più significativo sembra essere la capacità di ChatGTP di generare falsità altamente plausibili e presentarle come fatti. Lo afferma senza esitazione Michael Webb, direttore di tecnologia e analisi di Jisc, Brighton, che fornisce servizi di rete e IT all’istruzione superiore.

Siamo abituati a trattare con falsità da Internet, ma quando tutto il contesto viene rimosso, non possiamo più utilizzare le tecniche esistenti per valutare la fonte. Se ora esiste un metodo facile e gratuito per scrivere in pochi minuti relazioni e saggi su temi dei più disparati, come si potranno valutare con la massima certezza di non contaminazione dei dati gli studenti, soprattutto a livello universitario? Pensiamo a una tesi di laurea.

La risposta potrebbe essere il disinvestimento – nel nostro Paese l’ulteriore disinvestimento – nella scrittura e il passaggio alla valutazione delle competenze. Queste, che indicano la comprovata capacità di usare conoscenze, abilità e capacità personali, sociali e/o metodologiche, in situazioni di lavoro o di studio e nello sviluppo professionale e/o personale, presuppongono autonomia e responsabilità.

La competenza – leggiamo nel dizionario Zanichelli – si apprende anche per errori e per approssimazioni, riflettendo sull’errore per superarlo, pilotando l’efficacia e la direzione del proprio agire. L’esperienza, insomma, insegna.

© Unsplash                                                                                                                                                                                     © Miriam Dei