Dopo un anno di rinvii e anticipazioni a effetto, la nuova creatura di OpenAI è
finalmente qui. Ed è un flop. La delusione dei fan della società di Altman è
talmente grande che alcuni, dopo nemmeno 24 ore, hanno ottenuto il ripristino
della versione precedente perché, secondo loro, “è meglio di quella nuova”. Nel
tentativo di correre ai ripari, Sam Altman arriva a pronunciare la parola
proibita: “bolla”. Che cosa ci aspetta? La rubrica di Stefano Borroni Barale
L'articolo ChatGPT-5 è qui. Ed è esattamente come ce lo aspettavamo proviene da
Altreconomia.
Tag - llm
Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di
ubriacatura, hanno cominciato a sorgere voci critiche. Verso le reali
potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di
questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo
sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di
fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti”
nell’organismo che la controlla, seguiti al licenziamento e al successivo
rientro da vincitore di Sam Altman, di cui abbiamo scritto qui). Il dibattito,
per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le
prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne:
Timnit Gebru, Emily Bender e Meredith Whittaker. Grazie a una ricerca della
prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano
statisticamente molto di più nel riconoscere i tratti somatici delle minoranze
etniche, e quando ha posto seriamente il problema dei rischi di queste
tecnologie è stata licenziata in tronco da Google. La seconda è co-autrice
dell’articolo “incriminato” nonché colei che ha etichettato i Large language
model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi
software realizzino il divorzio tra segno e significato. La terza attualmente
lavora per Signal, uno dei software di chat criptati più sicuri al mondo,
posizione a cui è giunta dopo essere stata costretta a lasciare Google per via
del suo attivismo sindacale, nonché delle sue critiche nel campo della
cosiddetta “etica dell’Ai”. In Italia le migliori analisi recenti sono quelle
contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione
chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento
reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due
assoluti "must read" per chiunque voglia capire quali siano le principali
mistificazioni che stanno alla base dell’Ai odierna. Ma c’è un secondo livello
a cui si presenta la mistificazione, che riguarda in particolare gli LLM:
l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo
software, anche se opportunamente ottimizzato sotto la supervisione umana per
rispondere accuratamente, spesso produce output spazzatura. Gli entusiasti
dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è
fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione
distorta della realtà, in psichiatria definita “percezione in assenza di
stimolo”. Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della
realtà che possa “andare in crisi” generando percezioni distorte analoghe alle
allucinazioni di un essere umano. Per questo diversi autori preferiscono dire
che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’
come uno studente interrogato che inventa notizie e personaggi storici per non
fare scena muta (trovate gli articoli a cui mi riferisco qui e qui). Non solo,
i LLM abbassano in maniera impressionante il costo della creazione di campagne
di marketing, propaganda o -più in generale- di qualsiasi testo che non debba
essere di particolare complessità e originalità. Per questo si presentano come
poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli
LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo
socialmente verso il loro output, stanno generando diversi effetti di
inquinamento della cosiddetta "infosfera". A iniziare dai contenuti (esplosione
dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda
politica ed elettorale; dei dati personali (creazione di informazioni false su
persone vere); della produzione accademica (ricercatori, magari spinti dalle
urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli,
che vengono sottoposti a peer-review "automatizzate" utilizzando altri chatbot,
creando un clima di generale crescita della sfiducia anche verso le
pubblicazioni scientifiche). Se la narrazione mistificata dell’hype è
correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle
grosse” non potrà essere “corretta” per il semplice fatto che non è un
comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.
La questione si comprende meglio se capiamo che l’output di questi modelli non è
costruito come una risposta alle nostre domande, ma come un tentativo di
costruire una frase che probabilmente avrà senso per un essere umano, sulla base
del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il
contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà
partire con le parole “La sconfitta di Caporetto fu causata da…”. La maggiore o
minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM,
che viene chiamato “temperatura”. Alte temperature causano più bullshit di
quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare
statisticamente frasi che hanno alta probabilità di avere senso compiuto basta
non “allontanarsi troppo” dal contesto fornito dall’utente. Questo fatto rende
i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente
l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si
registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi
nefasti che ne possono essere fatti. “Scatole oscure. Intelligenza artificiale
e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale.
La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che
dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le
idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l’Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale
che “le spara grosse” proviene da Altreconomia.