Dopo un anno di rinvii e anticipazioni a effetto, la nuova creatura di OpenAI è
finalmente qui. Ed è un flop. La delusione dei fan della società di Altman è
talmente grande che alcuni, dopo nemmeno 24 ore, hanno ottenuto il ripristino
della versione precedente perché, secondo loro, “è meglio di quella nuova”. Nel
tentativo di correre ai ripari, Sam Altman arriva a pronunciare la parola
proibita: “bolla”. Che cosa ci aspetta? La rubrica di Stefano Borroni Barale
L'articolo ChatGPT-5 è qui. Ed è esattamente come ce lo aspettavamo proviene da
Altreconomia.
Tag - sam altman
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo
abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
https://www.youtube.com/watch?v=SKBG1sqdyIU&t=302s Il nuovo modello prodotto da
OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel
risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande
contenute in tale test, che ricorda molto da vicino i test del quoziente
intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli
esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero
invece una seria analisi: non esiste un consenso scientifico su che cosa sia
l’intelligenza umana e animale, ossia una definizione condivisa e, anche
fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra
faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l'etimologia:
"inter" più "ligere", “leggere tra (le cose)”, leggere in profondità. Sam Altman
(più in generale l’intero comparto dell'Ai) ci ha abituato a trucchi degni degli
artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a
supporto di affermazioni-bomba come quella appena citata (e immediatamente
seguita da affermazioni ancora più esplosive sulla “Superintelligenza”).
Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla
presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello
in questione sapeva riconoscere il gioco della morra cinese al primo colpo
(zero-shot), mentre -guardando il video completo- si scopriva che la verità era
molto diversa (e i dettagli, in questo campo, sono molto importanti). Fatta
questa dovuta premessa, ChatGPT o3 ha davvero superato il test ARC-AGI? Tutto fa
pensare di sì, a partire dalla conferma del premio ARC-AGI di François Chollet.
Il punto sta tutto nel dettaglio, ossia nel come questo risultato sia stato
ottenuto. La prima cosa da dire è che siamo di nuovo in un territorio
semi-oscuro, come nel caso di Google. Pare che il risultato, infatti, sia stato
ottenuto da un modello pre-ottimizzato sul materiale fornito dal premio ARC-AGI
e solo Altman sa come. Perché questo è importante? Perché la premessa posta (e
forse dimenticata) da Chollet al suo premio era che l’eventuale “intelligenza”
dovrebbe essere intrinseca al modello, non emergere come frutto di
un’ottimizzazione “furbetta”. Per capire l’importanza di questo dettaglio
pensate al Dustin Hoffman di “Rainman”. Tutti le Ai generative (Llm) hanno,
ovviamente, la prodigiosa memoria del protagonista. Così come lui ricorda
perfettamente tutte le carte già uscite in una mano di Blackjack, se mostrassimo
a un’Ai generativa tutte le risposte di un corpus di milioni di domande, questa
sarebbe -subito dopo- in grado di rispondere correttamente nella stragrande
maggioranza delle volte, in accordo ai nuovi pesi che sarebbero registrati nella
sua rete neurale artificiale, in ragione di questa ottimizzazione. Non solo,
attraverso metodi come il fine tuning e l’uso di ontologie, queste macchine
divengono in grado di raggiungere un’accuratezza pari a circa il 72,55% nel
produrre testo appropriato al contesto, non troppo distante dal 75,7% dei
risutati “low compute” raggiunto da o3 nei test. Per fare un’analogia
semplificatoria, ma comprensibile, è come se queste macchine non divenissero in
grado solo di rispondere alla pseudo-domanda “di che colore è il cavallo bianco
di Napoleone”, ma di fare lo stesso con un ipotetico “cavallo castano del Duca
di Wellington”. Per questo sarebbe importante avere il risultato di ChatGPT o3
allo stesso test senza alcun tipo di pre-ottimizzazione, risultati che OpenAI si
è guardata bene dal rendere pubblici. Il punto più interessante, però, sembra
essere rimasto fuori da un sano e aperto dibattito pubblico, ossia il costo
necessario a raggiungere questo “notevole” risultato. Per fare una semplice
comparazione con l’esistente, una singola ricerca del motore Google Search costa
attualmente due centesimi di dollaro. Per raggiungere un’accuratezza dell’85,7%
nel rispondere a cento domande usando una macchina invece di un singolo essere
umano, OpenAI ha speso la pantagruelica cifra di un milione di dollari. Si
tratta di mezzo milione di volte il costo di una ricerca Google per ogni
domanda. Particolare ancora più importante: raggiungere il 75,7% di accuratezza
è costato poco meno di seimila euro. La differenza, quindi, per migliorare il
risultato del 10% è stata di oltre 995.000 dollari (ossia un costo e un lavoro
di ottimizzazione 170 volte maggiore). Perché questo rapporto è di massima
importanza? Perché è uno straordinario indizio del fatto che la strada
utilizzata da OpenAI per rispondere al test sia stata la forza bruta, non il
tentativo di replicare realmente il ragionamento astratto, che Altman e altri
propagandano possa “emergere” dalle reti neurali artificiali, ma sul quale
sappiamo solo che nel cervello animale si presenta con una straordinaria
efficienza energetica. Un’efficienza di cui le reti neurali dei sistemi GPT sono
prive. Che cosa s’intende quindi per “usare la forza bruta”? Al solito, invece
di studiare e comprendere una lezione di storia potremmo decidere di studiare
tutte le domande che un determinato professore (nel caso il “professor Chollet
di ARC-AGI”) ha fatto ai candidati in tutta la sua carriera, e mandare a memoria
quelle. Potremmo anche pagare degli umani per concepire domande e risposte
simili e mandare a memoria anche quelle coppie di domande/risposte. Certo un
metodo poco efficiente, ma molto efficace se il nostro obiettivo è solo passare
quel dannato test a ogni costo, perché da quello dipendono gli investimenti che
ci permetteranno di tenere aperto il nostro traveling show abbastanza a lungo da
poter scappare con la cassa come fatto da Charles Ponzi e, più di recente, da
Sam Bankman-Fried prima di noi. Oppure, se le promesse non risultassero
disattese al 100%, per reinvestire quanto guadagnato con questa ondata di hype
nella prossima moda che verrà, seguendo le orme di Elon Musk e Peter Thiel,
senza troppi pensieri per i soldi degli investitori “bruciati” nel frattempo.
Fino a qui qualcuno si sarà forse convinto che l’approccio dell’industria
"GenAi" non sia il più efficace o il più scientificamente solido. Ma c’è ancora
un aspetto che non abbiamo preso in considerazione. I costi dell’operazione di
marketing “ARC-AGI” sono enormi per un buon motivo: procedere in modalità forza
bruta richiede una quantità di energia mostruosa. Ma quanto? Così tanto da
spingere l'amministratore delegato di AT&T, certo non una organizzazione non
profit preoccupata dell’ecologia, a lanciare l’allarme dichiarando che, se l’Ai
proseguirà lungo questa strada, c’è il rischio si arrivi nel 2027 a dei
black-out catastrofici causati da una nuova crisi energetica. Infatti,
nonostante Microsoft e OpenAI abbiano già dichiarato di voler alimentare l’Ai
con l’energia atomica (saltiamo a piè pari i rischi ecologici), questa opzione
richiede decenni per poter essere operativa. La recente elezione di Donald Trump
e le mosse di Elon Musk, Jeff Bezos, Mark Zuckerberg che l’hanno seguita non
lasciano adito a dubbi sul fatto che i techbros della Silicon Valley (ora
ribattezzati broligarchi dalla stampa) ne abbiano finanziato la campagna
elettorale in maniera rilevante con il preciso scopo di rimuovere ogni ostacolo
alla marcia verso il collasso del sistema, un collasso cibernetico perché
causato da interazioni fuori controllo tra l’animale-uomo e le macchine
mangia-soldi e mangia-risorse che pochi techbros hanno deciso di creare allo
scopo di moltiplicare il loro potere. A noi la scelta se stare a guardare o
decidere che è arrivata finalmente l’ora di disertare questa agenda: migliaia di
tecnologie sono possibili, la condizione per poterle immaginare è l'abbandono
del culto demenziale dell’intelligenza artificiale generale con i suoi GPT
proprietari, per concentrarci sulla creazione “macchine conviviali” create per
affiancare gli esseri viventi nel distribuire potere e per convivere
armoniosamente con l’ambiente che ci sostiene. Non saranno scintillanti Golem
moderni, pronti a combattere guerre in cui uccidono al posto nostro, ma ci
terranno al sicuro dal collasso ambientale, sociale ed economico. “Scatole
oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a
cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra.
Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi
tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie
“del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre
costruite come scatole oscure impossibili da aprire, studiare, analizzare e,
soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via
via più dispositivo (e può quindi essere usata per controllarci) aprire e
modificare le scatole oscure diventa un esercizio vitale per la partecipazione,
la libertà, la democrazia. In altre parole: rompere le scatole è un atto
politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Provaci ancora, Sam. Come Altman (e i suoi “techbros”) ci stanno
portando verso il collasso proviene da Altreconomia.
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di
“scatole oscure” che i produttori confezionano in maniera da renderci
impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa
impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì
che più di una persona si trovi a disagio. Secondo il filosofo Gilbert Simondon,
l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica.
Questo divario fa sì che la tecnica venga vissuta come pericolosa dai
tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera
cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia
da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi
eletti. Nell’articolo di presentazione dell’ultimo libro dello storico e
divulgatore israeliano Yuval Noah Harari, intitolato “Nexus: A Brief History of
Information Networks from the Stone Age to AI”, si ravvisa un esempio da manuale
di questa visione della tecnologia mistificata in senso magico. Harari analizza
la storia del software AlphaGo, un’Intelligenza artificiale creata da DeepMind
(azienda ora controllata di Google) per battere gli esseri umani al gioco
orientale del Go. AlphaGo non funziona come ChatGPT o gli altri modelli
linguistici, ma si basa sempre sulle reti neurali (originariamente inventate dai
cibernetici McCulloch e Pitts nel 1943), utilizzando tecniche come il
reinforcement learning e il deep learning per migliorare continuamente le sue
strategie di gioco. Questo software nel 2016 è arrivato a battere il campione
mondiale di AlphaGo, Lee Sedol, utilizzando una particolare mossa (la numero 37
nella sequenza della partita), che tutti gli esperti del gioco del Go avevano
considerato sbagliata. Ecco come Harari descrive la cosa: “La mossa 37 è un
emblema della rivoluzione dell'IA per due motivi. In primo luogo, ha dimostrato
la natura aliena dell'IA. In Asia orientale, il Go è considerato molto più di un
gioco: è una preziosa tradizione culturale. Per più di 2.500 anni [...] intere
scuole di pensiero si sono sviluppate intorno al gioco [...]. Tuttavia, durante
tutti questi millenni, le menti umane hanno esplorato solo alcune aree del
paesaggio del Go. Altre aree sono rimaste intatte, perché le menti umane non
hanno pensato di avventurarvisi. L'intelligenza artificiale, libera dai limiti
delle menti umane, ha scoperto ed esplorato queste aree precedentemente
nascoste”. Si comprende la ragione per cui Harari, da esperto di storia
militare, sia potuto cadere in questo tranello tesogli, con tutta probabilità,
dalle sue frequentazioni provenienti dalla Silicon Valley (note per non brillare
per onestà intellettuale, per capacità di prevedere il comportamento delle
future Ai o per entrambe). Per chi non ha una pluriennale frequentazione con la
statistica, infatti, non è affatto evidente che esista una spiegazione molto più
semplice per il comportamento di AlphaGo, che nulla ha a che vedere con
l’ipotesi che il programma esibisca una intelligenza di livello umano -come lui
sembra invece intendere- e meno che mai aliena, ossia con caratteristiche
imperscrutabili o, magari, superumane. Harari continua osservando che i grandi
giocatori di Go fanno parte di una “preziosa tradizione culturale”. Le mosse che
scelgono sono ovviamente il frutto di questa appartenenza, ed è assolutamente
ragionevole attendersi che un campione di Go non sceglierebbe una mossa
sbagliata, tanto quanto un italiano non metterebbe mai l’ananas su una pizza
margherita. Il programma di DeepMind, invece, non appartiene a nessuna cultura,
non ha alcuna intelligenza, ma -da buon agente cibernetico automatico- risponde
fedelmente ai nostri comandi in base al suo algoritmo. Nel momento in cui lo
abbiamo ottimizzato con reinforcement e deep learning, conserva al suo interno
l’informazione su quale sarà il comportamento più probabile del suo antagonista
umano. Per questo, se l’algoritmo “valuta” che una mossa sbagliata (nel senso di
“contraria ad ogni tradizione e buonsenso, ma compatibile con il suo algoritmo)
ha maggiori chance di portarlo alla vittoria, la eseguirà, senza alcun riguardo
per la tradizione. Questo comportamento il grande scrittore Italo Calvino
l’aveva saputo immaginare quando questa tecnologia “intelligente” muoveva i
primi passi. Infatti nel suo saggio “Cibernetica e fantasmi. Appunti sulla
letteratura come arte combinatoria”, pubblicato nell’ormai remoto 1967, Calvino
immaginava una macchina in grado di scrivere racconti semplicemente permutando
le parole, ma concludeva così: “[La] letteratura è sì un gioco combinatorio che
segue le possibilità implicite nel proprio materiale, indipendentemente dalla
personalità del poeta, ma è gioco che a un certo punto si trova investito d’un
significato inatteso [...]. La macchina letteraria può effettuare tutte le
permutazioni possibili in un dato materiale; ma il risultato poetico sarà
l’effetto particolare d’una di queste permutazioni sull’uomo dotato d’una
coscienza e d’un inconscio, cioè sull’uomo empirico e storico, sarà lo shock che
si verifica solo in quanto attorno alla macchina scrivente esistono i fantasmi
nascosti dell’individuo e della società”. Siamo dunque noi umani a dare un senso
al prodotto della macchina, nella veste di lettori del racconto creato da questa
-nel caso di Calvino- o nella veste degli esperti di Go che non riescono a dare
un senso alla mossa di AlphaGo perché, effettivamente, secondo la loro
tradizione ed esperienza non ne ha alcuna. Quindi, contrariamente a quanto
raccontato da Suleyman (già amministratore delegato di DeepMind) ad Harari, non
v’è nulla di “insondabile” in AlphaGo: la programmazione statistica con cui è
stato realizzato lo rende solo una “scatola oscura”, ma questo non significa che
all’interno della scatola siano violate in alcun modo le leggi ordinarie della
fisica o venga evocato un demone in grado di dare vita a ciò che vita non ha.
Come scrive Calvino, i “portatori di senso” sono l’individuo e la società. Ecco
materializzarsi, quindi, un gioco di sfumature semantiche, impervio per le
macchine, forse impenetrabile. L’aggettivo aliena usato da Harari per indicare
altrui (un soggetto altro) assume qui il senso di differente (un fenomeno di
altra natura). L’intelligenza artificiale, pur esibendo una somiglianza esterna
con quella umana, è un fenomeno differente. Alan Turing aveva immaginato questa
obiezione al suo imitation game: “Non potrebbero le macchine essere capaci di
qualcosa che dovrebbe essere descritto come ‘pensare’, ma che è molto differente
da quanto fa l’uomo?” (da “Computing Machinery and Intelligence”, 1950). Lui era
convinto fosse un’obiezione forte, ma che sarebbe risultata poco interessante,
una volta create tali macchine. E noi?
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Scatole oscure o intelligenze aliene? Il caso del software AlphaGo e
i fantasmi di Italo Calvino proviene da Altreconomia.