C redo che il Nobel del 2024 per la fisica a Geoffrey Hinton, un informatico,
abbia due significati. Il primo è scientifico, perché le reti neurali vengono
riconosciute come fondamento del successo delle intelligenze artificiali
generative. Il secondo, politico, è nell’avvertimento che Hinton ha pronunciato
durante il discorso di accettazione del premio: possiamo avere un enorme
beneficio dagli assistenti artificiali, ma dobbiamo guardarci dai rischi
cruciali a breve (l’inquinamento del dibattito pubblico con contenuti creati per
dividere, la sorveglianza delle persone da parte di regimi autoritari, le frodi
informatiche) e a lungo termine (le armi letali che decidono autonomamente chi
uccidere e il generale pericolo di perdere il controllo dei sistemi autonomi,
capaci di assegnarsi da soli obiettivi e strategie).
Due macchine pensanti
Non era scontato che le reti neurali ad apprendimento profondo potessero
funzionare, soprattutto non lo era quando Hinton, negli anni Settanta, iniziò il
suo dottorato di ricerca. Il campo dell’intelligenza artificiale (IA) era
occupato vittoriosamente dalla corrente simbolica che provava a riprodurre
artificialmente il pensiero partendo da uno dei suoi prodotti: le frasi, le
relazioni significative tra le proposizioni. La corrente connessionista voleva
invece ricreare il modello della percezione biologica, proponendo sistemi
matematici ispirati alle connessioni tra neuroni, da cui il nome.
> Laddove la corrente simbolica provava a riprodurre artificialmente il pensiero
> partendo da uno dei suoi prodotti, quella connessionista voleva invece
> ricreare il modello della percezione biologica.
Possiamo scegliere come data di inizio del conflitto tra simbolici e
connessionisti il 1958, quando le due parti credevano di aver posto le basi per
la costruzione di una macchia pensante. Allen Newell, John Clifford Shaw e
Herbert Simon inviarono il rapporto sul General problem-solving program (GPS),
un programma informatico in teoria capace di affrontare ogni tipo di problema,
di trovare soluzioni non note manipolando oggetti e relazioni legittime tra
oggetti. Il GPS traduce il mondo in oggetti e relazioni legittime tra oggetti.
Uno stato di cose può essere un oggetto e una relazione legittima tra stati di
cose può fungere da “operatore”. Per esempio, in una partita a scacchi il
problema è come raggiungere la posizione di scacco matto e battere l’avversario.
Una posizione della scacchiera è un oggetto e ogni mossa legittima degli scacchi
è un operatore che permette di passare da un oggetto a un nuovo oggetto. È così
che pensiamo? Più che altro è così che si può formalizzare il pensare: con
operazioni logiche. Newell, Shaw e Simon erano convinti di aver creato un
programma per computer capace di pensare in termini non numerici, una macchina
pensante.
Sempre nel 1958 veniva presentata una versione completamente diversa di una
macchina pensante: il perceptron dello psicologo Frank Rosenblatt, la prima ‒
elementare ‒ rete che simulava il funzionamento neuronale, in grado di
riconoscere immagini e, soprattutto, di imparare attraverso le azioni, o le
esperienze. “I computer possono risolvere problemi più velocemente delle persone
ma solo se imboccati dai programmatori” diceva Rosenblatt al New Yorker “noi,
per la prima volta, abbiamo creato un oggetto non biologico in grado di
interagire con l’ambiente in modo significativo, un sistema che si organizza in
modo autonomo, come fa il cervello”. La caratteristica distintiva del perceptron
è che interagendo con l’ambiente forma concetti che non erano stati preparati
per lui da agenti umani.
> Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è
> stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri
> di ricerca.
Il matematico e filosofo americano Daniel Andler, in Il duplice enigma (2024),
ha sintetizzato una differenza sostanziale tra la corrente simbolica e quella
connessionista: “un modello simbolico non apprende, si limita ad applicare le
istruzioni che ha ricevuto (il che non esclude sorprese quando lo fa), mentre
una rete di apprendimento profondo acquisisce una capacità nuova a partire da
informazioni ‘corretto/scorretto’ molto meno ricche rispetto a indicazioni
complete per fornire la risposta esatta”. In altre parole “l’addestramento
simbolico consiste nell’istruire il modello, nel comunicargli un sapere,
l’addestramento connessionista nell’esporlo a esempi, nell’inculcargli un
saper-fare”. Se ti chiedi come mai un’intelligenza artificiale generativa dia
risposte diverse alla stessa domanda: potrebbe essere perché ha imparato da sola
quali sono le risposte giuste (a parte quelle vietate dai programmatori).
Una sorta di padre spirituale
Hinton è abituato a sentirsi l’unico che ha ragione nella stanza da quando i
genitori, atei come lui, lo mandarono in una scuola cattolica. È anche abituato
al conflitto. Suo padre, eminente entomologo in una famiglia di illustri
scienziati, era solito ripetergli: “se ti impegnerai il doppio di me, quando
avrai il doppio dei miei anni, potresti arrivare alla metà dei miei risultati”.
Non è andata così: Hinton è oggi lo studioso con più citazioni nella scienza
informatica, e il secondo tra gli psicologi. Nel 2012 con Alex Krizhesvky e Ilya
Sutskever è riuscito a catalogare un milione e duecentomila immagini, in circa
mille classi, con un margine di errore che migliorava sensibilmente i risultati
ottenuti fino a quel momento. Un successo che è stato reso possibile grazie alla
mole di dati a disposizione su internet, all’etichettatura umana delle immagini
e alle invenzioni disseminate nella carriera di Hinton. Nel 2018, con Yann Le
Cun e Yoshua Bengio ha vinto il Turing Prize.
Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è
stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri di
ricerca. Il cambiamento è avvenuto negli anni Ottanta, con l’apporto di alcune
modellizzazioni della fisica dei solidi, applicate alle reti: ecco perché
insieme a Hinton è stato premiato John Hopfield e perché il Nobel è quello per
la fisica. “C’era un continuo scambio di idee”, ricorda Giorgio Parisi, il
fisico italiano premio Nobel nel 2021. Hinton ha aggiunto al modello di Hopfield
i cosiddetti livelli nascosti, creando la macchina di Boltzmann e pochi anni
dopo l’algoritmo di retropropagazione. Sono le invenzioni chiave che permettono
all’idea connessionista, dalla percezione all’esecuzione di compiti complessi
tramite apprendimento autonomo, di diventare realtà, che nei termini dell’IA
vuol dire macchine che “funzionano”, cioè che capiscono se una certa immagine
rappresenta un cane o un gatto, per esempio, o se un contratto assicurativo sia
o meno una frode. Per le sue invenzioni, e per aver tenuta accesa la fiamma del
connessionismo, ci si riferisce spesso a Hinton come al padre spirituale
dell’apprendimento profondo e delle reti neurali, che oggi sono diventati
sinonimi di intelligenza artificiale.
È un gatto o un cane?
Come dicevamo, una rete neurale è in grado di distinguere se un’immagine
proposta rappresenti un gatto o un cane. Quello che la rete “vede” è un insieme
di pixel ma, opportunamente addestrata con una mole enorme di aggregazioni di
pixel che significano “gatto” e altri che significano “cane”, è in grado di dare
la risposta adeguata: le informazioni passano sui nodi della rete, ogni nodo è
un interruttore acceso/spento, il numero di accensioni stabilisce un peso, e
determina il risultato finale.
> Per le sue invenzioni, e per aver tenuta accesa la fiamma del connessionismo,
> ci si riferisce spesso a Hinton come al padre spirituale dell’apprendimento
> profondo e delle reti neurali.
In un tentativo di spiegazione senza formule matematiche, Jerry Kaplan
suggerisce di immaginare una rete neurale come una successione di livelli dal
basso verso l’alto. Abbiamo chiesto alla rete di riconoscere un’immagine: «In un
classificatore ben progettato i livelli nascosti più in basso riconoscono le
caratteristiche base dell’immagine input, come contorni e forme. Risalendo la
gerarchia, ogni neurone [nodo della rete] identifica le caratteristiche sempre
più complesse, come la pelliccia, le vibrisse, gli occhi. Una volta arrivati in
vetta ogni neurone rappresenta un cane o un gatto».
L’addestramento della rete avviene per mezzo di un algoritmo di
retropropagazione, un sistema iterativo che valuta quali neuroni e connessioni
contribuiscano maggiormente agli errori, così da calibrare la rete per il
riconoscimento dell’immagine. Questo tipo di apprendimento può essere
supervisionato, nel caso in cui la risposta giusta sia nota; o non
supervisionato, nel qual caso cercherà di individuare autonomamente i pattern.
Alessandro Aresu, in Geopolitica dell’intelligenza artificiale (2024), fa
ironicamente riferimento al mestiere che Hinton ha brevemente praticato quando
era indeciso sul percorso accademico, dicendo che ora è diventato un
capo-falegname. Come un falegname, in effetti, Hinton “addestra la rete neurale,
tagliando e adattando i pesi sinaptici attraverso la retropropagazione, che
ottimizza i pesi per ridurre l’errore tra l’output previsto e quello effettivo
[…], collega i vari strati di neuroni o layer, per costruire la struttura della
rete neurale, dove ogni strato ha una funzione specifica, come riconoscere bordi
o texture di un’immagine”. All’inizio della sua carriera Hinton voleva capire
come funzionasse il cervello; una volta a capo della falegnameria ha costruito
un modello che riproduce una delle sue funzioni principali.
Macchine che fanno analogie
Con il suo “saper-fare”, nel discorso di accettazione del Nobel, Hinton ha
riassunto la portata del suo trionfo in una frase: “questa nuova forma di IA
eccelle nel riprodurre l’intuizione umana più che il ragionamento”. È una
frecciata al partito dell’IA simbolica. Ma perché “intuizione”? Simone Weil
nelle Lezioni di filosofia del 1933-34, scrive che se un metodo esiste per
produrre analogie sembra avere a che fare con l’“intuizione, il caso”.
Intervistato da Joshua Rothman per il New Yorker, Hinton ha spiegato la sua idea
di come pensiamo:
> Per anni la corrente simbolica dell’intelligenza artificiale ha sostenuto che
> la nostra natura sia quella di macchine che ragionano. Non ha senso: la nostra
> natura è di macchine che fanno analogie, con un po’ di ragionamento montato in
> cima, per accorgerci quando le analogie ci danno la risposta sbagliata e
> correggerla.
Che cosa vuol dire che siamo macchine analogiche? Paragonare un essere umano a
una macchina può trarre in inganno se ci si concentra sull’aspetto meccanico,
inteso come automatico, non autonomo e programmato dall’esterno. Ma non è questo
il caso: dire che le persone sono macchine riprende un’idea atea e materialista,
che spiega il pensiero senza ricorrere all’anima, all’ispirazione divina o a una
sostanza non materiale. È l’idea che Julien Offroy de La Mettrie ha illustrato
nel trattato L’uomo macchina del 1747.
> Paragonare un essere umano a una macchina può trarre in inganno se ci si
> concentra sull’aspetto meccanico, inteso come automatico, non autonomo e
> programmato dall’esterno.
L’analogia è una comparazione tra oggetti, o insiemi di oggetti, che evidenzia
gli aspetti che si ritengono simili. In Concetti fluidi e analogie creative
(1996) Douglas Hofstadter ne dava questa definizione:
> È utile dividere il pensiero analogico in due componenti base: primo, il
> processo di percezione di una situazione, che consiste nel considerare i dati
> relativi a una situazione, quindi filtrarli, e organizzarli in vari modi per
> arrivare a una rappresentazione appropriata al contesto particolare. Secondo,
> il processo di proiezione per mappe, che consiste nel considerare le
> rappresentazioni di due situazioni e nel trovare le corrispondenze appropriate
> tra gli elementi dell’una e quelli dell’altra, creando così l’accoppiamento
> che chiamiamo analogia.
Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio
simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le
due” con al centro l’analogia come concetto fluido, nello spirito kantiano per
cui percezione e concetto non stanno l’una senza l’altra. Il loro programma
Copycat
> esplora un territorio intermedio della simulazione cognitiva, posto tra quello
> dei sistemi simbolici di alto livello e quello dei sistemi connessionistici di
> basso livello; la ragione per cui si sostiene questo approccio è che il suo
> livello intermedio è al momento il più utile per trattare la natura fluida dei
> concetti e delle percezioni, aspetti centrali della mente che emergono con la
> massima chiarezza nel fare analogie.
Analogico contro logico
Tutti praticano l’analogia quotidianamente, è una componente indispensabile del
pensiero, eppure è poco presente nella letteratura scientifica. Scriveva il
filosofo Enzo Melandri in La linea e il circolo. Studio logico-filosofico
sull’analogia nel 1968: tanto grande la pratica, quanto piccola la teoria.
L’analogia è costretta a una guerra continua con la logica: una guerra civile,
in cui nessuno dei due contendenti riporta una vittoria definitiva. La lotta tra
logica e analogia è una metafora che Melandri usa per sottolineare quanto per
pensare siano necessarie entrambe, con una delle due, la logica, che cerca però
di farsi dominatrice assoluta e negare l’importanza dell’altra, fino a oscurarne
la rilevanza.
> Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio
> simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le
> due” con al centro l’analogia come concetto fluido.
L’analogia fa parte dell’esperienza quotidiana: “il riconoscimento percettivo,
l’identificazione delle ‘stesse’ cose, la continuità del ‘sé’ che ne fa
esperienza, tutto questo e quanto ne deriva presuppone l’uso di un principio di
comportamento di carattere analogico, piuttosto che logico”. Il punto per
Melandri non è stabilire una gerarchia ma riconoscere la necessaria
complementarità tra logica e analogia. Quello di Melandri, diceva Gianni Celati
in Alì Babà: progetto di una rivista 1968-1972 (1998), è un pensiero che “fa
retroagire le conclusioni sulle premesse”. Dal punto di vista concettuale, c’è
una chiara similitudine con l’algoritmo di retropropagazione di Hinton, che
aggiusta i pesi per correggere le risposte in uscita delle reti neurali.
Secondo il senso comune, ragionare è calcolare logicamente, la rilevanza dei
procedimenti analogici di percezione, riconoscimento, esemplarità, proporzione e
differenziazione sono dati per scontati, forse perché funzionano bene,
apparentemente senza fatica. La logica funziona bene nei sistemi chiusi, mentre
l’analogia li riapre indefinitamente. Melandri in L’analogia, la proporzione,
la simmetria racconta l’analogia come gioco linguistico, dove c’è un rilancio
trasgressivo che costruisce inedite associazioni, la cui “molla” è
“l’intelligenza intesa come atto creativo, produttivo, innovatore”. Dall’altra
parte, la componente del controllo, nella dinamica del gioco analogico, è un
tentativo di normalizzazione operato dalla “cultura intesa come atto critico,
inibitore, riassimilativo”, che verifica la legittimità e tenuta della nuova
associazione.
Giochi chiusi e giochi aperti
Gli scacchi compaiono spesso nella storia dell’intelligenza artificiale, questo
perché sono un sistema formale che ben si presta a essere tradotto in problema
da affrontare con simboli e operatori logici. Ma non tutti i giochi sono sistemi
formali, anzi i giochi sono diversissimi tra loro: scacchi, giochi con la palla,
carte e computer, eppure siamo in grado di distinguere un gioco quando lo
vediamo. Nelle Ricerche filosofiche, nel famoso paragrafo sulla somiglianza di
famiglia, Ludwig Wittgenstein scrive: “non pensare ma osserva!”, esortando a
osservare “somiglianze emergere e sparire”. Il percorso di Wittgenstein, dalla
fiducia nella logica come chiusura dei discorsi e il successivo rilancio verso
la costruzione di analogie, traccia un possibile parallelo con il conflitto tra
la scuola simbolica e quella connessionista della ricerca sull’intelligenza
artificiale. Le somiglianze che vediamo sorgere e sparire sono quelle in base
alle quali costruiamo analogie.
> La logica funziona bene nei sistemi chiusi, mentre l’analogia li riapre
> indefinitamente.
Dicevamo che nel senso comune il pensare viene inteso come calcolo logico, anche
perché garantisce stabilità e definitezza, mentre l’analogia non è chiusa per
sempre e quando è vera è vera per gradi. Gli scacchi sono un sistema
compiutamente formale, altri giochi, come i giochi linguistici, non lo sono.
L’intelligenza artificiale ha avuto successo quando ha mostrato di eccellere
fuori dai sistemi formali.
Analogie intorno a noi
Nota sin da Aristotele, l’analogia fino alla seconda metà del Ventesimo secolo
riceve poca attenzione. Eppure è dappertutto, usata migliaia di volte al giorno,
non solo nei processi cognitivi. Per esempio in giurisprudenza: la common law si
basa sul principio analogico, ma non solo. In generale la proporzionalità è uno
dei criteri con cui giudichiamo continuamente ‒ quasi senza rendercene conto ‒
l’adeguatezza delle azioni. Decidiamo che qualcosa è sbagliato, non è adeguato,
proporzionato al contesto. A un livello più alto di considerazione decidiamo che
qualcosa è ingiusto, contrario a una buona norma, perché contravviene o eccede
una misura; il modo in cui verifichiamo l’eccedenza è la proporzione tra quanto
noi consideriamo accettabile e il fenomeno con cui ci confrontiamo. Sono esempi
che vediamo circolare quotidianamente. Il procedimento mentale “per mezzo
dell’esempio” è analogico, Aristotele nella Retorica lo chiama “paradigmatico”.
La scelta, come prerogativa umana
Il secondo significato del Nobel a Hinton è politico. Nel discorso di
accettazione lo scienziato dice che l’IA ha il potere di migliorare la
produttività in quasi tutti i campi umani e questi benefici se distribuiti in
modo equo saranno straordinari, ma che dobbiamo guardarci dai pericoli a breve e
lungo termine; da chi possiede le IA e intende usarle per il proprio guadagno
immediato.
> Come impedire ai sistemi ad apprendimento autonomo di volere più controllo?
> Nessuno ha la risposta.
Dopo il successo ottenuto nel 2012, con la rete neurale capace di riconoscere
più di un milione di immagini, un momento da alcuni ribattezzato “Big Bang
dell’IA”, Hinton decise di creare una piccola startup con tre dipendenti, nessun
prodotto, quasi nessuna storia e di metterla in vendita con un’asta, tenuta via
email, tra Google, Microsoft, Baidu e DeepMind. Alla fine della giornata i
contendenti rimasti erano l’americana Google e la cinese Baidu. L’offerta più
alta erano i 44 milioni di dollari di Google. Dopo averci dormito sopra, Hinton
e i suoi due studenti-colleghi decisero di accettare e sospendere le offerte.
Invece di massimizzare il guadagno Hinton ha scelto il compratore, ha deciso
dove portare la sua ricerca.
Nel 2023 ha dato le dimissioni da Google, per poter esprimere liberamente i
propri timori sulle nuove forme di intelligenza artificiale: “È difficile vedere
come impedire che l’IA sia usata per scopi malvagi, da malintenzionati”. Oggi
Hinton è convinto che le “armi autonome” dovrebbero essere fuorilegge, che il
loro sviluppo sia pericoloso perché potrebbero sfuggire al controllo dei loro
creatori. Perché un sistema ad apprendimento autonomo sia efficace deve essere
in grado di creare da sé i suoi sotto-obiettivi. “Sfortunatamente ‒ ha detto
Hinton ancora nell’intervista al New Yorker ‒ c’è un sotto-obiettivo di grande
validità generale: ottenere più controllo”. La domanda su cui lavorare diventa:
come impedire ai sistemi ad apprendimento autonomo di volere più controllo?
Nessuno ha la risposta, secondo Hinton. All’inizio della sua carriera aveva
lasciato gli Stati Uniti per il Canada, preferendo non ricevere fondi militari
per la ricerca. Nel momento in cui Google, Meta e Open AI stanno cambiando le
policy per rendere più facili futuri accordi per l’uso militare dell’IA il suo
percorso ci ricorda quanto faccia la differenza scegliere da che parte stare.
Hinton continua a non avere paura di essere una voce isolata, come quando
propugna il reddito di base universale per contrastare gli sconvolgimenti del
mercato del lavoro dovuti alla diffusione delle IA generative, o quando si
preoccupa dell’aumento delle disuguaglianze tra ricchi e poveri, o dell’elezione
di populisti di destra alle più alte cariche pubbliche. Nel significato politico
del Nobel a Hinton, accanto all’interesse collettivo, alle azioni militari e
alle guerre commerciali tra Stati, c’è una sfumatura che riguarda la dimensione
individuale, dove non risuona la paura, ma la fiducia nel potere
dell’intuizione.
L'articolo L’uomo che ha insegnato alle macchine il ragionamento analogico
proviene da Il Tascabile.