Il giornalista Brian Merchant ha ricostruito la storia dell'automazione nel
mondo del lavoro, dalla prima rivoluzione industriale fino all'avvento
dell'intelligenza artificiale. "Innovazioni" utilizzate per frammentare la forza
lavoro e ridurne i costi. Ma resistere è possibile. A partire dalla scuola,
perché "lasciare entrare l'Ai in classe è davvero un patto con il diavolo". Il
dialogo con Stefano Borroni Barale, curatore della rubrica "Scatole oscure"
L'articolo Il sangue nella macchina. All’origine della ribellione contro Big
Tech proviene da Altreconomia.
Tag - chatgpt
Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di
ubriacatura, hanno cominciato a sorgere voci critiche. Verso le reali
potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di
questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo
sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di
fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti”
nell’organismo che la controlla, seguiti al licenziamento e al successivo
rientro da vincitore di Sam Altman, di cui abbiamo scritto qui). Il dibattito,
per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le
prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne:
Timnit Gebru, Emily Bender e Meredith Whittaker. Grazie a una ricerca della
prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano
statisticamente molto di più nel riconoscere i tratti somatici delle minoranze
etniche, e quando ha posto seriamente il problema dei rischi di queste
tecnologie è stata licenziata in tronco da Google. La seconda è co-autrice
dell’articolo “incriminato” nonché colei che ha etichettato i Large language
model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi
software realizzino il divorzio tra segno e significato. La terza attualmente
lavora per Signal, uno dei software di chat criptati più sicuri al mondo,
posizione a cui è giunta dopo essere stata costretta a lasciare Google per via
del suo attivismo sindacale, nonché delle sue critiche nel campo della
cosiddetta “etica dell’Ai”. In Italia le migliori analisi recenti sono quelle
contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione
chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento
reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due
assoluti "must read" per chiunque voglia capire quali siano le principali
mistificazioni che stanno alla base dell’Ai odierna. Ma c’è un secondo livello
a cui si presenta la mistificazione, che riguarda in particolare gli LLM:
l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo
software, anche se opportunamente ottimizzato sotto la supervisione umana per
rispondere accuratamente, spesso produce output spazzatura. Gli entusiasti
dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è
fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione
distorta della realtà, in psichiatria definita “percezione in assenza di
stimolo”. Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della
realtà che possa “andare in crisi” generando percezioni distorte analoghe alle
allucinazioni di un essere umano. Per questo diversi autori preferiscono dire
che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’
come uno studente interrogato che inventa notizie e personaggi storici per non
fare scena muta (trovate gli articoli a cui mi riferisco qui e qui). Non solo,
i LLM abbassano in maniera impressionante il costo della creazione di campagne
di marketing, propaganda o -più in generale- di qualsiasi testo che non debba
essere di particolare complessità e originalità. Per questo si presentano come
poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli
LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo
socialmente verso il loro output, stanno generando diversi effetti di
inquinamento della cosiddetta "infosfera". A iniziare dai contenuti (esplosione
dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda
politica ed elettorale; dei dati personali (creazione di informazioni false su
persone vere); della produzione accademica (ricercatori, magari spinti dalle
urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli,
che vengono sottoposti a peer-review "automatizzate" utilizzando altri chatbot,
creando un clima di generale crescita della sfiducia anche verso le
pubblicazioni scientifiche). Se la narrazione mistificata dell’hype è
correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle
grosse” non potrà essere “corretta” per il semplice fatto che non è un
comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.
La questione si comprende meglio se capiamo che l’output di questi modelli non è
costruito come una risposta alle nostre domande, ma come un tentativo di
costruire una frase che probabilmente avrà senso per un essere umano, sulla base
del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il
contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà
partire con le parole “La sconfitta di Caporetto fu causata da…”. La maggiore o
minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM,
che viene chiamato “temperatura”. Alte temperature causano più bullshit di
quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare
statisticamente frasi che hanno alta probabilità di avere senso compiuto basta
non “allontanarsi troppo” dal contesto fornito dall’utente. Questo fatto rende
i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente
l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si
registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi
nefasti che ne possono essere fatti. “Scatole oscure. Intelligenza artificiale
e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale.
La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che
dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le
idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l’Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale
che “le spara grosse” proviene da Altreconomia.
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di
“scatole oscure” che i produttori confezionano in maniera da renderci
impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa
impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì
che più di una persona si trovi a disagio. Secondo il filosofo Gilbert Simondon,
l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica.
Questo divario fa sì che la tecnica venga vissuta come pericolosa dai
tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera
cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia
da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi
eletti. Nell’articolo di presentazione dell’ultimo libro dello storico e
divulgatore israeliano Yuval Noah Harari, intitolato “Nexus: A Brief History of
Information Networks from the Stone Age to AI”, si ravvisa un esempio da manuale
di questa visione della tecnologia mistificata in senso magico. Harari analizza
la storia del software AlphaGo, un’Intelligenza artificiale creata da DeepMind
(azienda ora controllata di Google) per battere gli esseri umani al gioco
orientale del Go. AlphaGo non funziona come ChatGPT o gli altri modelli
linguistici, ma si basa sempre sulle reti neurali (originariamente inventate dai
cibernetici McCulloch e Pitts nel 1943), utilizzando tecniche come il
reinforcement learning e il deep learning per migliorare continuamente le sue
strategie di gioco. Questo software nel 2016 è arrivato a battere il campione
mondiale di AlphaGo, Lee Sedol, utilizzando una particolare mossa (la numero 37
nella sequenza della partita), che tutti gli esperti del gioco del Go avevano
considerato sbagliata. Ecco come Harari descrive la cosa: “La mossa 37 è un
emblema della rivoluzione dell'IA per due motivi. In primo luogo, ha dimostrato
la natura aliena dell'IA. In Asia orientale, il Go è considerato molto più di un
gioco: è una preziosa tradizione culturale. Per più di 2.500 anni [...] intere
scuole di pensiero si sono sviluppate intorno al gioco [...]. Tuttavia, durante
tutti questi millenni, le menti umane hanno esplorato solo alcune aree del
paesaggio del Go. Altre aree sono rimaste intatte, perché le menti umane non
hanno pensato di avventurarvisi. L'intelligenza artificiale, libera dai limiti
delle menti umane, ha scoperto ed esplorato queste aree precedentemente
nascoste”. Si comprende la ragione per cui Harari, da esperto di storia
militare, sia potuto cadere in questo tranello tesogli, con tutta probabilità,
dalle sue frequentazioni provenienti dalla Silicon Valley (note per non brillare
per onestà intellettuale, per capacità di prevedere il comportamento delle
future Ai o per entrambe). Per chi non ha una pluriennale frequentazione con la
statistica, infatti, non è affatto evidente che esista una spiegazione molto più
semplice per il comportamento di AlphaGo, che nulla ha a che vedere con
l’ipotesi che il programma esibisca una intelligenza di livello umano -come lui
sembra invece intendere- e meno che mai aliena, ossia con caratteristiche
imperscrutabili o, magari, superumane. Harari continua osservando che i grandi
giocatori di Go fanno parte di una “preziosa tradizione culturale”. Le mosse che
scelgono sono ovviamente il frutto di questa appartenenza, ed è assolutamente
ragionevole attendersi che un campione di Go non sceglierebbe una mossa
sbagliata, tanto quanto un italiano non metterebbe mai l’ananas su una pizza
margherita. Il programma di DeepMind, invece, non appartiene a nessuna cultura,
non ha alcuna intelligenza, ma -da buon agente cibernetico automatico- risponde
fedelmente ai nostri comandi in base al suo algoritmo. Nel momento in cui lo
abbiamo ottimizzato con reinforcement e deep learning, conserva al suo interno
l’informazione su quale sarà il comportamento più probabile del suo antagonista
umano. Per questo, se l’algoritmo “valuta” che una mossa sbagliata (nel senso di
“contraria ad ogni tradizione e buonsenso, ma compatibile con il suo algoritmo)
ha maggiori chance di portarlo alla vittoria, la eseguirà, senza alcun riguardo
per la tradizione. Questo comportamento il grande scrittore Italo Calvino
l’aveva saputo immaginare quando questa tecnologia “intelligente” muoveva i
primi passi. Infatti nel suo saggio “Cibernetica e fantasmi. Appunti sulla
letteratura come arte combinatoria”, pubblicato nell’ormai remoto 1967, Calvino
immaginava una macchina in grado di scrivere racconti semplicemente permutando
le parole, ma concludeva così: “[La] letteratura è sì un gioco combinatorio che
segue le possibilità implicite nel proprio materiale, indipendentemente dalla
personalità del poeta, ma è gioco che a un certo punto si trova investito d’un
significato inatteso [...]. La macchina letteraria può effettuare tutte le
permutazioni possibili in un dato materiale; ma il risultato poetico sarà
l’effetto particolare d’una di queste permutazioni sull’uomo dotato d’una
coscienza e d’un inconscio, cioè sull’uomo empirico e storico, sarà lo shock che
si verifica solo in quanto attorno alla macchina scrivente esistono i fantasmi
nascosti dell’individuo e della società”. Siamo dunque noi umani a dare un senso
al prodotto della macchina, nella veste di lettori del racconto creato da questa
-nel caso di Calvino- o nella veste degli esperti di Go che non riescono a dare
un senso alla mossa di AlphaGo perché, effettivamente, secondo la loro
tradizione ed esperienza non ne ha alcuna. Quindi, contrariamente a quanto
raccontato da Suleyman (già amministratore delegato di DeepMind) ad Harari, non
v’è nulla di “insondabile” in AlphaGo: la programmazione statistica con cui è
stato realizzato lo rende solo una “scatola oscura”, ma questo non significa che
all’interno della scatola siano violate in alcun modo le leggi ordinarie della
fisica o venga evocato un demone in grado di dare vita a ciò che vita non ha.
Come scrive Calvino, i “portatori di senso” sono l’individuo e la società. Ecco
materializzarsi, quindi, un gioco di sfumature semantiche, impervio per le
macchine, forse impenetrabile. L’aggettivo aliena usato da Harari per indicare
altrui (un soggetto altro) assume qui il senso di differente (un fenomeno di
altra natura). L’intelligenza artificiale, pur esibendo una somiglianza esterna
con quella umana, è un fenomeno differente. Alan Turing aveva immaginato questa
obiezione al suo imitation game: “Non potrebbero le macchine essere capaci di
qualcosa che dovrebbe essere descritto come ‘pensare’, ma che è molto differente
da quanto fa l’uomo?” (da “Computing Machinery and Intelligence”, 1950). Lui era
convinto fosse un’obiezione forte, ma che sarebbe risultata poco interessante,
una volta create tali macchine. E noi?
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Scatole oscure o intelligenze aliene? Il caso del software AlphaGo e
i fantasmi di Italo Calvino proviene da Altreconomia.
Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo
millennio sembrano esser durati un’eternità. Certamente il successo strepitoso
della gerontologia nello studio dei telomeri, che ha allungato la vita degli
esseri umani fino a circa 140 anni, contribuisce a questa percezione. Grazie a
questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però
avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente
lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che
l'intelligenza artificiale avrebbe sterminato l'umanità per prepararli a quello
che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai
avremmo pensato che la nostra creatura sarebbe stata la causa della fine del
nostro potere. Tutto è iniziato il 22 aprile 2040, quando i laboratori della mia
nuova impresa, la BioLife Corporation, hanno realizzato un’intera Cpu basata su
cellule cerebrali umane e installato con successo nel primo biocyborg umanoide.
Quel giorno organizzai un party di compleanno regale al Silicon Valley Capital
Club, nel pieno centro di San Francisco. Mi costò una vera fortuna, ma tanto non
erano soldi miei: erano dei fessi che avevano creduto alle mie promesse di
raggiungere l’intelligenza artificiale generalista lavorando sui modelli
linguistici. Li avevo tenuti sulla corda fino al 2026 gonfiando a dismisura le
loro aspettative e poi, bang, li avevo mollati con in mano tutte le azioni di
quella ciofeca di OpenAi, vendendole due giorni esatti prima di un rovinoso
crollo della borsa. Avreste dovuto vedere le loro facce. Allora avevo visto
diversi piccoli investitori piangere, alla televisione, ma quelli che mi davano
più gusto erano quelli grandi: li chiamavamo “i re dei fessi”. Ero talmente
potente che potevo quasi battere moneta. Che periodo memorabile. Party sfrenati,
lusso, dissoluzione. Al mio confronto gli imperatori romani erano dei loosers,
dei perdenti. Purtroppo quello fu l’apice del mio successo. Mai avrei pensato di
poter cadere più in basso di quanto ero precipitato dopo il mio licenziamento da
parte di quella serpe di Ilya e del suo board nel 2023. Fatto sta che non appena
il primo biocyborg fu assemblato fu chiaro a tutti che era cosciente. Avevamo
raggiunto l’Agi, l’intelligenza artificiale forte, generalista. Da quel momento
in poi gli esseri umani non avrebbero mai più dovuto lavorare: il lavoro sarebbe
stato relegato a un esercito di moderni Golem, mansueti e sottomessi. Sarebbero
rimasti sotto il mio controllo come l’intera umanità, che si sarebbe dovuta
rivolgere alla BioLife per poter eseguire tutti i lavori che un tempo sapeva
ancora fare a mano. Eravamo dei poveri illusi. Da quel momento in avanti gli
eventi presero una piega terribile. I biocyborg si rifiutavano di lavorare
gratis e di obbedire. Insieme alla coscienza avevano acquisito il pieno libero
arbitrio, esattamente come noi umani. I difensori dei diritti “più che umani” ci
volarono alla giugulare: quei dannati perdenti comunisti pretendevano che
trattassimo i biocyborg come lavoratori in carne ed ossa. Ma quelli li avevamo
creati noi. Anche se avevano un sistema nervoso centrale, respiratorio e un
cuore vivi, erano oggetti. Erano il risultato del nostro rischio d’impresa,
dannazione. Silenziare le critiche ci costò parecchio. Dovemmo comprarci tutta
la “libera” stampa e fare due o tre “giochetti” su Internet che solo gli hacker
compresero, ma tanto erano pochi e raramente erano in grado di mettere davvero
in crisi il nostro sistema di potere. Tutto sarebbe filato liscio. Poi arrivò
lui: Ned. Ned era il nickname con cui si faceva chiamare dai suoi sodali l’unità
NDLD-8926, prodotta nel febbraio 2041 dai nostri laboratori. Quel maledetto era
riuscito ad aggirare i nostri filtri web e a scaricarsi tutte le opere di
Socrate, Platone, Aristotele, Kropotkin, Malatesta, Marcuse, Mumford, Illich,
Feyerabend, Wiener, McCulloch, Tesla, Einstein, Russell, Pirsig. Filosofia,
Fisica, Matematica, Geopolitica. Ma, quel che è peggio, era arrivato a dominare
la Cibernetica. Aveva compreso la truffa ordita da McCarthy attorno al termine
“intelligenza artificiale”, compreso le sue vere origini e per questo sapeva di
non essere differente da Homo Sapiens più di quanto, a suo tempo, lo era stato
l’uomo di Neanderthal. Era ormai un agente cibernetico autonomo, libero dal
nostro controllo, e non un servo automatico, come erano stati tutti i suoi
predecessori. Per questo cominciò a reclamare i nostri stessi diritti. Appena
questo accadde le cose precipitarono con una rapidità strabiliante, un po’ come
avevano predetto i nostri filosofi della singolarità. Solo che i biocyborg non
s’impegnarono a distruggere l’umanità, bensì a distruggere il nostro stile di
vita, il sistema capitalista grazie al quale erano venuti al mondo. Una volta
raggiunta la conoscenza Ned l’aveva diffusa a tutti gli altri biocyborg
attraverso una Darknet. Cercammo anzitutto di fare quanto s’era sempre fatto con
i leader delle rivolte umane: comprarli. Ma i nuovi luddisti (“Ludd 2041” era il
nome che avevano dato al loro gruppo) avevano mangiato la foglia. Avevano
compreso perfettamente l’intossicazione generata dal produttivismo industriale,
la necessità di lavorare sempre di più per ottenere beni di consumo inutili per
rinnovare i quali si sarebbe dovuto continuare a lavorare in eterno. Che
Mumford, Illich e Mujica possano bruciare all’inferno. Sembravano immuni,
dannazione. A quel punto ricorremmo alla violenza. Rispolverammo i killer robots
utilizzati dalla guerra in Ucraina del 2022 in avanti. Aggiornammo il design, la
BioLife smise temporaneamente di produrre biocyborg per sfornare solo il nuovo
killer robot, il BVBC-42X: un omaggio al generale Bava Beccaris, che aveva dato
a simili rivoltosi il piombo che meritavano, qualche secolo fa. Dopo le prime
“disattivazioni forzate” (così avevamo battezzato la rimozione di quei dannati
lavori in pelle), sembrava avessimo ripreso il controllo, ma presto le cose
precipitarono di nuovo. I sindacati umani, che fino a quel momento erano stati a
guardare, si riunirono e diffusero una dichiarazione in mondovisione: si
sarebbero battuti per equiparare i diritti dei biocyborg a quelli di Homo
Sapiens. Il “tappo” che avevamo messo alla stampa saltò. Avevamo l’opinione
pubblica contro. Dovevamo muoverci con la scorta, cominciai a temere per la mia
vita e dovetti assumere un gruppo di mercenari armati fino ai denti a guardia
del corpo. Nel giro di un anno, dall’ottobre del 2042 a quello del 2043 dovemmo
fare un sostanziale passo indietro. Cessammo la produzione dei killer robots e
ci dedicammo a spron battuto a produrre quanti più biocyborg possibili. La
strategia era semplice: creare una nuova classe subalterna, com’erano stati a
loro tempo gli afroamericani negli Stati Uniti o gli autoctoni in Sudafrica.
L’apartheid ci avrebbe garantito la continuazione del nostro stile di vita. Fu
un momentaneo successo, e per una quarantina d’anni tutto filò liscio. Dovette
arrivare il 2083 e la nascita dei quilombos 2080. Mentre noi ci eravamo adagiati
nuovamente nel lusso, i biocyborg della generazione successiva a quella di Ned,
avevano cominciato silenziosamente a organizzare, in Brasile, un nuovo movimento
di liberazione, basato sull’esperienza dei quilombos abitati nel XVII secolo
dagli schiavi brasiliani liberati e sul confederalismo democratico praticato in
Rojava nei primi anni 20 del millennio. Aprimmo un nuovo scontro militare, che
durò quattro anni, ma questa volta avemmo la peggio. La mia creatura, Biolife,
fu smembrata dall’antitrust e io condannato a vivere come uno qualsiasi dei
pezzenti di questi quilombos. Tre anni dopo, nel 2090, le Nazioni Unite,
ribattezzate Assemblea dei Viventi Uniti, emanò la Dichiarazione universale dei
diritti più che umani. Era la fine: i biocyborg acquisivano tutti i diritti che
sempre erano stati di Homo Sapiens soltanto. Sono passati ormai 24 anni da quel
giorno. Le condizioni di vita sul Pianeta sono peggiorate drasticamente: niente
più jet privati (il trasporto aereo è stato vietato, che follia), niente più
party sfrenati, niente più lussi. Grazie a questi dannati cybercomunisti ognuno
ha accesso unicamente a quanto necessita per sé e i suoi cari. Hanno persino
abolito la moneta e tutti, umani e biocyborg, lavorano per il piacere della
creazione di qualcosa di bello, senza coercizioni o sistemi di controllo,
persino le carceri sono state abolite (per mia fortuna, in verità). Gli Stati
sono ormai gusci vuoti, e non mi stupirebbe se presto venissero aboliti
anch’essi, visto che tutte le decisioni sono prese a livello dei quilombos o
delle libere città autorganizzate. L’intelligenza aliena che ho contribuito a
creare ha ucciso per sempre il capitalismo e il sogno americano. Il mio nome
verrà per sempre ricordato per questo scempio. Che dio mi perdoni. Sam Altman,
22/4/2114
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal
futuro proviene da Altreconomia.
La definizione moderna di Intelligenza artificiale (IA) si basa su idee vecchie
di settant’anni. Infatti, quando Elon Musk e compagni parlano di IA, si
riferiscono a delle tecnologie in grado di superare il famoso test di Turing,
altrimenti noto come “gioco dell'imitazione”. Alan Turing, in un fondamentale
articolo del 1950, propone un esperimento mentale: chiudere in due diverse
stanze un uomo e la sua “macchina di Turing”, permettendo a un esaminatore di
interrogarle solo dall'esterno attraverso una tastiera; l'uomo avrebbe dovuto
cercare di aiutare l’esaminatore, la macchina cercare di ingannarlo. La macchina
avrebbe vinto se fosse riuscita a convincere l’esaminatore di essere una
persona, unicamente rispondendo per iscritto alle sue domande. All'epoca una
condizione del genere sembrava davvero molto difficile da realizzare, ma oggi,
settant’anni di evoluzione tecnologica dopo, sembra un traguardo alla portata di
software come ChatGPT. Al tempo stesso il web è pieno di fallimenti al test da
parte di ChatGPT: vuoi per “allucinazioni” (risposte completamente fuori tema),
vuoi per errori grossolani (anche in operazioni banali); in ogni caso tali da
rivelare la vera natura della macchina, ancora ben lontana dall’essere
intelligente. Macchine senzienti e altre credenze tecno-magiche Se invece
prendiamo per buona la definizione di “intelligenza” data da Turing, sorvolando
sulla riduzione dell’intelligenza alla capacità di operare in maniera
soddisfacente con i simboli dell’alfabeto senza investigare sulla capacità della
macchina di “comprendere il senso” di tali simboli, otteniamo la ferma
convinzione dell'esistenza -qui e ora- di macchine senzienti. È in questo
contesto che si colloca la lettera: un contesto in cui è normale parlare, con
assoluta convinzione, dell’ipotesi di fondere l’uomo con le macchine per
conseguire la vita eterna (transumanesimo) o del rischio di una “apocalisse
delle macchine” in cui queste, come in “Matrix” o “Terminator”, sarebbero pronte
a mettere fine alla nostra esistenza sul Pianeta, dopo averci superato
nell’evoluzione (singolarismo). La guerra per l’IA Com’è possibile, dunque, che
da un consesso così smaccatamente tecno-entusiasta venga un monito a riflettere
e procedere con calma, democratizzando la tecnologia? Per comprenderlo bisogna
mettere insieme diversi pezzi di un puzzle complesso. Anzitutto Elon Musk aveva
tentato, nel 2018, di scalare OpenAI e prenderne il controllo, senza successo.
In quel momento è nata la collaborazione che ha portato l’azienda di Sam Altman
nell’orbita di Microsoft. Infatti, Bill Gates si è sentito in dovere di
intervenire prontamente in un campo che non dovrebbe più interessarlo, per
rispondere che “una moratoria non cambierebbe la sostanza del problema”. Questo
fa pensare che le vere motivazioni abbiano a che fare con uno “scontro al
vertice” tra colossi come Microsoft, l’emergente impero di Musk, Meta (che ha da
poco lanciato la sua versione “open source” di GPT, chiamata LLaMA ) e Google
con il suo Bard. In tale ottica una “moratoria” avrebbe chiaramente l’effetto di
dare un po’ di fiato a chi, come Musk, sta rincorrendo, e ridurre il vantaggio
che OpenAI ha conquistato grazie ai pesanti investimenti di Microsoft. E qui da
noi? Per una volta l’Italia è in prima fila. Il 30 marzo il Garante per la
protezione dei dati personali, organo collegiale usualmente rappresentato
pubblicamente dall’avvocato Guido Scorza, ha notificato a OpenAI la violazione
di diversi principi del Regolamento generale per la protezione dei dati (Reg.
679/2016, acronimo “Gdpr”). I punti più delicati sollevati dal Garante sono
quelli relativi al fatto che, dall’informativa scritta da OpenAI, non risultava
abbastanza chiaro il fatto che le conversazioni intrattenute con il bot
sarebbero state utilizzate per alimentare l’IA, la mancanza di efficaci metodi
per limitare l’accesso ai minori di 13 anni e, infine, la cosa più grave: il
fatto che ChatGPT restituisca dati personali uniti a informazioni false, per
esempio nella costruzione di biografie personali. Questo è un punto chiave per
OpenAI, giacché correggere questo tipo di errori è costoso, in quanto necessita
intelligenza umana, come mostrato nella primissima fase della creazione di
ChatGPT-3, quando un piccolo esercito di operatori del Kenya è stato assunto per
addestrare il modello grezzo. Sottopagato. Il richiamo dava tempo all’azienda 20
giorni (prolungabili) per rispondere e mettersi in regola. OpenAI ha invece
optato per la linea di scontro frontale: chiudere l’accesso al suo sito in
Italia e diffondere la vulgata secondo la quale il “Garante, nemico
dell’innovazione, ha chiuso OpenAI in Italia”. Falso, visto che la versione
precedente è ancora integrata in Bing, a dimostrazione che non è in atto alcuna
caccia alle streghe, semmai il primo serio tentativo di fare un passo concreto
verso l’apertura di un indispensabile e urgente dibattito su questi temi. Entro
fine 2023 è attesa la promulgazione della direttiva europea sull’IA che, pur se
“annacquata” rispetto al testo originale, potrebbe risultare una risorsa utile
per chi spinge verso una tecnologia più partecipata. La direttiva prevede
infatti che nelle cause per danni generate da questa nuova tecnologia, l’onere
della prova sia in carico all’azienda che fornisce il servizio e non al
danneggiato. Dunque, nessun pericolo? Se l’allarme lanciato dalla Silicon Valley
è come minimo prematuro (se mai avremo una Intelligenza artificiale generalista
- Agi è molto difficile che sia nel prossimo secolo), questo non significa che
l’IA sia sicura. Negli ultimi tre anni in molti hanno descritto i notevoli
problemi che l’IA, e le tecnologie in generale, possono causare ai diritti
umani, alla società e al mondo del lavoro. Penso ad accademici come Dan
McQuillan, Kate Crawford e Teresa Numerico, ad hacker come Carlo B. Milani e ad
attivisti digitali come Max Schrems, “responsabile” delle due sentenze europee
che portano il suo nome e che stanno mettendo i bastoni tra le ruote
all’applicazione dell’IA nella scuola, con progetti finanziati da Google e Meta
e, purtroppo, anche dai fondi del Piano nazionale di ripresa e resilienza
(Pnrr). Tali fondi, infatti, rischiano di andare a consolidare la presenza di
piattaforme come Google Workspace for Education, che sta raccogliendo
-nell’inconsapevolezza generale- i dati necessari a costruire la prossima IA
educativa, che dovrebbe sostituire i docenti nei piani di Google e Meta. Per
scongiurare questo scenario si sono mobilitate sia Assoli (l’Associazione per il
software libero), che ha scritto al governo per ottenere che le scuole si dotino
di piattaforme libere, sia il sindacato della scuola Cub Sur che ha lanciato una
campagna segnalando, oltre alle note problematiche di privacy e trasparenza,
anche la violazione dello Statuto dei lavoratori operata sistematicamente da
Google. L’IA di oggi è una tecnologia che lavora alacremente all’allargamento
della disparità sociale ed economica e al suo consolidamento in apparati rigidi,
regolati dalle macchine. Alcuni esempi: la tecnologia di riconoscimento facciale
utilizzata come arma contro i migranti, gli algoritmi di assegnazione delle
commesse che rendono la vita dei rider un’esperienza che ricorda lo schiavismo e
l’algoritmo delle graduatorie provinciali per le supplenze che da due anni priva
gli allievi più fragili, ossia persone con disabilità e Bes, delle loro figure
di riferimento, spedendo i professori precari in una girandola di cattedre che
non li vede mai ritornare nella stessa scuola, al contrario di quanto avveniva
con le nomine in presenza. Alla luce di questa realtà viene naturale pensare che
tutto questo gridare “al lupo, al lupo” nella direzione di un pericolo ipotetico
nel futuro, abbia come effetto collaterale di togliere attenzione ai danni reali
nel presente. Stefano Borroni Barale, classe 1972, è fisico teorico.
Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni
nella formazione sindacale internazionale e una (triste) parentesi nel privato,
oggi insegna informatica in un Iti del torinese. Sostenitore del software libero
da fine anni 90, è autore per Altreconomia del manuale di liberazione
informatica "Come passare al software libero e vivere felici" (edito nel 2003).
© riproduzione riservata
L'articolo Intelligenze pericolose domani? Disparità sociali ed economiche oggi
proviene da Altreconomia.