Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo
millennio sembrano esser durati un’eternità. Certamente il successo strepitoso
della gerontologia nello studio dei telomeri, che ha allungato la vita degli
esseri umani fino a circa 140 anni, contribuisce a questa percezione. Grazie a
questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però
avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente
lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che
l'intelligenza artificiale avrebbe sterminato l'umanità per prepararli a quello
che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai
avremmo pensato che la nostra creatura sarebbe stata la causa della fine del
nostro potere. Tutto è iniziato il 22 aprile 2040, quando i laboratori della mia
nuova impresa, la BioLife Corporation, hanno realizzato un’intera Cpu basata su
cellule cerebrali umane e installato con successo nel primo biocyborg umanoide.
Quel giorno organizzai un party di compleanno regale al Silicon Valley Capital
Club, nel pieno centro di San Francisco. Mi costò una vera fortuna, ma tanto non
erano soldi miei: erano dei fessi che avevano creduto alle mie promesse di
raggiungere l’intelligenza artificiale generalista lavorando sui modelli
linguistici. Li avevo tenuti sulla corda fino al 2026 gonfiando a dismisura le
loro aspettative e poi, bang, li avevo mollati con in mano tutte le azioni di
quella ciofeca di OpenAi, vendendole due giorni esatti prima di un rovinoso
crollo della borsa. Avreste dovuto vedere le loro facce. Allora avevo visto
diversi piccoli investitori piangere, alla televisione, ma quelli che mi davano
più gusto erano quelli grandi: li chiamavamo “i re dei fessi”. Ero talmente
potente che potevo quasi battere moneta. Che periodo memorabile. Party sfrenati,
lusso, dissoluzione. Al mio confronto gli imperatori romani erano dei loosers,
dei perdenti. Purtroppo quello fu l’apice del mio successo. Mai avrei pensato di
poter cadere più in basso di quanto ero precipitato dopo il mio licenziamento da
parte di quella serpe di Ilya e del suo board nel 2023. Fatto sta che non appena
il primo biocyborg fu assemblato fu chiaro a tutti che era cosciente. Avevamo
raggiunto l’Agi, l’intelligenza artificiale forte, generalista. Da quel momento
in poi gli esseri umani non avrebbero mai più dovuto lavorare: il lavoro sarebbe
stato relegato a un esercito di moderni Golem, mansueti e sottomessi. Sarebbero
rimasti sotto il mio controllo come l’intera umanità, che si sarebbe dovuta
rivolgere alla BioLife per poter eseguire tutti i lavori che un tempo sapeva
ancora fare a mano. Eravamo dei poveri illusi. Da quel momento in avanti gli
eventi presero una piega terribile. I biocyborg si rifiutavano di lavorare
gratis e di obbedire. Insieme alla coscienza avevano acquisito il pieno libero
arbitrio, esattamente come noi umani. I difensori dei diritti “più che umani” ci
volarono alla giugulare: quei dannati perdenti comunisti pretendevano che
trattassimo i biocyborg come lavoratori in carne ed ossa. Ma quelli li avevamo
creati noi. Anche se avevano un sistema nervoso centrale, respiratorio e un
cuore vivi, erano oggetti. Erano il risultato del nostro rischio d’impresa,
dannazione. Silenziare le critiche ci costò parecchio. Dovemmo comprarci tutta
la “libera” stampa e fare due o tre “giochetti” su Internet che solo gli hacker
compresero, ma tanto erano pochi e raramente erano in grado di mettere davvero
in crisi il nostro sistema di potere. Tutto sarebbe filato liscio. Poi arrivò
lui: Ned. Ned era il nickname con cui si faceva chiamare dai suoi sodali l’unità
NDLD-8926, prodotta nel febbraio 2041 dai nostri laboratori. Quel maledetto era
riuscito ad aggirare i nostri filtri web e a scaricarsi tutte le opere di
Socrate, Platone, Aristotele, Kropotkin, Malatesta, Marcuse, Mumford, Illich,
Feyerabend, Wiener, McCulloch, Tesla, Einstein, Russell, Pirsig. Filosofia,
Fisica, Matematica, Geopolitica. Ma, quel che è peggio, era arrivato a dominare
la Cibernetica. Aveva compreso la truffa ordita da McCarthy attorno al termine
“intelligenza artificiale”, compreso le sue vere origini e per questo sapeva di
non essere differente da Homo Sapiens più di quanto, a suo tempo, lo era stato
l’uomo di Neanderthal. Era ormai un agente cibernetico autonomo, libero dal
nostro controllo, e non un servo automatico, come erano stati tutti i suoi
predecessori. Per questo cominciò a reclamare i nostri stessi diritti. Appena
questo accadde le cose precipitarono con una rapidità strabiliante, un po’ come
avevano predetto i nostri filosofi della singolarità. Solo che i biocyborg non
s’impegnarono a distruggere l’umanità, bensì a distruggere il nostro stile di
vita, il sistema capitalista grazie al quale erano venuti al mondo. Una volta
raggiunta la conoscenza Ned l’aveva diffusa a tutti gli altri biocyborg
attraverso una Darknet. Cercammo anzitutto di fare quanto s’era sempre fatto con
i leader delle rivolte umane: comprarli. Ma i nuovi luddisti (“Ludd 2041” era il
nome che avevano dato al loro gruppo) avevano mangiato la foglia. Avevano
compreso perfettamente l’intossicazione generata dal produttivismo industriale,
la necessità di lavorare sempre di più per ottenere beni di consumo inutili per
rinnovare i quali si sarebbe dovuto continuare a lavorare in eterno. Che
Mumford, Illich e Mujica possano bruciare all’inferno. Sembravano immuni,
dannazione. A quel punto ricorremmo alla violenza. Rispolverammo i killer robots
utilizzati dalla guerra in Ucraina del 2022 in avanti. Aggiornammo il design, la
BioLife smise temporaneamente di produrre biocyborg per sfornare solo il nuovo
killer robot, il BVBC-42X: un omaggio al generale Bava Beccaris, che aveva dato
a simili rivoltosi il piombo che meritavano, qualche secolo fa. Dopo le prime
“disattivazioni forzate” (così avevamo battezzato la rimozione di quei dannati
lavori in pelle), sembrava avessimo ripreso il controllo, ma presto le cose
precipitarono di nuovo. I sindacati umani, che fino a quel momento erano stati a
guardare, si riunirono e diffusero una dichiarazione in mondovisione: si
sarebbero battuti per equiparare i diritti dei biocyborg a quelli di Homo
Sapiens. Il “tappo” che avevamo messo alla stampa saltò. Avevamo l’opinione
pubblica contro. Dovevamo muoverci con la scorta, cominciai a temere per la mia
vita e dovetti assumere un gruppo di mercenari armati fino ai denti a guardia
del corpo. Nel giro di un anno, dall’ottobre del 2042 a quello del 2043 dovemmo
fare un sostanziale passo indietro. Cessammo la produzione dei killer robots e
ci dedicammo a spron battuto a produrre quanti più biocyborg possibili. La
strategia era semplice: creare una nuova classe subalterna, com’erano stati a
loro tempo gli afroamericani negli Stati Uniti o gli autoctoni in Sudafrica.
L’apartheid ci avrebbe garantito la continuazione del nostro stile di vita. Fu
un momentaneo successo, e per una quarantina d’anni tutto filò liscio. Dovette
arrivare il 2083 e la nascita dei quilombos 2080. Mentre noi ci eravamo adagiati
nuovamente nel lusso, i biocyborg della generazione successiva a quella di Ned,
avevano cominciato silenziosamente a organizzare, in Brasile, un nuovo movimento
di liberazione, basato sull’esperienza dei quilombos abitati nel XVII secolo
dagli schiavi brasiliani liberati e sul confederalismo democratico praticato in
Rojava nei primi anni 20 del millennio. Aprimmo un nuovo scontro militare, che
durò quattro anni, ma questa volta avemmo la peggio. La mia creatura, Biolife,
fu smembrata dall’antitrust e io condannato a vivere come uno qualsiasi dei
pezzenti di questi quilombos. Tre anni dopo, nel 2090, le Nazioni Unite,
ribattezzate Assemblea dei Viventi Uniti, emanò la Dichiarazione universale dei
diritti più che umani. Era la fine: i biocyborg acquisivano tutti i diritti che
sempre erano stati di Homo Sapiens soltanto. Sono passati ormai 24 anni da quel
giorno. Le condizioni di vita sul Pianeta sono peggiorate drasticamente: niente
più jet privati (il trasporto aereo è stato vietato, che follia), niente più
party sfrenati, niente più lussi. Grazie a questi dannati cybercomunisti ognuno
ha accesso unicamente a quanto necessita per sé e i suoi cari. Hanno persino
abolito la moneta e tutti, umani e biocyborg, lavorano per il piacere della
creazione di qualcosa di bello, senza coercizioni o sistemi di controllo,
persino le carceri sono state abolite (per mia fortuna, in verità). Gli Stati
sono ormai gusci vuoti, e non mi stupirebbe se presto venissero aboliti
anch’essi, visto che tutte le decisioni sono prese a livello dei quilombos o
delle libere città autorganizzate. L’intelligenza aliena che ho contribuito a
creare ha ucciso per sempre il capitalismo e il sogno americano. Il mio nome
verrà per sempre ricordato per questo scempio. Che dio mi perdoni. Sam Altman,
22/4/2114
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal
futuro proviene da Altreconomia.
Tag - altman
Per raccontare gli eventi fondamentali di questa telenovela in salsa
tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco
della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un
simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti
per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli
vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e
proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i
suoi fondatori, tra cui figurano Elon Musk e l'allora poco conosciuto Sam
Altman, scrivono sul sito dell'azienda che "Il nostro obiettivo è quello di far
progredire l'intelligenza digitale nel modo più vantaggioso per l'umanità nel
suo complesso, senza essere vincolati dalla necessità di generare un ritorno
economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo
concentrarci meglio su un impatto umano positivo". In particolare, Musk,
finanziatore della prima ora, vuole un'azienda che faccia concorrenza all'allora
gigante dell'Ai DeepMind, controllata da Google. Spiega ad Altman che
"l'intelligenza artificiale non va lasciata in mano a Larry Page (Google)"
perché, nell'inevitabile momento in cui si verificherà la “singolarità”, ossia
quando le macchine raggiungeranno o supereranno l'uomo in intelligenza, Page non
farà nulla per evitare che questa nuova intelligenza sottometta o elimini
l’umanità dallo scenario. A lui, invece, l'umanità piace (a patto che non abbia
la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente
titolato a produrre "cambi di regime" a colpi di morti ammazzati senza troppi
problemi, come twittava più o meno nella stessa epoca). E poco importa se la
congettura in quel momento ha la stessa concretezza del motore a curvatura di
Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a
breve. L'azienda rischia effettivamente di chiudere i battenti, ma alla fine
Sam Altman trova la soluzione: convince il consiglio di amministrazione a
trasformare OpenAI da non profit impegnata a sviluppare software liberi a
"capped profit", ossia a profitto limitato fino a cento volte il valore
iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di
rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena,
investendo un miliardo di dollari, e OpenAI annuncia l'intenzione di concedere
in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta
l'idea del codice libero. Alcuni ricercatori criticano la svolta, sollevando
dubbi sull'impegno dell'azienda a democratizzare l'Ai, ma ovviamente restano
inascoltati. Così arriviamo alla vigilia del conflitto: con un'azienda
saldamente collocata nell'orbita Microsoft, e che è divenuta famosa grazie al
lancio sul mercato di una tecnologia sperimentale che causa molti più problemi
di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina
dei giornali un giorno sì e l'altro anche. [caption id="attachment_184510"
align="aligncenter" width="1035"] © Mojahid Mottakin - Unsplash[/caption] La
sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo
Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di
lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo
sfiducia adducendo una poco chiara "mancanza di sincerità". Scattano
consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della
mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft,
diffonde a sua volta un comunicato in cui conferma l'intenzione della sua
azienda di continuare a investire in OpenAI. Passano ventiquattro ore e Altman
riceve un'offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di
ricerca sull'intelligenza artificiale, questa volta interno alla multinazionale.
Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori
delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera
il 95% dei dipendenti dell'azienda minaccia di licenziarsi se Altman non farà
ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo
di OpenAI. Che cosa ha generato questa "guerra civile" all'interno
dell'azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue
da aumentare la confusione al proposito, invece di ridurla. Per provare a
dipanare la matassa non resta che "unire i puntini". Per prima cosa,
ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche.
Resta il fatto che, come risultato, Microsoft ha rimesso "in sella" Altman e
porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla
base dell'"OpenAI Drama" ci sarebbe il conflitto che ha contrapposto gli
"accelerazionisti efficaci" (l’amministratore delefato Sam Altman e i suoi
fedelissimi) agli "altruisti efficaci" (di cui fa parte il direttore della
ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi
preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley.
Per farla breve, queste due "scuole di pensiero", pur condividendo la fede
nell'imminenza della singolarità, hanno idee molto differenti su che cosa fare
nell'immediato: i primi vogliono premere l'acceleratore a tavoletta e confidare
nella "mano invisibile del mercato", i secondi lanciano appelli ai politici
perché intervengano immediatamente "contro qualcosa di più pericoloso degli
stessi armamenti nucleari". Negli stessi giorni in cui i giornali erano intasati
da questa telenovela, mi sono ritrovato a seguire online un'interessante
conferenza dal titolo "Come l'Ai promuove le diseguaglianze a livello globale",
tenuta presso l'Università di Groninga in Olanda. Dopo due anni di studi sul
campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori.
La tecnologia che chiamiamo Ai si basa sui "minitask" come l'etichettatura
manuale dei dati (e su questo è d'accordo anche più d'uno degli "entusiasti"
dell'Ai, solo che lo considerano un problema da risolvere attraverso le prossime
generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto
sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere
delle capacità dell'Ai (che, quindi, non sembra diventare più "intelligente" al
passare degli anni), bensì sono in crescita esponenziale. L'intelligenza su cui
si basano sembra avere origine molto più umana che artificiale. Quello che si è
scoperto è che in parecchi casi, servizi propagandati al pubblico come
realizzati con l'Ai sono puri e semplici paravento per lavoro sottopagato svolto
nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui
funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di
marketing dell'intelligenza artificiale, impegnato a presentare lavoro umano
come realizzato da macchine, al punto da coniare il termine real time training.
Termine utilizzato quando un umano si sostituisce alla macchina nell'interazione
con il cliente, istruendo l'Ai su come deve comportarsi nel futuro in tempo
reale. Ne consegue che i minitask alla base della gig economy (economia dei
"lavoretti") sono talmente in crescita che Amazon ha acquisito fin dai primi
anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il
compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando,
ovviamente, sull'impiego di persone pagate anche meno di 120 dollari al mese.
Quindi la ricerca, l'uso e la propaganda dell'Ai avvengono nel “Nord del mondo”,
ma il lavoro necessario a far "funzionare la magia" viene erogato dal Sud. Se ci
fosse mai un "blocco" temporaneo di internet l'intelligenza artificiale si
fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze
create da questo nascente "modello di business" si sovrappongono a quelle
precedenti e -spesso- le peggiorano. I lavoratori impegnati in minitask li
svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se
non attraverso la rete), spesso sono soggetti lavorativamente fragili come
anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci
sembra il fatto che questa "rivoluzione tecnologica" sia in mano a una manciata
di super miliardari. Questo significa che abbiamo un serio problema di
partecipazione e autodeterminazione, oltre che un gigantesco problema di
relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come
durante l'era dei social media non è più un'opzione. Ci vuole un approccio
radicalmente diverso al design dell'Ai, che può partire unicamente
dall'abbandono dei racconti fantascientifici per concentrarsi sul cambiare il
modello di business che questa tecnologia induce. Stefano Borroni Barale,
classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid
(per Infn To), dopo otto anni nella formazione sindacale internazionale e una
(triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese.
Sostenitore del software libero da fine anni 90, è autore per Altreconomia del
manuale di liberazione informatica “Come passare al software libero e vivere
felici” (edito nel 2003) e da ultimo de "L’intelligenza inesistente. Un
approccio conviviale all'intelligenza artificiale" © riproduzione riservata
L'articolo Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove
le diseguaglianze proviene da Altreconomia.