“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che
scacciate i tiranni e li buttiate giù dal loro trono; basta che non li
sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto
il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576.
Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di
base della scuola, è segretario del circolo di uno dei tanti partiti della
diaspora della sinistra, è femminista, appassionato praticante dell’inclusione
dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in
cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a
cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni
tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi,
giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua
non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai
nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la
nostra società, soprattutto a quelle della democrazia, che osserva preoccupato.
Nonostante tutto questo, una delle mani che sta girando la chiave della nascente
tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per
comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù
cibernetica volontaria” non è questione di stupidità o malafede, semmai di
essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella
seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver
dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web
la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel
cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di
movimento”, che replicavano via Internet dinamiche molto simili a quelle delle
radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla
generazione precedente quella di Giorgio che l’autogestione dei media da parte
del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma.
Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è
tornato a essere coltivato nei confronti del web. Gli entusiasti di quella
stagione, però, hanno commesso un errore più grave del confondere il web con
Internet: hanno confuso l’avvento di una tecnologia compatibile con la
redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo
dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione,
tanto meno l’organizzazione economica capitalista, che inizialmente esce
addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei
trent’anni successivi, le burocrazie statali e private hanno lavorato in
sinergia alla riconfigurazione della rete, per renderla uno strumento di
sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di
ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros,
ha finalmente intravisto le condizioni per realizzare il suo sogno distopico:
abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di
agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva
che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald
Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates
(Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon
Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple
all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia
all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel
pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in
Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle
aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era
stato nei primi anni duemila), che non cercando di prendere tutto il potere in
un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un
“sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto
dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una
volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili”
dei cittadini americani da parte del (Department of government efficiency,
Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli
analisti informatici come un vero e proprio attacco hacker portato al cuore del
sistema burocratico del governo statunitense. Un colpo di Stato senza
spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e
imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a
enormi quantità di dati captati, non sempre con il consenso degli interessati.
Una volta che le informazioni che ci riguardano divengono dati registrati
digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un
comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o
meno degli scenari peggiori è questione politica. Infatti l’unica resistenza
che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le
leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la
società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e
lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia
raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile
con la sopravvivenza di un sistema democratico. È in questo senso che le mani
che girano la chiave nella toppa della tirannia automatizzata sono quelle di
Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che
abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è
continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da
esperti, informatici o tecnici”, anche dopo che questo è stato usato
ripetutamente contro di noi, in maniera così plateale. Se non si comprende
questo, ogni sforzo verso una società migliore rischia di essere spazzato via
dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di
controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia
i dati con sistemi di riconoscimento biometrici, per braccarli con una
precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie
possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori,
semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il
"caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di
giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno
leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una
struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che
ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci
permette ancora di vivere l’avvento di personaggi come Trump e Musk con un
barlume di speranza in più, rispetto ai cittadini americani. È molto probabile
che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il
caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se
provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse
potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire
un approccio al digitale basato sull’autogestione e sulla convivialità, invece
che sul sogno di controllare (magari via norme) megastrutture impossibili da
controllare per design. Il futuro non è ancora scritto, a patto di cominciare
oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del
dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è
tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo
si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per
questo le tecnologie “del dominio”, quelle che ci propongono poche
multinazionali, sono quasi sempre costruite come scatole oscure impossibili da
aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui
la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per
controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale
per la partecipazione, la libertà, la democrazia. In altre parole: rompere le
scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica
teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto
EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca
dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per
lavorare nel programma di formazione sindacale Actrav del Centro internazionale
di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del
torinese e, come membro di Circe, conduce corsi di formazione sui temi della
Pedagogia hacker per varie organizzazioni, tra cui il ministero
dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore
per Altreconomia di “Come passare al software libero e vivere felici” (2003),
una delle prime guide italiane su Linux e altri programmi basati su software
libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza
artificiale” (2023). © riproduzione riservata
L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata?
proviene da Altreconomia.
Tag - microsoft
Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di
ubriacatura, hanno cominciato a sorgere voci critiche. Verso le reali
potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di
questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo
sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di
fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti”
nell’organismo che la controlla, seguiti al licenziamento e al successivo
rientro da vincitore di Sam Altman, di cui abbiamo scritto qui). Il dibattito,
per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le
prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne:
Timnit Gebru, Emily Bender e Meredith Whittaker. Grazie a una ricerca della
prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano
statisticamente molto di più nel riconoscere i tratti somatici delle minoranze
etniche, e quando ha posto seriamente il problema dei rischi di queste
tecnologie è stata licenziata in tronco da Google. La seconda è co-autrice
dell’articolo “incriminato” nonché colei che ha etichettato i Large language
model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi
software realizzino il divorzio tra segno e significato. La terza attualmente
lavora per Signal, uno dei software di chat criptati più sicuri al mondo,
posizione a cui è giunta dopo essere stata costretta a lasciare Google per via
del suo attivismo sindacale, nonché delle sue critiche nel campo della
cosiddetta “etica dell’Ai”. In Italia le migliori analisi recenti sono quelle
contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione
chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento
reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due
assoluti "must read" per chiunque voglia capire quali siano le principali
mistificazioni che stanno alla base dell’Ai odierna. Ma c’è un secondo livello
a cui si presenta la mistificazione, che riguarda in particolare gli LLM:
l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo
software, anche se opportunamente ottimizzato sotto la supervisione umana per
rispondere accuratamente, spesso produce output spazzatura. Gli entusiasti
dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è
fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione
distorta della realtà, in psichiatria definita “percezione in assenza di
stimolo”. Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della
realtà che possa “andare in crisi” generando percezioni distorte analoghe alle
allucinazioni di un essere umano. Per questo diversi autori preferiscono dire
che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’
come uno studente interrogato che inventa notizie e personaggi storici per non
fare scena muta (trovate gli articoli a cui mi riferisco qui e qui). Non solo,
i LLM abbassano in maniera impressionante il costo della creazione di campagne
di marketing, propaganda o -più in generale- di qualsiasi testo che non debba
essere di particolare complessità e originalità. Per questo si presentano come
poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli
LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo
socialmente verso il loro output, stanno generando diversi effetti di
inquinamento della cosiddetta "infosfera". A iniziare dai contenuti (esplosione
dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda
politica ed elettorale; dei dati personali (creazione di informazioni false su
persone vere); della produzione accademica (ricercatori, magari spinti dalle
urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli,
che vengono sottoposti a peer-review "automatizzate" utilizzando altri chatbot,
creando un clima di generale crescita della sfiducia anche verso le
pubblicazioni scientifiche). Se la narrazione mistificata dell’hype è
correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle
grosse” non potrà essere “corretta” per il semplice fatto che non è un
comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.
La questione si comprende meglio se capiamo che l’output di questi modelli non è
costruito come una risposta alle nostre domande, ma come un tentativo di
costruire una frase che probabilmente avrà senso per un essere umano, sulla base
del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il
contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà
partire con le parole “La sconfitta di Caporetto fu causata da…”. La maggiore o
minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM,
che viene chiamato “temperatura”. Alte temperature causano più bullshit di
quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare
statisticamente frasi che hanno alta probabilità di avere senso compiuto basta
non “allontanarsi troppo” dal contesto fornito dall’utente. Questo fatto rende
i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente
l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si
registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi
nefasti che ne possono essere fatti. “Scatole oscure. Intelligenza artificiale
e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale.
La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che
dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le
idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l’Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale
che “le spara grosse” proviene da Altreconomia.
Venerdì 19 luglio 2024 il mondo si è risvegliato, forse, da un lungo sonno. Il
responsabile di questo brusco risveglio ha un nome fino a quel momento ignoto
alla stragrande maggioranza delle persone: Crowdstrike Falcon. Crowdstrike è
un’impresa software americana, basata nella Silicon Valley, fondata solo 13 anni
fa e valutata globalmente oltre 90 miliardi di dollari, con azioni il cui valore
era quadruplicato dal solo gennaio 2023 (dopo il disastro hanno subito un crollo
del 37%).
Questa azienda si occupa di cybersicurezza: il suo prodotto di punta, Falcon
appunto, è un software il cui obiettivo è impedire che un sistema informatico
possa venire danneggiato da una ricca selezione di minacce informatiche
(malware, ransomware, phishing, etc.): qualche anno fa si sarebbe chiamato
“antivirus”.
Che cosa è successo? Una serie di condizioni, perlopiù prevedibili e dipendenti
da decisioni orientate al massimo risparmio a prescindere da qualsiasi altra
considerazione, si sono allineate con implacabile precisione, creando la
tempesta perfetta. Le elenco per punti:
1. la soverchiante maggioranza delle strutture informatiche pubbliche e private
occidentali sono formate da un solo tipo di sistema operativo: Microsoft
Windows;
2. Crowdstrike aggiorna automaticamente e nello stesso istante tutti i computer
che fanno uso del loro software in tutto il mondo, mentre sarebbe buona
norma procedere per passi, individuando così eventuali problemi prima che
divengano globali;
3. come spiegato in un articolo della Cnn, non era previsto alcun controllo
umano prima dell’aggiornamento: la distribuzione degli aggiornamenti
avveniva a valle di un test totalmente automatizzato. Un errore di questo
software ha fatto sì che un aggiornamento difettoso bloccasse i computer di
mezzo mondo (Cina e Russia non hanno sperimentato alcun blocco perché
utilizzano software libero);
4. Falcon prevedeva, in caso di malfunzionamenti, il ritiro automatico
dell’aggiornamento, cosa effettivamente avvenuta dopo 87 minuti. Purtroppo
però nessuno aveva previsto che un aggiornamento difettoso potesse bloccare
i dispositivi colpiti rendendoli irraggiungibili da remoto. Assunzione
ottimistica, considerato che Falcon ha accesso al “cuore” del sistema
operativo, a livello amministratore;
5. la maggioranza delle aziende che si affidano a Crowdstrike non ha nessun
dipendente che sappia come intervenire in un caso del genere. Chi aveva un
dipartimento It l’ha licenziato per risparmiare al grido di “tanto facciamo
tutto in Cloud”.
Insomma: per produrre un disastro globale bisogna adottare una gestione
fallimentare in ogni dettaglio e implementarla, appunto, su scala globale.
La cosa cessa di sembrare assurda nel momento in cui realizziamo che tale
organizzazione, fortemente centralizzata, consolida il monopolio
Microsoft/Crowdstrike sull’infrastruttura informatica dell’Occidente: un
obiettivo per il quale ha senso sacrificare qualsiasi cifra, dal punto di vista
di queste aziende. A maggior ragione se il danno può essere, almeno in parte,
esternalizzato verso i propri clienti.
La situazione attuale del mercato informatico è analoga a quella
dell’agroalimentare industriale, dove la monocoltura realizzata con una singola
qualità di mais permette l’automazione del lavoro; al costo, però, di
intervenire artificialmente per proteggerla. In presenza di una monocoltura, un
solo agente infestante è in grado di distruggere per contagio raccolti grandi
quanto l’intera provincia di Pistoia. La biodiversità naturale mette al riparo
da questo fenomeno. Una volta distrutta la biodiversità servono ingenti quantità
di agenti disinfestanti per proteggere il raccolto. Nel nostro caso la
monocoltura da proteggere era Windows, l’agente disinfestante era Falcon di
Crowdstrike.
Questo evento non avrebbe mai potuto verificarsi in assenza di una monocoltura
tecnologica. Alcuni commentatori hanno fatto notare come l’uniformità porti a
risparmi nella formazione e nella gestione del personale. I danni costringeranno
le aziende a rivalutare tali risparmi. Le stime più recenti parlano di un minimo
di 15 miliardi di dollari di danni causati ai clienti (pari a quasi il 25% di
tutto il valore di Crowdstrike), senza contare gli oltre 30 miliardi di dollari
di perdita di valore in Borsa (un altro 37%). A questi andranno aggiunti i danni
d’immagine per Microsoft.
Su questo sistema uniformato poggia l’automazione dei processi di
amministrazione che, fino a poco fa, erano curati dagli esseri umani.
L’automazione della gestione dei sistemi informatici non è che un primo caso di
automazione del lavoro cognitivo, che con l’avvento dell’intelligenza
artificiale si vorrebbe allargare ben al di fuori del ristretto campo
dell’informatica, moltiplicando i rischi di replicare "l’evento Crowdstrike", su
una scala che fa paura anche solo immaginare.
Che cosa accadrà ora? Al momento tutto fa pensare che la domanda da porsi non
sia se disastri del genere avverranno nuovamente nel futuro, ma più
razionalmente quando.
Dovremmo pensare a delle contromisure. Si tratta di un’impresa tutt’altro che
semplice: la tentazione immediata sarebbe quella di sostituire il software di
Microsoft con dei software liberi come in Cina e Russia, che non sono state
toccate dal disastro.
Ma non è sostituendo una monocoltura tecnologica con un’altra, la
centralizzazione statale con quella privata o Gates con Putin che ci metteremo
al riparo dai danni generati da una megamacchina che si aggiorna automaticamente
su tutto il globo. Occorre invece abbandonare, almeno in parte, il paradigma
industriale ottimizzato sull’estrazione del massimo profitto: quantomeno per i
servizi che non possono fallire come il 911 o il 112.
Come? Un’idea potrebbe essere utilizzare tecnologie conviviali, ossia tecnologie
che promuovano una società in cui “[...] lo strumento moderno sia utilizzabile
dalla persona integrata con la collettività, e non riservato a un corpo di
specialisti che lo tiene sotto il proprio controllo” (come scriveva Ivan
Illich). Tali tecnologie promuovono naturalmente la biodiversità tecnologica in
quanto sono basate su presupposti opposti a quelli industriali, come scrive
Carlo Milani: “La ragione profonda è ecologica: così come gli organismi viventi
possono essere minacciati dalla mancanza di biodiversità, […] la capacità di
autodeterminazione [...] sarà sempre più in pericolo con la diminuzione della
biodiversità [tecnologica]”.
Non si tratta di smantellare la modernità, magari per inseguire un ritorno a un
passato arcadico, bensì di cominciare a scegliere le nostre tecnologie, perché
abbiamo compreso che scegliere la tecnologia è un atto politico, non un
dettaglio tecnico da delegare agli “esperti”.
--------------------------------------------------------------------------------
Con questo primo contributo inizia la rubrica "Scatole oscure. Intelligenza
artificiale e altre tecnologie del dominio" a cura di Stefano Borroni Barale. La
tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende
unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di
chi li ha creati. Per questo le tecnologie "del dominio", quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. E "Scatole oscure" lo farà, in
modo documentato e regolare sul nostro sito. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l'Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all'interno del gruppo di ricerca dell'’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell'Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell'Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Il prossimo disastro “Crowdstrike Falcon” e l’urgenza di scegliere le
nostre tecnologie proviene da Altreconomia.
Per raccontare gli eventi fondamentali di questa telenovela in salsa
tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco
della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un
simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti
per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli
vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e
proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i
suoi fondatori, tra cui figurano Elon Musk e l'allora poco conosciuto Sam
Altman, scrivono sul sito dell'azienda che "Il nostro obiettivo è quello di far
progredire l'intelligenza digitale nel modo più vantaggioso per l'umanità nel
suo complesso, senza essere vincolati dalla necessità di generare un ritorno
economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo
concentrarci meglio su un impatto umano positivo". In particolare, Musk,
finanziatore della prima ora, vuole un'azienda che faccia concorrenza all'allora
gigante dell'Ai DeepMind, controllata da Google. Spiega ad Altman che
"l'intelligenza artificiale non va lasciata in mano a Larry Page (Google)"
perché, nell'inevitabile momento in cui si verificherà la “singolarità”, ossia
quando le macchine raggiungeranno o supereranno l'uomo in intelligenza, Page non
farà nulla per evitare che questa nuova intelligenza sottometta o elimini
l’umanità dallo scenario. A lui, invece, l'umanità piace (a patto che non abbia
la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente
titolato a produrre "cambi di regime" a colpi di morti ammazzati senza troppi
problemi, come twittava più o meno nella stessa epoca). E poco importa se la
congettura in quel momento ha la stessa concretezza del motore a curvatura di
Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a
breve. L'azienda rischia effettivamente di chiudere i battenti, ma alla fine
Sam Altman trova la soluzione: convince il consiglio di amministrazione a
trasformare OpenAI da non profit impegnata a sviluppare software liberi a
"capped profit", ossia a profitto limitato fino a cento volte il valore
iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di
rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena,
investendo un miliardo di dollari, e OpenAI annuncia l'intenzione di concedere
in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta
l'idea del codice libero. Alcuni ricercatori criticano la svolta, sollevando
dubbi sull'impegno dell'azienda a democratizzare l'Ai, ma ovviamente restano
inascoltati. Così arriviamo alla vigilia del conflitto: con un'azienda
saldamente collocata nell'orbita Microsoft, e che è divenuta famosa grazie al
lancio sul mercato di una tecnologia sperimentale che causa molti più problemi
di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina
dei giornali un giorno sì e l'altro anche. [caption id="attachment_184510"
align="aligncenter" width="1035"] © Mojahid Mottakin - Unsplash[/caption] La
sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo
Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di
lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo
sfiducia adducendo una poco chiara "mancanza di sincerità". Scattano
consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della
mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft,
diffonde a sua volta un comunicato in cui conferma l'intenzione della sua
azienda di continuare a investire in OpenAI. Passano ventiquattro ore e Altman
riceve un'offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di
ricerca sull'intelligenza artificiale, questa volta interno alla multinazionale.
Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori
delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera
il 95% dei dipendenti dell'azienda minaccia di licenziarsi se Altman non farà
ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo
di OpenAI. Che cosa ha generato questa "guerra civile" all'interno
dell'azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue
da aumentare la confusione al proposito, invece di ridurla. Per provare a
dipanare la matassa non resta che "unire i puntini". Per prima cosa,
ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche.
Resta il fatto che, come risultato, Microsoft ha rimesso "in sella" Altman e
porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla
base dell'"OpenAI Drama" ci sarebbe il conflitto che ha contrapposto gli
"accelerazionisti efficaci" (l’amministratore delefato Sam Altman e i suoi
fedelissimi) agli "altruisti efficaci" (di cui fa parte il direttore della
ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi
preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley.
Per farla breve, queste due "scuole di pensiero", pur condividendo la fede
nell'imminenza della singolarità, hanno idee molto differenti su che cosa fare
nell'immediato: i primi vogliono premere l'acceleratore a tavoletta e confidare
nella "mano invisibile del mercato", i secondi lanciano appelli ai politici
perché intervengano immediatamente "contro qualcosa di più pericoloso degli
stessi armamenti nucleari". Negli stessi giorni in cui i giornali erano intasati
da questa telenovela, mi sono ritrovato a seguire online un'interessante
conferenza dal titolo "Come l'Ai promuove le diseguaglianze a livello globale",
tenuta presso l'Università di Groninga in Olanda. Dopo due anni di studi sul
campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori.
La tecnologia che chiamiamo Ai si basa sui "minitask" come l'etichettatura
manuale dei dati (e su questo è d'accordo anche più d'uno degli "entusiasti"
dell'Ai, solo che lo considerano un problema da risolvere attraverso le prossime
generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto
sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere
delle capacità dell'Ai (che, quindi, non sembra diventare più "intelligente" al
passare degli anni), bensì sono in crescita esponenziale. L'intelligenza su cui
si basano sembra avere origine molto più umana che artificiale. Quello che si è
scoperto è che in parecchi casi, servizi propagandati al pubblico come
realizzati con l'Ai sono puri e semplici paravento per lavoro sottopagato svolto
nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui
funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di
marketing dell'intelligenza artificiale, impegnato a presentare lavoro umano
come realizzato da macchine, al punto da coniare il termine real time training.
Termine utilizzato quando un umano si sostituisce alla macchina nell'interazione
con il cliente, istruendo l'Ai su come deve comportarsi nel futuro in tempo
reale. Ne consegue che i minitask alla base della gig economy (economia dei
"lavoretti") sono talmente in crescita che Amazon ha acquisito fin dai primi
anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il
compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando,
ovviamente, sull'impiego di persone pagate anche meno di 120 dollari al mese.
Quindi la ricerca, l'uso e la propaganda dell'Ai avvengono nel “Nord del mondo”,
ma il lavoro necessario a far "funzionare la magia" viene erogato dal Sud. Se ci
fosse mai un "blocco" temporaneo di internet l'intelligenza artificiale si
fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze
create da questo nascente "modello di business" si sovrappongono a quelle
precedenti e -spesso- le peggiorano. I lavoratori impegnati in minitask li
svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se
non attraverso la rete), spesso sono soggetti lavorativamente fragili come
anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci
sembra il fatto che questa "rivoluzione tecnologica" sia in mano a una manciata
di super miliardari. Questo significa che abbiamo un serio problema di
partecipazione e autodeterminazione, oltre che un gigantesco problema di
relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come
durante l'era dei social media non è più un'opzione. Ci vuole un approccio
radicalmente diverso al design dell'Ai, che può partire unicamente
dall'abbandono dei racconti fantascientifici per concentrarsi sul cambiare il
modello di business che questa tecnologia induce. Stefano Borroni Barale,
classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid
(per Infn To), dopo otto anni nella formazione sindacale internazionale e una
(triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese.
Sostenitore del software libero da fine anni 90, è autore per Altreconomia del
manuale di liberazione informatica “Come passare al software libero e vivere
felici” (edito nel 2003) e da ultimo de "L’intelligenza inesistente. Un
approccio conviviale all'intelligenza artificiale" © riproduzione riservata
L'articolo Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove
le diseguaglianze proviene da Altreconomia.