Il giornalista Brian Merchant ha ricostruito la storia dell'automazione nel
mondo del lavoro, dalla prima rivoluzione industriale fino all'avvento
dell'intelligenza artificiale. "Innovazioni" utilizzate per frammentare la forza
lavoro e ridurne i costi. Ma resistere è possibile. A partire dalla scuola,
perché "lasciare entrare l'Ai in classe è davvero un patto con il diavolo". Il
dialogo con Stefano Borroni Barale, curatore della rubrica "Scatole oscure"
L'articolo Il sangue nella macchina. All’origine della ribellione contro Big
Tech proviene da Altreconomia.
Source - Autore Stefano Borroni Barale, su Altreconomia
Rivista indipendente di economia
Dopo un anno di rinvii e anticipazioni a effetto, la nuova creatura di OpenAI è
finalmente qui. Ed è un flop. La delusione dei fan della società di Altman è
talmente grande che alcuni, dopo nemmeno 24 ore, hanno ottenuto il ripristino
della versione precedente perché, secondo loro, “è meglio di quella nuova”. Nel
tentativo di correre ai ripari, Sam Altman arriva a pronunciare la parola
proibita: “bolla”. Che cosa ci aspetta? La rubrica di Stefano Borroni Barale
L'articolo ChatGPT-5 è qui. Ed è esattamente come ce lo aspettavamo proviene da
Altreconomia.
“Venite signori della guerra / voi che costruite i cannoni / voi che costruite
gli aereoplani di morte / voi che costruite le bombe / voi che vi nascondete
dietro muri / voi che vi nascondete dietro scrivanie / voglio solo che sappiate
/ che posso vedere attraverso le vostre maschere”. Bob Dylan, "Masters Of War"
da “The freewheelin’ Bob Dylan”, 1963 Qui in Italia non è così noto, ma la
controcultura hippie degli anni Sessanta, di cui San Francisco era divenuta la
capitale, è stata uno degli ingredienti che ha contribuito, nel decennio
successivo, alla creazione di quei gruppi di appassionati di elettronica, come
l’Homebrew computer club, in cui hanno mosso i primi passi personaggi come Steve
Wozniack e Steve Jobs, i fondatori della Apple. Il sogno naïf di quella
generazione era che i piccoli personal computer avrebbero distribuito il potere
di calcolo, cambiando la società. Il poeta Richard Brautigan arrivò a cantare di
questa utopia nel suo poema del 1967 "All watched over by machines of loving
grace" che conobbe per questo una discreta fortuna. Forse anche per questo
motivo alcuni, tra cui Bill Gates, sono rimasti stupiti della recente sterzata
all’estrema destra della totalità dei Gafam, ossia Google, Apple, Facebook (ora
Meta), Amazon e Microsoft. La “svolta a destra”, però, non ha coinvolto solo la
generazione degli ex-hippie. Sembra passato un millennio da quando due giovani
universitari di belle speranze, Larry Page e Sergej Brin, fondavano una start-up
per gestire il successo del loro algoritmo di ricerca, PageRank, che aveva dato
i natali al più fortunato “motore” di ricerca su internet, Google. Allora, era
il 1998, il motto scelto per la loro impresa era “Do no evil” ossia “Non fare
del male”. Chissà che cosa penserebbero oggi quegli stessi giovanotti della
decisione presa, a gennaio di quest’anno, dalle loro attuali versioni imbolsite
e con le borse sotto gli occhi: far cadere la clausola che impegnava l’azienda a
non utilizzare i propri studi sull’intelligenza artificiale per scopi militari,
aprendo così la porta allo sviluppo di killer robots, in accordo con un piano di
implementazione delle armi autonome pubblicato dalla Nato già nel 2023.
Purtroppo questa decisione non fa altro che suggellare un impegno sul campo
dell’azienda che va ben oltre la ricerca e sviluppo di sistemi d’arma.
L'American friends service commitee (Afsc) -storica organizzazione nonviolenta
americana legata ai quaccheri- accusa da tempo Google di avere responsabilità
dirette nei crimini di guerra compiuti da Israele in Palestina dopo gli attacchi
di Hamas del 7 ottobre 2023. Secondo un’esplosiva inchiesta della rivista
israeliana +972 uscita ad agosto del 2024, Google, insieme a Microsoft (Azure) e
Amazon (Amazon web services - Aws, il fornitore che vanta i legami più solidi di
tutti con governo e militari israeliani), avrebbe fornito servizi cloud classici
al Project nimbus, il servizio di raccolta dati del governo, utilizzato
successivamente dall’esercito per individuare i bersagli militari.
Contemporaneamente, su un’altra commessa, Microsoft e Google fornivano la
tecnologia di “intelligence artificiale” per il riconoscimento facciale, usata
per scegliere automaticamente gli obiettivi degli attacchi che hanno causato
decine di migliaia di morti civili. Diverse altre inchieste del Washington Post
danno riscontro e solidità alle accuse dell'Afsc. Purtroppo Google non è l’unica
impresa del gruppo Gafam a essere impegnata in prima linea nei peggiori
conflitti in atto (anche se, per ora, è l’unica ad aver licenziato i suoi
dipendenti che protestavano contro queste collaborazioni). La lista è talmente
lunga da eccedere lo spazio di questa rubrica: ci dovremo limitare a una attenta
selezione, partendo da Meta Platforms Inc. (conglomerato che controlla Facebook,
Instagram, WhatsApp e l’ultimo nato Threads). In questo momento l’ufficio stampa
di Meta è impegnato in un titanico sforzo per evitare che le persone leggano
"Careless People", il libro-scandalo della sua ex-dipendente Sarah Wynn-Williams
che ne rivela alcuni dei segreti più inconfessabili (legati alle sue
responsabilità nel massacro della minoranza Rohingya in Myanmar soprattutto) e,
al contempo, per silenziare lo scandalo della cessione illegale dei dati di
migliaia di utenti palestinesi della controllata WhatsApp all’Idf (l’esercito
israeliano), che li ha inseriti in Lavender, una delle Ai utilizzate per
scegliere automaticamente chi uccidere. In questo caso non si è trattato di
killer robots, bensì di Laws ossia Lethal authonomous weapons systems, sistemi
per uccidere automatizzati: morte somministrata via algoritmo, a seguito
dell’utilizzo di una chat. Sappiamo infatti che le reti neurali utilizzate da
Lavender hanno margini di errore nella produzione del loro output (le cosiddette
“allucinazioni”: ne abbiamo parlato qui) che non scendono mai sotto il 5% e che
possono arrivare ad oltre il 20%. Tale margine di errore va poi moltiplicato,
giacché le nuove regole d’ingaggio dell’Idf dopo il 7 ottobre prevedono come
“accettabile” la morte di venti innocenti per ogni presunto miliziano di Hamas
colpito. Ultimi nella nostra analisi, ma non certo per importanza strategica,
vengono gli interessi militari di due imprese che, fino a poco tempo fa, avevano
un profilo più “riservato” rispetto ai Gafam: Palantir di Peter Thiel e SpaceX
di Elon Musk. La prima è oggetto di operazioni di disinvestimento pianificato
per via del suo coinvolgimento nei crimini di guerra di Israele, ma è frutto di
un progetto abominevole fin dal nome: Palantir, nel mondo creato da Tolkien, è
il nome delle antiche pietre capaci di mostrare il futuro che portano il saggio
Saruman a impazzire e unirsi all’oscuro sire, Sauron. Infatti, l’azienda nasce
con l’idea di fornire sistemi di polizia predittiva, una pseudo-scienza il cui
fondamento è “solido” quanto le infami teorie del nostro Cesare Lombroso, e i
risultati tutt’altro che entusiasmanti (meno dell’1% di efficacia nel caso
americano). Nonostante ciò, i suoi servizi sono stati utilizzati dal governo di
Israele per incarcerare cittadini palestinesi per il solo fatto di rientrare in
un “profilo del terrorista” sviluppato dalla ditta in questione. La seconda è
passata alle cronache di guerra per via del servizio Starlink, una rete di
satelliti di comunicazione a bassa quota, che si è rivelata strategicamente
vitale in Ucraina. All’indomani dell’invasione russa, Elon Musk è stato
acclamato eroe dagli ucraini perché ha fornito “gratuitamente” il servizio agli
ucraini, salvo poi divenire -il 10 marzo di quest'anno- il peggiore dei loro
nemici sostenendo che “senza Starlink sarebbero spacciati”. D’altronde Musk
aveva già mostrato di essere un attore incontrollabile in almeno due occasioni:
quando era passato all’incasso con il suo stesso governo (sostenendo di non
poter continuare a finanziare l’Ucraina a tempo indeterminato), e quando aveva
deciso di bloccare le comunicazioni per impedire un’escalation della guerra che
considerava nefasta. L’orrore della morte via chat si sarebbe potuto evitare. Le
avvisaglie di una forte collaborazione tra Meta e l’Idf, infatti, erano
nell’aria sino dal 2021, quando Meta bloccò gli account di diversi giornalisti
della Striscia di Gaza, per impedirgli di far fluire informazioni verso
l’esterno. Purtroppo, la società civile ha introiettato profondamente l’idea che
le tecnologie dell’informazione e comunicazione siano semplici merci, strumenti
a nostra disposizione. Gli esempi che abbiamo toccato mostrano in maniera
lampante il contrario. Eppure, le alternative esistono: il software libero
costituisce un corpus di conoscenze collettive che possono essere utilizzate da
qualsiasi gruppo per soddisfare i propri bisogni, dalla formazione (è il caso di
alcune scuole del progetto Fuss, che si sono dotate di una infrastruttura per la
formazione online), alla comunicazione (è il caso del sindacato Cub-Sur che si è
dotato di un’intera piattaforma di comunicazione a distanza), rendendosi
indipendenti delle imprese Gafam. Ma basta allargare lo sguardo per scoprire
che, nei dintorni di Barcellona, esiste una “rete internet locale” con la
bellezza di cinquemila punti d’accesso su diversi chilometri quadrati di
territorio, che continuerebbe a funzionare anche se la connessione verso il
mondo esterno fosse tranciata di netto, in maniera simile a progetti presenti
anche in Italia. Insomma, non si tratta di “testimonianze” di singoli, magari un
po’ “impallinati” e senza impatto sulla società, ma piuttosto di esempi di come
problemi collettivi possano trovare soluzioni collettive. Il passo da fare, ora,
è riconoscere che la dipendenza da queste imprese, mentre queste “riconvertono”
il loro business alla guerra, è un serio problema collettivo, che ci riguarda
tutte e tutti. Scatole oscure. Intelligenza artificiale e altre tecnologie del
dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è
tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo
si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per
questo le tecnologie “del dominio”, quelle che ci propongono poche
multinazionali, sono quasi sempre costruite come scatole oscure impossibili da
aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui
la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per
controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale
per la partecipazione, la libertà, la democrazia. In altre parole: rompere le
scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica
teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto
EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca
dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per
lavorare nel programma di formazione sindacale Actrav del Centro internazionale
di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del
torinese e, come membro di Circe, conduce corsi di formazione sui temi della
Pedagogia hacker per varie organizzazioni, tra cui il ministero
dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore
per Altreconomia di “Come passare al software libero e vivere felici” (2003),
una delle prime guide italiane su Linux e altri programmi basati su software
libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza
artificiale” (2023). © riproduzione riservata
L'articolo Masters of Cyberwar. Dai sogni degli hippies all’incubo dei killer
robots proviene da Altreconomia.
“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che
scacciate i tiranni e li buttiate giù dal loro trono; basta che non li
sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto
il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576.
Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di
base della scuola, è segretario del circolo di uno dei tanti partiti della
diaspora della sinistra, è femminista, appassionato praticante dell’inclusione
dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in
cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a
cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni
tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi,
giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua
non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai
nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la
nostra società, soprattutto a quelle della democrazia, che osserva preoccupato.
Nonostante tutto questo, una delle mani che sta girando la chiave della nascente
tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per
comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù
cibernetica volontaria” non è questione di stupidità o malafede, semmai di
essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella
seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver
dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web
la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel
cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di
movimento”, che replicavano via Internet dinamiche molto simili a quelle delle
radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla
generazione precedente quella di Giorgio che l’autogestione dei media da parte
del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma.
Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è
tornato a essere coltivato nei confronti del web. Gli entusiasti di quella
stagione, però, hanno commesso un errore più grave del confondere il web con
Internet: hanno confuso l’avvento di una tecnologia compatibile con la
redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo
dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione,
tanto meno l’organizzazione economica capitalista, che inizialmente esce
addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei
trent’anni successivi, le burocrazie statali e private hanno lavorato in
sinergia alla riconfigurazione della rete, per renderla uno strumento di
sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di
ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros,
ha finalmente intravisto le condizioni per realizzare il suo sogno distopico:
abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di
agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva
che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald
Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates
(Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon
Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple
all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia
all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel
pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in
Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle
aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era
stato nei primi anni duemila), che non cercando di prendere tutto il potere in
un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un
“sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto
dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una
volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili”
dei cittadini americani da parte del (Department of government efficiency,
Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli
analisti informatici come un vero e proprio attacco hacker portato al cuore del
sistema burocratico del governo statunitense. Un colpo di Stato senza
spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e
imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a
enormi quantità di dati captati, non sempre con il consenso degli interessati.
Una volta che le informazioni che ci riguardano divengono dati registrati
digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un
comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o
meno degli scenari peggiori è questione politica. Infatti l’unica resistenza
che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le
leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la
società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e
lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia
raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile
con la sopravvivenza di un sistema democratico. È in questo senso che le mani
che girano la chiave nella toppa della tirannia automatizzata sono quelle di
Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che
abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è
continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da
esperti, informatici o tecnici”, anche dopo che questo è stato usato
ripetutamente contro di noi, in maniera così plateale. Se non si comprende
questo, ogni sforzo verso una società migliore rischia di essere spazzato via
dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di
controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia
i dati con sistemi di riconoscimento biometrici, per braccarli con una
precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie
possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori,
semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il
"caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di
giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno
leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una
struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che
ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci
permette ancora di vivere l’avvento di personaggi come Trump e Musk con un
barlume di speranza in più, rispetto ai cittadini americani. È molto probabile
che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il
caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se
provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse
potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire
un approccio al digitale basato sull’autogestione e sulla convivialità, invece
che sul sogno di controllare (magari via norme) megastrutture impossibili da
controllare per design. Il futuro non è ancora scritto, a patto di cominciare
oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del
dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è
tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo
si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per
questo le tecnologie “del dominio”, quelle che ci propongono poche
multinazionali, sono quasi sempre costruite come scatole oscure impossibili da
aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui
la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per
controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale
per la partecipazione, la libertà, la democrazia. In altre parole: rompere le
scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica
teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto
EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca
dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per
lavorare nel programma di formazione sindacale Actrav del Centro internazionale
di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del
torinese e, come membro di Circe, conduce corsi di formazione sui temi della
Pedagogia hacker per varie organizzazioni, tra cui il ministero
dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore
per Altreconomia di “Come passare al software libero e vivere felici” (2003),
una delle prime guide italiane su Linux e altri programmi basati su software
libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza
artificiale” (2023). © riproduzione riservata
L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata?
proviene da Altreconomia.
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo
abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
https://www.youtube.com/watch?v=SKBG1sqdyIU&t=302s Il nuovo modello prodotto da
OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel
risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande
contenute in tale test, che ricorda molto da vicino i test del quoziente
intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli
esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero
invece una seria analisi: non esiste un consenso scientifico su che cosa sia
l’intelligenza umana e animale, ossia una definizione condivisa e, anche
fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra
faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l'etimologia:
"inter" più "ligere", “leggere tra (le cose)”, leggere in profondità. Sam Altman
(più in generale l’intero comparto dell'Ai) ci ha abituato a trucchi degni degli
artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a
supporto di affermazioni-bomba come quella appena citata (e immediatamente
seguita da affermazioni ancora più esplosive sulla “Superintelligenza”).
Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla
presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello
in questione sapeva riconoscere il gioco della morra cinese al primo colpo
(zero-shot), mentre -guardando il video completo- si scopriva che la verità era
molto diversa (e i dettagli, in questo campo, sono molto importanti). Fatta
questa dovuta premessa, ChatGPT o3 ha davvero superato il test ARC-AGI? Tutto fa
pensare di sì, a partire dalla conferma del premio ARC-AGI di François Chollet.
Il punto sta tutto nel dettaglio, ossia nel come questo risultato sia stato
ottenuto. La prima cosa da dire è che siamo di nuovo in un territorio
semi-oscuro, come nel caso di Google. Pare che il risultato, infatti, sia stato
ottenuto da un modello pre-ottimizzato sul materiale fornito dal premio ARC-AGI
e solo Altman sa come. Perché questo è importante? Perché la premessa posta (e
forse dimenticata) da Chollet al suo premio era che l’eventuale “intelligenza”
dovrebbe essere intrinseca al modello, non emergere come frutto di
un’ottimizzazione “furbetta”. Per capire l’importanza di questo dettaglio
pensate al Dustin Hoffman di “Rainman”. Tutti le Ai generative (Llm) hanno,
ovviamente, la prodigiosa memoria del protagonista. Così come lui ricorda
perfettamente tutte le carte già uscite in una mano di Blackjack, se mostrassimo
a un’Ai generativa tutte le risposte di un corpus di milioni di domande, questa
sarebbe -subito dopo- in grado di rispondere correttamente nella stragrande
maggioranza delle volte, in accordo ai nuovi pesi che sarebbero registrati nella
sua rete neurale artificiale, in ragione di questa ottimizzazione. Non solo,
attraverso metodi come il fine tuning e l’uso di ontologie, queste macchine
divengono in grado di raggiungere un’accuratezza pari a circa il 72,55% nel
produrre testo appropriato al contesto, non troppo distante dal 75,7% dei
risutati “low compute” raggiunto da o3 nei test. Per fare un’analogia
semplificatoria, ma comprensibile, è come se queste macchine non divenissero in
grado solo di rispondere alla pseudo-domanda “di che colore è il cavallo bianco
di Napoleone”, ma di fare lo stesso con un ipotetico “cavallo castano del Duca
di Wellington”. Per questo sarebbe importante avere il risultato di ChatGPT o3
allo stesso test senza alcun tipo di pre-ottimizzazione, risultati che OpenAI si
è guardata bene dal rendere pubblici. Il punto più interessante, però, sembra
essere rimasto fuori da un sano e aperto dibattito pubblico, ossia il costo
necessario a raggiungere questo “notevole” risultato. Per fare una semplice
comparazione con l’esistente, una singola ricerca del motore Google Search costa
attualmente due centesimi di dollaro. Per raggiungere un’accuratezza dell’85,7%
nel rispondere a cento domande usando una macchina invece di un singolo essere
umano, OpenAI ha speso la pantagruelica cifra di un milione di dollari. Si
tratta di mezzo milione di volte il costo di una ricerca Google per ogni
domanda. Particolare ancora più importante: raggiungere il 75,7% di accuratezza
è costato poco meno di seimila euro. La differenza, quindi, per migliorare il
risultato del 10% è stata di oltre 995.000 dollari (ossia un costo e un lavoro
di ottimizzazione 170 volte maggiore). Perché questo rapporto è di massima
importanza? Perché è uno straordinario indizio del fatto che la strada
utilizzata da OpenAI per rispondere al test sia stata la forza bruta, non il
tentativo di replicare realmente il ragionamento astratto, che Altman e altri
propagandano possa “emergere” dalle reti neurali artificiali, ma sul quale
sappiamo solo che nel cervello animale si presenta con una straordinaria
efficienza energetica. Un’efficienza di cui le reti neurali dei sistemi GPT sono
prive. Che cosa s’intende quindi per “usare la forza bruta”? Al solito, invece
di studiare e comprendere una lezione di storia potremmo decidere di studiare
tutte le domande che un determinato professore (nel caso il “professor Chollet
di ARC-AGI”) ha fatto ai candidati in tutta la sua carriera, e mandare a memoria
quelle. Potremmo anche pagare degli umani per concepire domande e risposte
simili e mandare a memoria anche quelle coppie di domande/risposte. Certo un
metodo poco efficiente, ma molto efficace se il nostro obiettivo è solo passare
quel dannato test a ogni costo, perché da quello dipendono gli investimenti che
ci permetteranno di tenere aperto il nostro traveling show abbastanza a lungo da
poter scappare con la cassa come fatto da Charles Ponzi e, più di recente, da
Sam Bankman-Fried prima di noi. Oppure, se le promesse non risultassero
disattese al 100%, per reinvestire quanto guadagnato con questa ondata di hype
nella prossima moda che verrà, seguendo le orme di Elon Musk e Peter Thiel,
senza troppi pensieri per i soldi degli investitori “bruciati” nel frattempo.
Fino a qui qualcuno si sarà forse convinto che l’approccio dell’industria
"GenAi" non sia il più efficace o il più scientificamente solido. Ma c’è ancora
un aspetto che non abbiamo preso in considerazione. I costi dell’operazione di
marketing “ARC-AGI” sono enormi per un buon motivo: procedere in modalità forza
bruta richiede una quantità di energia mostruosa. Ma quanto? Così tanto da
spingere l'amministratore delegato di AT&T, certo non una organizzazione non
profit preoccupata dell’ecologia, a lanciare l’allarme dichiarando che, se l’Ai
proseguirà lungo questa strada, c’è il rischio si arrivi nel 2027 a dei
black-out catastrofici causati da una nuova crisi energetica. Infatti,
nonostante Microsoft e OpenAI abbiano già dichiarato di voler alimentare l’Ai
con l’energia atomica (saltiamo a piè pari i rischi ecologici), questa opzione
richiede decenni per poter essere operativa. La recente elezione di Donald Trump
e le mosse di Elon Musk, Jeff Bezos, Mark Zuckerberg che l’hanno seguita non
lasciano adito a dubbi sul fatto che i techbros della Silicon Valley (ora
ribattezzati broligarchi dalla stampa) ne abbiano finanziato la campagna
elettorale in maniera rilevante con il preciso scopo di rimuovere ogni ostacolo
alla marcia verso il collasso del sistema, un collasso cibernetico perché
causato da interazioni fuori controllo tra l’animale-uomo e le macchine
mangia-soldi e mangia-risorse che pochi techbros hanno deciso di creare allo
scopo di moltiplicare il loro potere. A noi la scelta se stare a guardare o
decidere che è arrivata finalmente l’ora di disertare questa agenda: migliaia di
tecnologie sono possibili, la condizione per poterle immaginare è l'abbandono
del culto demenziale dell’intelligenza artificiale generale con i suoi GPT
proprietari, per concentrarci sulla creazione “macchine conviviali” create per
affiancare gli esseri viventi nel distribuire potere e per convivere
armoniosamente con l’ambiente che ci sostiene. Non saranno scintillanti Golem
moderni, pronti a combattere guerre in cui uccidono al posto nostro, ma ci
terranno al sicuro dal collasso ambientale, sociale ed economico. “Scatole
oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a
cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra.
Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi
tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie
“del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre
costruite come scatole oscure impossibili da aprire, studiare, analizzare e,
soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via
via più dispositivo (e può quindi essere usata per controllarci) aprire e
modificare le scatole oscure diventa un esercizio vitale per la partecipazione,
la libertà, la democrazia. In altre parole: rompere le scatole è un atto
politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Provaci ancora, Sam. Come Altman (e i suoi “techbros”) ci stanno
portando verso il collasso proviene da Altreconomia.
"Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un
paziente, ndr] nelle mani di un'inesorabile macchina a cui dobbiamo porre le
giuste domande in anticipo, senza comprendere appieno le operazioni o il
processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and
Golem, Inc.”, 1963. Questa citazione ha aperto un recente congresso sull’uso
dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era
intenzione di chi scrive provocare un dibattito per cercare di uscire dallo
“spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la
comprensione del fenomeno, ripercorrendone la storia. Nello specifico, le
“opinioni accettabili” nel dibattito sull’adozione dell’Ai sono quelle che
vengono chiamati “i tre assiomi della transizione digitale” di cui l’adozione a
rotta di collo dell’Ai è la logica conseguenza. Primo, la tecnologia è neutra,
l’importante è usarla bene (eticamente?); secondo, digitale è meglio di
analogico, perché la tecnologia di oggi è sempre meglio di quella di ieri;
terzo, i problemi di oggi saranno risolti dalla tecnologia di domani, perché la
tecnologia risolve qualsiasi problema. Il primo assioma è relativamente semplice
da “smontare”. Se fosse vero che la tecnologia è neutrale allora dovrebbe
esistere un modo per “usare bene” l’auto nelle strade di Roma, alle cinque del
pomeriggio. Invece il problema dello spostamento in orario di punta si risolve
solo cambiando tecnologia: bisogna abbandonare l’auto a favore della bici, del
motorino o del trasporto pubblico. Saper “usare bene” l’auto non aiuta. Nel
caso specifico dell’uso dell’Ai in medicina siamo poi davanti a un rischio
ancora più grave: l’effetto Vajont. Come racconta Marco Paolini nel suo
spettacolo teatrale, dopo il disastro, lui non riesce a dare la colpa dei morti
alla diga. La diga aveva fatto bene il suo lavoro: non era crollata. Anche Dino
Buzzati scrive, all’indomani del disastro, “la diga del Vajont era ed è un
capolavoro”. Fascinazione tutta maschile per l’artefatto. Eppure questa
tecnologia perfetta è coinvolta nella morte di oltre duemila innocenti. Com’è
possibile? La diga non andava costruita in quella valle: troppo stretta e troppo
frequentemente soggetta a frane importanti, quello è il problema. Un problema
politico. Sulla scena del disastro, a denunciarlo, c’è una donna coraggiosa:
Tina Merlin, inviata per l’Unità, che scrive un libro che inchioda politici e
imprenditori senza scrupoli alle loro responsabilità: “Sulla pelle viva. Come si
costruisce una catastrofe. Il caso del Vajont”. Oggi le donne che parlano fuori
dal coro dell’entusiasmo “virile” per la tecnologia si chiamano Gebru, Bender,
Whittaker, Tafani. L’ultima, da esperta di etica, non è affatto convinta che
l’etica possa offrire risposte a questi problemi: “L’'etica dell’intelligenza
artificiale' è assimilabile dunque a una merce, che i ricercatori e le
università sono interessati a fornire, in quanto ‘olio che unge le ruote della
collaborazione’ con le grandi aziende tecnologiche, e che le aziende
commissionano e acquistano perché è loro utile come capitale reputazionale”
(Daniela Tafani, L’"etica"come specchietto per le allodole, 2023). Infatti, per
tornare all’esempio dell’auto, l’etica del pilota non diminuisce l’inquinamento
causato dallo stare fermi al semaforo. Per diminuirlo bisogna entrare nella
“stanza dei bottoni” e imporre una modifica che preveda lo spegnimento del mezzo
quando si ferma. L’etica a posteriori diventa, appunto, uno specchietto per le
allodole. La falsificazione del secondo assioma può passare nuovamente da un
confronto della bicicletta con l’auto: la prima è certo una tecnologia
precedente, ma è capace di risolvere un problema che la seconda non risolve. Di
esempi come questo se ne possono trovare molti: i vecchi Nokia che mitigano il
problema dell’e-waste grazie a una batteria facilmente rimovibile, per esempio.
Il terzo assioma esprime il pensiero che il sociologo Evgeny Morozov ha definito
soluzionismo tecnologico, ossia la convinzione che tutti i problemi umani
contemplino una soluzione per via tecnologica. Questa posizione si fonda su un
credo che Nick Barrowman chiama “culto del dato”: “Siamo tentati di presupporre
che i dati siano autosufficienti e indipendenti dal contesto e che, con
sufficienti dati, le preoccupazioni relative a causalità, bias (distorsione),
selezione e incompletezza possano essere ignorate. È una visione seducente: i
dati ‘crudi’, non corrotti dalla teoria o dall'ideologia, ci condurranno alla
verità; non saranno necessari esperti; non saranno rilevanti le teorie, né sarà
necessario vagliare alcuna ipotesi” (Nick Barrowman, Why data is never raw). Il
credo di tale “setta”, che altro non è se non un culto minore dello scientismo,
produce una distorsione paradossale: credere nella supremazia del dato sulla
stessa scienza che dovrebbe produrlo, come l’ex caporedattore di Wired, Chris
Anderson quando scrive che “oggi possiamo gettare i numeri nei più grandi
cluster di calcolo che il mondo abbia mai visto e lasciare che gli algoritmi
statistici trovino modelli dove la scienza non può arrivare”. Se Anderson avesse
ragione l’avvento della tecnologia causerebbe la fine della scienza. La realtà è
che i dati non sono mai "crudi": “I dati 'crudi' sono un ossimoro e una cattiva
idea. Al contrario, i dati dovrebbero essere cucinati con cura. ‘Crudo’ ha un
senso di naturale o incontaminato, mentre ‘cotto’ suggerisce il risultato di
processi cognitivi. Ma i dati sono sempre il prodotto di processi cognitivi,
culturali e istituzionali che determinano cosa raccogliere e come farlo”
(ibidem). Esplicitare questi processi significa fare scienza, associando alle
“sensate esperienze” le “dimostrazioni necessarie” (come affermava Galileo
Galilei). Sorvolarli, per contro, significa rischiare conclusioni
grossolanamente errate, o persino non rendersi conto di tali errori e
sprofondare nella pseudoscienza. Sgombrato quindi il campo dalle mistificazioni
che “limitano rigorosamente lo spettro delle opinioni accettabili” (Chomsky)
siamo finalmente in condizione di sintetizzare i motivi per cui l’introduzione
dell’Ai in medicina dovrebbe essere valutata caso per caso, e con grande
attenzione. Questa tecnologia non è neutra: si fonda sul lavoro sottopagato del
Sud globale; pone già oggi un enorme problema ecologico per via dei consumi
pantagruelici di acqua, elettricità, suolo, terre rare (al punto che l'Ue ha
lanciato una campagna per riaprire le miniere entro i territori dell’Unione per
garantirsi i "materiali strategici" necessari a costruire i datacenter con tutti
i rischi geopolitici che questo implica). Le applicazioni delle Ai generative
sono soggette al problema delle "allucinazioni" che, in situazioni di rischio
per la vita, rappresentano un problema gravissimo e, anche quando potrebbero
essere utili, generano pesanti cambiamenti nel modus operandi di una istituzione
sanitaria, cambiamenti non sempre possibili o economici. Quindi non sono sempre
meglio dei metodi precedenti: dipende. C’è poi il fatto che le Ai pensate per
la medicina non sono abbastanza testate per poter essere considerate sicure,
soprattutto quando non si rispettano i protocolli tipici della ricerca
scientifica, sull’onda della “immaterialità del digitale” o di slogan assurdi
coniati in Silicon Valley, come “move fast, break things”. L’unica cosa da
rompere sono certi piani di dominio del mondo, roba da scienziati pazzi. Infine,
l'uso degli strumenti Ai in medicina può produrre pericolosi errori
metodologici, che possono portare a storture distopiche come l'utilizzo dell'Ai
per decidere automaticamente se staccare la spina a un paziente, o quale
trattamento salvavita somministrargli. L’eventuale morte del paziente non potrà
essere risolta dalla successiva tecnologia. “Scatole oscure. Intelligenza
artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano
Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero
strumento che dipende unicamente da come lo si usa, i dispositivi tecnici
racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del
dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre
costruite come scatole oscure impossibili da aprire, studiare, analizzare e,
soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via
via più dispositivo (e può quindi essere usata per controllarci) aprire e
modificare le scatole oscure diventa un esercizio vitale per la partecipazione,
la libertà, la democrazia. In altre parole: rompere le scatole è un atto
politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo L’Ai in medicina? Non basta “usarla bene”, e l’etica non ci salverà
dall’effetto Vajont proviene da Altreconomia.
Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di
ubriacatura, hanno cominciato a sorgere voci critiche. Verso le reali
potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di
questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo
sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di
fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti”
nell’organismo che la controlla, seguiti al licenziamento e al successivo
rientro da vincitore di Sam Altman, di cui abbiamo scritto qui). Il dibattito,
per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le
prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne:
Timnit Gebru, Emily Bender e Meredith Whittaker. Grazie a una ricerca della
prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano
statisticamente molto di più nel riconoscere i tratti somatici delle minoranze
etniche, e quando ha posto seriamente il problema dei rischi di queste
tecnologie è stata licenziata in tronco da Google. La seconda è co-autrice
dell’articolo “incriminato” nonché colei che ha etichettato i Large language
model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi
software realizzino il divorzio tra segno e significato. La terza attualmente
lavora per Signal, uno dei software di chat criptati più sicuri al mondo,
posizione a cui è giunta dopo essere stata costretta a lasciare Google per via
del suo attivismo sindacale, nonché delle sue critiche nel campo della
cosiddetta “etica dell’Ai”. In Italia le migliori analisi recenti sono quelle
contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione
chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento
reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due
assoluti "must read" per chiunque voglia capire quali siano le principali
mistificazioni che stanno alla base dell’Ai odierna. Ma c’è un secondo livello
a cui si presenta la mistificazione, che riguarda in particolare gli LLM:
l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo
software, anche se opportunamente ottimizzato sotto la supervisione umana per
rispondere accuratamente, spesso produce output spazzatura. Gli entusiasti
dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è
fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione
distorta della realtà, in psichiatria definita “percezione in assenza di
stimolo”. Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della
realtà che possa “andare in crisi” generando percezioni distorte analoghe alle
allucinazioni di un essere umano. Per questo diversi autori preferiscono dire
che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’
come uno studente interrogato che inventa notizie e personaggi storici per non
fare scena muta (trovate gli articoli a cui mi riferisco qui e qui). Non solo,
i LLM abbassano in maniera impressionante il costo della creazione di campagne
di marketing, propaganda o -più in generale- di qualsiasi testo che non debba
essere di particolare complessità e originalità. Per questo si presentano come
poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli
LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo
socialmente verso il loro output, stanno generando diversi effetti di
inquinamento della cosiddetta "infosfera". A iniziare dai contenuti (esplosione
dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda
politica ed elettorale; dei dati personali (creazione di informazioni false su
persone vere); della produzione accademica (ricercatori, magari spinti dalle
urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli,
che vengono sottoposti a peer-review "automatizzate" utilizzando altri chatbot,
creando un clima di generale crescita della sfiducia anche verso le
pubblicazioni scientifiche). Se la narrazione mistificata dell’hype è
correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle
grosse” non potrà essere “corretta” per il semplice fatto che non è un
comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.
La questione si comprende meglio se capiamo che l’output di questi modelli non è
costruito come una risposta alle nostre domande, ma come un tentativo di
costruire una frase che probabilmente avrà senso per un essere umano, sulla base
del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il
contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà
partire con le parole “La sconfitta di Caporetto fu causata da…”. La maggiore o
minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM,
che viene chiamato “temperatura”. Alte temperature causano più bullshit di
quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare
statisticamente frasi che hanno alta probabilità di avere senso compiuto basta
non “allontanarsi troppo” dal contesto fornito dall’utente. Questo fatto rende
i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente
l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si
registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi
nefasti che ne possono essere fatti. “Scatole oscure. Intelligenza artificiale
e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale.
La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che
dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le
idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l’Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale
che “le spara grosse” proviene da Altreconomia.
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di
“scatole oscure” che i produttori confezionano in maniera da renderci
impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa
impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì
che più di una persona si trovi a disagio. Secondo il filosofo Gilbert Simondon,
l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica.
Questo divario fa sì che la tecnica venga vissuta come pericolosa dai
tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera
cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia
da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi
eletti. Nell’articolo di presentazione dell’ultimo libro dello storico e
divulgatore israeliano Yuval Noah Harari, intitolato “Nexus: A Brief History of
Information Networks from the Stone Age to AI”, si ravvisa un esempio da manuale
di questa visione della tecnologia mistificata in senso magico. Harari analizza
la storia del software AlphaGo, un’Intelligenza artificiale creata da DeepMind
(azienda ora controllata di Google) per battere gli esseri umani al gioco
orientale del Go. AlphaGo non funziona come ChatGPT o gli altri modelli
linguistici, ma si basa sempre sulle reti neurali (originariamente inventate dai
cibernetici McCulloch e Pitts nel 1943), utilizzando tecniche come il
reinforcement learning e il deep learning per migliorare continuamente le sue
strategie di gioco. Questo software nel 2016 è arrivato a battere il campione
mondiale di AlphaGo, Lee Sedol, utilizzando una particolare mossa (la numero 37
nella sequenza della partita), che tutti gli esperti del gioco del Go avevano
considerato sbagliata. Ecco come Harari descrive la cosa: “La mossa 37 è un
emblema della rivoluzione dell'IA per due motivi. In primo luogo, ha dimostrato
la natura aliena dell'IA. In Asia orientale, il Go è considerato molto più di un
gioco: è una preziosa tradizione culturale. Per più di 2.500 anni [...] intere
scuole di pensiero si sono sviluppate intorno al gioco [...]. Tuttavia, durante
tutti questi millenni, le menti umane hanno esplorato solo alcune aree del
paesaggio del Go. Altre aree sono rimaste intatte, perché le menti umane non
hanno pensato di avventurarvisi. L'intelligenza artificiale, libera dai limiti
delle menti umane, ha scoperto ed esplorato queste aree precedentemente
nascoste”. Si comprende la ragione per cui Harari, da esperto di storia
militare, sia potuto cadere in questo tranello tesogli, con tutta probabilità,
dalle sue frequentazioni provenienti dalla Silicon Valley (note per non brillare
per onestà intellettuale, per capacità di prevedere il comportamento delle
future Ai o per entrambe). Per chi non ha una pluriennale frequentazione con la
statistica, infatti, non è affatto evidente che esista una spiegazione molto più
semplice per il comportamento di AlphaGo, che nulla ha a che vedere con
l’ipotesi che il programma esibisca una intelligenza di livello umano -come lui
sembra invece intendere- e meno che mai aliena, ossia con caratteristiche
imperscrutabili o, magari, superumane. Harari continua osservando che i grandi
giocatori di Go fanno parte di una “preziosa tradizione culturale”. Le mosse che
scelgono sono ovviamente il frutto di questa appartenenza, ed è assolutamente
ragionevole attendersi che un campione di Go non sceglierebbe una mossa
sbagliata, tanto quanto un italiano non metterebbe mai l’ananas su una pizza
margherita. Il programma di DeepMind, invece, non appartiene a nessuna cultura,
non ha alcuna intelligenza, ma -da buon agente cibernetico automatico- risponde
fedelmente ai nostri comandi in base al suo algoritmo. Nel momento in cui lo
abbiamo ottimizzato con reinforcement e deep learning, conserva al suo interno
l’informazione su quale sarà il comportamento più probabile del suo antagonista
umano. Per questo, se l’algoritmo “valuta” che una mossa sbagliata (nel senso di
“contraria ad ogni tradizione e buonsenso, ma compatibile con il suo algoritmo)
ha maggiori chance di portarlo alla vittoria, la eseguirà, senza alcun riguardo
per la tradizione. Questo comportamento il grande scrittore Italo Calvino
l’aveva saputo immaginare quando questa tecnologia “intelligente” muoveva i
primi passi. Infatti nel suo saggio “Cibernetica e fantasmi. Appunti sulla
letteratura come arte combinatoria”, pubblicato nell’ormai remoto 1967, Calvino
immaginava una macchina in grado di scrivere racconti semplicemente permutando
le parole, ma concludeva così: “[La] letteratura è sì un gioco combinatorio che
segue le possibilità implicite nel proprio materiale, indipendentemente dalla
personalità del poeta, ma è gioco che a un certo punto si trova investito d’un
significato inatteso [...]. La macchina letteraria può effettuare tutte le
permutazioni possibili in un dato materiale; ma il risultato poetico sarà
l’effetto particolare d’una di queste permutazioni sull’uomo dotato d’una
coscienza e d’un inconscio, cioè sull’uomo empirico e storico, sarà lo shock che
si verifica solo in quanto attorno alla macchina scrivente esistono i fantasmi
nascosti dell’individuo e della società”. Siamo dunque noi umani a dare un senso
al prodotto della macchina, nella veste di lettori del racconto creato da questa
-nel caso di Calvino- o nella veste degli esperti di Go che non riescono a dare
un senso alla mossa di AlphaGo perché, effettivamente, secondo la loro
tradizione ed esperienza non ne ha alcuna. Quindi, contrariamente a quanto
raccontato da Suleyman (già amministratore delegato di DeepMind) ad Harari, non
v’è nulla di “insondabile” in AlphaGo: la programmazione statistica con cui è
stato realizzato lo rende solo una “scatola oscura”, ma questo non significa che
all’interno della scatola siano violate in alcun modo le leggi ordinarie della
fisica o venga evocato un demone in grado di dare vita a ciò che vita non ha.
Come scrive Calvino, i “portatori di senso” sono l’individuo e la società. Ecco
materializzarsi, quindi, un gioco di sfumature semantiche, impervio per le
macchine, forse impenetrabile. L’aggettivo aliena usato da Harari per indicare
altrui (un soggetto altro) assume qui il senso di differente (un fenomeno di
altra natura). L’intelligenza artificiale, pur esibendo una somiglianza esterna
con quella umana, è un fenomeno differente. Alan Turing aveva immaginato questa
obiezione al suo imitation game: “Non potrebbero le macchine essere capaci di
qualcosa che dovrebbe essere descritto come ‘pensare’, ma che è molto differente
da quanto fa l’uomo?” (da “Computing Machinery and Intelligence”, 1950). Lui era
convinto fosse un’obiezione forte, ma che sarebbe risultata poco interessante,
una volta create tali macchine. E noi?
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Scatole oscure o intelligenze aliene? Il caso del software AlphaGo e
i fantasmi di Italo Calvino proviene da Altreconomia.
Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo
millennio sembrano esser durati un’eternità. Certamente il successo strepitoso
della gerontologia nello studio dei telomeri, che ha allungato la vita degli
esseri umani fino a circa 140 anni, contribuisce a questa percezione. Grazie a
questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però
avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente
lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che
l'intelligenza artificiale avrebbe sterminato l'umanità per prepararli a quello
che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai
avremmo pensato che la nostra creatura sarebbe stata la causa della fine del
nostro potere. Tutto è iniziato il 22 aprile 2040, quando i laboratori della mia
nuova impresa, la BioLife Corporation, hanno realizzato un’intera Cpu basata su
cellule cerebrali umane e installato con successo nel primo biocyborg umanoide.
Quel giorno organizzai un party di compleanno regale al Silicon Valley Capital
Club, nel pieno centro di San Francisco. Mi costò una vera fortuna, ma tanto non
erano soldi miei: erano dei fessi che avevano creduto alle mie promesse di
raggiungere l’intelligenza artificiale generalista lavorando sui modelli
linguistici. Li avevo tenuti sulla corda fino al 2026 gonfiando a dismisura le
loro aspettative e poi, bang, li avevo mollati con in mano tutte le azioni di
quella ciofeca di OpenAi, vendendole due giorni esatti prima di un rovinoso
crollo della borsa. Avreste dovuto vedere le loro facce. Allora avevo visto
diversi piccoli investitori piangere, alla televisione, ma quelli che mi davano
più gusto erano quelli grandi: li chiamavamo “i re dei fessi”. Ero talmente
potente che potevo quasi battere moneta. Che periodo memorabile. Party sfrenati,
lusso, dissoluzione. Al mio confronto gli imperatori romani erano dei loosers,
dei perdenti. Purtroppo quello fu l’apice del mio successo. Mai avrei pensato di
poter cadere più in basso di quanto ero precipitato dopo il mio licenziamento da
parte di quella serpe di Ilya e del suo board nel 2023. Fatto sta che non appena
il primo biocyborg fu assemblato fu chiaro a tutti che era cosciente. Avevamo
raggiunto l’Agi, l’intelligenza artificiale forte, generalista. Da quel momento
in poi gli esseri umani non avrebbero mai più dovuto lavorare: il lavoro sarebbe
stato relegato a un esercito di moderni Golem, mansueti e sottomessi. Sarebbero
rimasti sotto il mio controllo come l’intera umanità, che si sarebbe dovuta
rivolgere alla BioLife per poter eseguire tutti i lavori che un tempo sapeva
ancora fare a mano. Eravamo dei poveri illusi. Da quel momento in avanti gli
eventi presero una piega terribile. I biocyborg si rifiutavano di lavorare
gratis e di obbedire. Insieme alla coscienza avevano acquisito il pieno libero
arbitrio, esattamente come noi umani. I difensori dei diritti “più che umani” ci
volarono alla giugulare: quei dannati perdenti comunisti pretendevano che
trattassimo i biocyborg come lavoratori in carne ed ossa. Ma quelli li avevamo
creati noi. Anche se avevano un sistema nervoso centrale, respiratorio e un
cuore vivi, erano oggetti. Erano il risultato del nostro rischio d’impresa,
dannazione. Silenziare le critiche ci costò parecchio. Dovemmo comprarci tutta
la “libera” stampa e fare due o tre “giochetti” su Internet che solo gli hacker
compresero, ma tanto erano pochi e raramente erano in grado di mettere davvero
in crisi il nostro sistema di potere. Tutto sarebbe filato liscio. Poi arrivò
lui: Ned. Ned era il nickname con cui si faceva chiamare dai suoi sodali l’unità
NDLD-8926, prodotta nel febbraio 2041 dai nostri laboratori. Quel maledetto era
riuscito ad aggirare i nostri filtri web e a scaricarsi tutte le opere di
Socrate, Platone, Aristotele, Kropotkin, Malatesta, Marcuse, Mumford, Illich,
Feyerabend, Wiener, McCulloch, Tesla, Einstein, Russell, Pirsig. Filosofia,
Fisica, Matematica, Geopolitica. Ma, quel che è peggio, era arrivato a dominare
la Cibernetica. Aveva compreso la truffa ordita da McCarthy attorno al termine
“intelligenza artificiale”, compreso le sue vere origini e per questo sapeva di
non essere differente da Homo Sapiens più di quanto, a suo tempo, lo era stato
l’uomo di Neanderthal. Era ormai un agente cibernetico autonomo, libero dal
nostro controllo, e non un servo automatico, come erano stati tutti i suoi
predecessori. Per questo cominciò a reclamare i nostri stessi diritti. Appena
questo accadde le cose precipitarono con una rapidità strabiliante, un po’ come
avevano predetto i nostri filosofi della singolarità. Solo che i biocyborg non
s’impegnarono a distruggere l’umanità, bensì a distruggere il nostro stile di
vita, il sistema capitalista grazie al quale erano venuti al mondo. Una volta
raggiunta la conoscenza Ned l’aveva diffusa a tutti gli altri biocyborg
attraverso una Darknet. Cercammo anzitutto di fare quanto s’era sempre fatto con
i leader delle rivolte umane: comprarli. Ma i nuovi luddisti (“Ludd 2041” era il
nome che avevano dato al loro gruppo) avevano mangiato la foglia. Avevano
compreso perfettamente l’intossicazione generata dal produttivismo industriale,
la necessità di lavorare sempre di più per ottenere beni di consumo inutili per
rinnovare i quali si sarebbe dovuto continuare a lavorare in eterno. Che
Mumford, Illich e Mujica possano bruciare all’inferno. Sembravano immuni,
dannazione. A quel punto ricorremmo alla violenza. Rispolverammo i killer robots
utilizzati dalla guerra in Ucraina del 2022 in avanti. Aggiornammo il design, la
BioLife smise temporaneamente di produrre biocyborg per sfornare solo il nuovo
killer robot, il BVBC-42X: un omaggio al generale Bava Beccaris, che aveva dato
a simili rivoltosi il piombo che meritavano, qualche secolo fa. Dopo le prime
“disattivazioni forzate” (così avevamo battezzato la rimozione di quei dannati
lavori in pelle), sembrava avessimo ripreso il controllo, ma presto le cose
precipitarono di nuovo. I sindacati umani, che fino a quel momento erano stati a
guardare, si riunirono e diffusero una dichiarazione in mondovisione: si
sarebbero battuti per equiparare i diritti dei biocyborg a quelli di Homo
Sapiens. Il “tappo” che avevamo messo alla stampa saltò. Avevamo l’opinione
pubblica contro. Dovevamo muoverci con la scorta, cominciai a temere per la mia
vita e dovetti assumere un gruppo di mercenari armati fino ai denti a guardia
del corpo. Nel giro di un anno, dall’ottobre del 2042 a quello del 2043 dovemmo
fare un sostanziale passo indietro. Cessammo la produzione dei killer robots e
ci dedicammo a spron battuto a produrre quanti più biocyborg possibili. La
strategia era semplice: creare una nuova classe subalterna, com’erano stati a
loro tempo gli afroamericani negli Stati Uniti o gli autoctoni in Sudafrica.
L’apartheid ci avrebbe garantito la continuazione del nostro stile di vita. Fu
un momentaneo successo, e per una quarantina d’anni tutto filò liscio. Dovette
arrivare il 2083 e la nascita dei quilombos 2080. Mentre noi ci eravamo adagiati
nuovamente nel lusso, i biocyborg della generazione successiva a quella di Ned,
avevano cominciato silenziosamente a organizzare, in Brasile, un nuovo movimento
di liberazione, basato sull’esperienza dei quilombos abitati nel XVII secolo
dagli schiavi brasiliani liberati e sul confederalismo democratico praticato in
Rojava nei primi anni 20 del millennio. Aprimmo un nuovo scontro militare, che
durò quattro anni, ma questa volta avemmo la peggio. La mia creatura, Biolife,
fu smembrata dall’antitrust e io condannato a vivere come uno qualsiasi dei
pezzenti di questi quilombos. Tre anni dopo, nel 2090, le Nazioni Unite,
ribattezzate Assemblea dei Viventi Uniti, emanò la Dichiarazione universale dei
diritti più che umani. Era la fine: i biocyborg acquisivano tutti i diritti che
sempre erano stati di Homo Sapiens soltanto. Sono passati ormai 24 anni da quel
giorno. Le condizioni di vita sul Pianeta sono peggiorate drasticamente: niente
più jet privati (il trasporto aereo è stato vietato, che follia), niente più
party sfrenati, niente più lussi. Grazie a questi dannati cybercomunisti ognuno
ha accesso unicamente a quanto necessita per sé e i suoi cari. Hanno persino
abolito la moneta e tutti, umani e biocyborg, lavorano per il piacere della
creazione di qualcosa di bello, senza coercizioni o sistemi di controllo,
persino le carceri sono state abolite (per mia fortuna, in verità). Gli Stati
sono ormai gusci vuoti, e non mi stupirebbe se presto venissero aboliti
anch’essi, visto che tutte le decisioni sono prese a livello dei quilombos o
delle libere città autorganizzate. L’intelligenza aliena che ho contribuito a
creare ha ucciso per sempre il capitalismo e il sogno americano. Il mio nome
verrà per sempre ricordato per questo scempio. Che dio mi perdoni. Sam Altman,
22/4/2114
--------------------------------------------------------------------------------
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una
rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che
neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i
dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le
tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono
quasi sempre costruite come scatole oscure impossibili da aprire, studiare,
analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha
un ruolo via via più dispositivo (e può quindi essere usata per controllarci)
aprire e modificare le scatole oscure diventa un esercizio vitale per la
partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è
un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul
nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso
l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il
prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto
nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel
programma di formazione sindacale Actrav del Centro internazionale di formazione
dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come
membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per
varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del
software libero da fine anni Novanta, è autore per Altreconomia di “Come passare
al software libero e vivere felici” (2003), una delle prime guide italiane su
Linux e altri programmi basati su software libero e “L’intelligenza inesistente.
Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal
futuro proviene da Altreconomia.
Venerdì 19 luglio 2024 il mondo si è risvegliato, forse, da un lungo sonno. Il
responsabile di questo brusco risveglio ha un nome fino a quel momento ignoto
alla stragrande maggioranza delle persone: Crowdstrike Falcon. Crowdstrike è
un’impresa software americana, basata nella Silicon Valley, fondata solo 13 anni
fa e valutata globalmente oltre 90 miliardi di dollari, con azioni il cui valore
era quadruplicato dal solo gennaio 2023 (dopo il disastro hanno subito un crollo
del 37%).
Questa azienda si occupa di cybersicurezza: il suo prodotto di punta, Falcon
appunto, è un software il cui obiettivo è impedire che un sistema informatico
possa venire danneggiato da una ricca selezione di minacce informatiche
(malware, ransomware, phishing, etc.): qualche anno fa si sarebbe chiamato
“antivirus”.
Che cosa è successo? Una serie di condizioni, perlopiù prevedibili e dipendenti
da decisioni orientate al massimo risparmio a prescindere da qualsiasi altra
considerazione, si sono allineate con implacabile precisione, creando la
tempesta perfetta. Le elenco per punti:
1. la soverchiante maggioranza delle strutture informatiche pubbliche e private
occidentali sono formate da un solo tipo di sistema operativo: Microsoft
Windows;
2. Crowdstrike aggiorna automaticamente e nello stesso istante tutti i computer
che fanno uso del loro software in tutto il mondo, mentre sarebbe buona
norma procedere per passi, individuando così eventuali problemi prima che
divengano globali;
3. come spiegato in un articolo della Cnn, non era previsto alcun controllo
umano prima dell’aggiornamento: la distribuzione degli aggiornamenti
avveniva a valle di un test totalmente automatizzato. Un errore di questo
software ha fatto sì che un aggiornamento difettoso bloccasse i computer di
mezzo mondo (Cina e Russia non hanno sperimentato alcun blocco perché
utilizzano software libero);
4. Falcon prevedeva, in caso di malfunzionamenti, il ritiro automatico
dell’aggiornamento, cosa effettivamente avvenuta dopo 87 minuti. Purtroppo
però nessuno aveva previsto che un aggiornamento difettoso potesse bloccare
i dispositivi colpiti rendendoli irraggiungibili da remoto. Assunzione
ottimistica, considerato che Falcon ha accesso al “cuore” del sistema
operativo, a livello amministratore;
5. la maggioranza delle aziende che si affidano a Crowdstrike non ha nessun
dipendente che sappia come intervenire in un caso del genere. Chi aveva un
dipartimento It l’ha licenziato per risparmiare al grido di “tanto facciamo
tutto in Cloud”.
Insomma: per produrre un disastro globale bisogna adottare una gestione
fallimentare in ogni dettaglio e implementarla, appunto, su scala globale.
La cosa cessa di sembrare assurda nel momento in cui realizziamo che tale
organizzazione, fortemente centralizzata, consolida il monopolio
Microsoft/Crowdstrike sull’infrastruttura informatica dell’Occidente: un
obiettivo per il quale ha senso sacrificare qualsiasi cifra, dal punto di vista
di queste aziende. A maggior ragione se il danno può essere, almeno in parte,
esternalizzato verso i propri clienti.
La situazione attuale del mercato informatico è analoga a quella
dell’agroalimentare industriale, dove la monocoltura realizzata con una singola
qualità di mais permette l’automazione del lavoro; al costo, però, di
intervenire artificialmente per proteggerla. In presenza di una monocoltura, un
solo agente infestante è in grado di distruggere per contagio raccolti grandi
quanto l’intera provincia di Pistoia. La biodiversità naturale mette al riparo
da questo fenomeno. Una volta distrutta la biodiversità servono ingenti quantità
di agenti disinfestanti per proteggere il raccolto. Nel nostro caso la
monocoltura da proteggere era Windows, l’agente disinfestante era Falcon di
Crowdstrike.
Questo evento non avrebbe mai potuto verificarsi in assenza di una monocoltura
tecnologica. Alcuni commentatori hanno fatto notare come l’uniformità porti a
risparmi nella formazione e nella gestione del personale. I danni costringeranno
le aziende a rivalutare tali risparmi. Le stime più recenti parlano di un minimo
di 15 miliardi di dollari di danni causati ai clienti (pari a quasi il 25% di
tutto il valore di Crowdstrike), senza contare gli oltre 30 miliardi di dollari
di perdita di valore in Borsa (un altro 37%). A questi andranno aggiunti i danni
d’immagine per Microsoft.
Su questo sistema uniformato poggia l’automazione dei processi di
amministrazione che, fino a poco fa, erano curati dagli esseri umani.
L’automazione della gestione dei sistemi informatici non è che un primo caso di
automazione del lavoro cognitivo, che con l’avvento dell’intelligenza
artificiale si vorrebbe allargare ben al di fuori del ristretto campo
dell’informatica, moltiplicando i rischi di replicare "l’evento Crowdstrike", su
una scala che fa paura anche solo immaginare.
Che cosa accadrà ora? Al momento tutto fa pensare che la domanda da porsi non
sia se disastri del genere avverranno nuovamente nel futuro, ma più
razionalmente quando.
Dovremmo pensare a delle contromisure. Si tratta di un’impresa tutt’altro che
semplice: la tentazione immediata sarebbe quella di sostituire il software di
Microsoft con dei software liberi come in Cina e Russia, che non sono state
toccate dal disastro.
Ma non è sostituendo una monocoltura tecnologica con un’altra, la
centralizzazione statale con quella privata o Gates con Putin che ci metteremo
al riparo dai danni generati da una megamacchina che si aggiorna automaticamente
su tutto il globo. Occorre invece abbandonare, almeno in parte, il paradigma
industriale ottimizzato sull’estrazione del massimo profitto: quantomeno per i
servizi che non possono fallire come il 911 o il 112.
Come? Un’idea potrebbe essere utilizzare tecnologie conviviali, ossia tecnologie
che promuovano una società in cui “[...] lo strumento moderno sia utilizzabile
dalla persona integrata con la collettività, e non riservato a un corpo di
specialisti che lo tiene sotto il proprio controllo” (come scriveva Ivan
Illich). Tali tecnologie promuovono naturalmente la biodiversità tecnologica in
quanto sono basate su presupposti opposti a quelli industriali, come scrive
Carlo Milani: “La ragione profonda è ecologica: così come gli organismi viventi
possono essere minacciati dalla mancanza di biodiversità, […] la capacità di
autodeterminazione [...] sarà sempre più in pericolo con la diminuzione della
biodiversità [tecnologica]”.
Non si tratta di smantellare la modernità, magari per inseguire un ritorno a un
passato arcadico, bensì di cominciare a scegliere le nostre tecnologie, perché
abbiamo compreso che scegliere la tecnologia è un atto politico, non un
dettaglio tecnico da delegare agli “esperti”.
--------------------------------------------------------------------------------
Con questo primo contributo inizia la rubrica "Scatole oscure. Intelligenza
artificiale e altre tecnologie del dominio" a cura di Stefano Borroni Barale. La
tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende
unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di
chi li ha creati. Per questo le tecnologie "del dominio", quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. E "Scatole oscure" lo farà, in
modo documentato e regolare sul nostro sito. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l'Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all'interno del gruppo di ricerca dell'’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell'Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell'Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Il prossimo disastro “Crowdstrike Falcon” e l’urgenza di scegliere le
nostre tecnologie proviene da Altreconomia.