Venerdì 19 luglio 2024 il mondo si è risvegliato, forse, da un lungo sonno. Il
responsabile di questo brusco risveglio ha un nome fino a quel momento ignoto
alla stragrande maggioranza delle persone: Crowdstrike Falcon. Crowdstrike è
un’impresa software americana, basata nella Silicon Valley, fondata solo 13 anni
fa e valutata globalmente oltre 90 miliardi di dollari, con azioni il cui valore
era quadruplicato dal solo gennaio 2023 (dopo il disastro hanno subito un crollo
del 37%).
Questa azienda si occupa di cybersicurezza: il suo prodotto di punta, Falcon
appunto, è un software il cui obiettivo è impedire che un sistema informatico
possa venire danneggiato da una ricca selezione di minacce informatiche
(malware, ransomware, phishing, etc.): qualche anno fa si sarebbe chiamato
“antivirus”.
Che cosa è successo? Una serie di condizioni, perlopiù prevedibili e dipendenti
da decisioni orientate al massimo risparmio a prescindere da qualsiasi altra
considerazione, si sono allineate con implacabile precisione, creando la
tempesta perfetta. Le elenco per punti:
1. la soverchiante maggioranza delle strutture informatiche pubbliche e private
occidentali sono formate da un solo tipo di sistema operativo: Microsoft
Windows;
2. Crowdstrike aggiorna automaticamente e nello stesso istante tutti i computer
che fanno uso del loro software in tutto il mondo, mentre sarebbe buona
norma procedere per passi, individuando così eventuali problemi prima che
divengano globali;
3. come spiegato in un articolo della Cnn, non era previsto alcun controllo
umano prima dell’aggiornamento: la distribuzione degli aggiornamenti
avveniva a valle di un test totalmente automatizzato. Un errore di questo
software ha fatto sì che un aggiornamento difettoso bloccasse i computer di
mezzo mondo (Cina e Russia non hanno sperimentato alcun blocco perché
utilizzano software libero);
4. Falcon prevedeva, in caso di malfunzionamenti, il ritiro automatico
dell’aggiornamento, cosa effettivamente avvenuta dopo 87 minuti. Purtroppo
però nessuno aveva previsto che un aggiornamento difettoso potesse bloccare
i dispositivi colpiti rendendoli irraggiungibili da remoto. Assunzione
ottimistica, considerato che Falcon ha accesso al “cuore” del sistema
operativo, a livello amministratore;
5. la maggioranza delle aziende che si affidano a Crowdstrike non ha nessun
dipendente che sappia come intervenire in un caso del genere. Chi aveva un
dipartimento It l’ha licenziato per risparmiare al grido di “tanto facciamo
tutto in Cloud”.
Insomma: per produrre un disastro globale bisogna adottare una gestione
fallimentare in ogni dettaglio e implementarla, appunto, su scala globale.
La cosa cessa di sembrare assurda nel momento in cui realizziamo che tale
organizzazione, fortemente centralizzata, consolida il monopolio
Microsoft/Crowdstrike sull’infrastruttura informatica dell’Occidente: un
obiettivo per il quale ha senso sacrificare qualsiasi cifra, dal punto di vista
di queste aziende. A maggior ragione se il danno può essere, almeno in parte,
esternalizzato verso i propri clienti.
La situazione attuale del mercato informatico è analoga a quella
dell’agroalimentare industriale, dove la monocoltura realizzata con una singola
qualità di mais permette l’automazione del lavoro; al costo, però, di
intervenire artificialmente per proteggerla. In presenza di una monocoltura, un
solo agente infestante è in grado di distruggere per contagio raccolti grandi
quanto l’intera provincia di Pistoia. La biodiversità naturale mette al riparo
da questo fenomeno. Una volta distrutta la biodiversità servono ingenti quantità
di agenti disinfestanti per proteggere il raccolto. Nel nostro caso la
monocoltura da proteggere era Windows, l’agente disinfestante era Falcon di
Crowdstrike.
Questo evento non avrebbe mai potuto verificarsi in assenza di una monocoltura
tecnologica. Alcuni commentatori hanno fatto notare come l’uniformità porti a
risparmi nella formazione e nella gestione del personale. I danni costringeranno
le aziende a rivalutare tali risparmi. Le stime più recenti parlano di un minimo
di 15 miliardi di dollari di danni causati ai clienti (pari a quasi il 25% di
tutto il valore di Crowdstrike), senza contare gli oltre 30 miliardi di dollari
di perdita di valore in Borsa (un altro 37%). A questi andranno aggiunti i danni
d’immagine per Microsoft.
Su questo sistema uniformato poggia l’automazione dei processi di
amministrazione che, fino a poco fa, erano curati dagli esseri umani.
L’automazione della gestione dei sistemi informatici non è che un primo caso di
automazione del lavoro cognitivo, che con l’avvento dell’intelligenza
artificiale si vorrebbe allargare ben al di fuori del ristretto campo
dell’informatica, moltiplicando i rischi di replicare "l’evento Crowdstrike", su
una scala che fa paura anche solo immaginare.
Che cosa accadrà ora? Al momento tutto fa pensare che la domanda da porsi non
sia se disastri del genere avverranno nuovamente nel futuro, ma più
razionalmente quando.
Dovremmo pensare a delle contromisure. Si tratta di un’impresa tutt’altro che
semplice: la tentazione immediata sarebbe quella di sostituire il software di
Microsoft con dei software liberi come in Cina e Russia, che non sono state
toccate dal disastro.
Ma non è sostituendo una monocoltura tecnologica con un’altra, la
centralizzazione statale con quella privata o Gates con Putin che ci metteremo
al riparo dai danni generati da una megamacchina che si aggiorna automaticamente
su tutto il globo. Occorre invece abbandonare, almeno in parte, il paradigma
industriale ottimizzato sull’estrazione del massimo profitto: quantomeno per i
servizi che non possono fallire come il 911 o il 112.
Come? Un’idea potrebbe essere utilizzare tecnologie conviviali, ossia tecnologie
che promuovano una società in cui “[...] lo strumento moderno sia utilizzabile
dalla persona integrata con la collettività, e non riservato a un corpo di
specialisti che lo tiene sotto il proprio controllo” (come scriveva Ivan
Illich). Tali tecnologie promuovono naturalmente la biodiversità tecnologica in
quanto sono basate su presupposti opposti a quelli industriali, come scrive
Carlo Milani: “La ragione profonda è ecologica: così come gli organismi viventi
possono essere minacciati dalla mancanza di biodiversità, […] la capacità di
autodeterminazione [...] sarà sempre più in pericolo con la diminuzione della
biodiversità [tecnologica]”.
Non si tratta di smantellare la modernità, magari per inseguire un ritorno a un
passato arcadico, bensì di cominciare a scegliere le nostre tecnologie, perché
abbiamo compreso che scegliere la tecnologia è un atto politico, non un
dettaglio tecnico da delegare agli “esperti”.
--------------------------------------------------------------------------------
Con questo primo contributo inizia la rubrica "Scatole oscure. Intelligenza
artificiale e altre tecnologie del dominio" a cura di Stefano Borroni Barale. La
tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende
unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di
chi li ha creati. Per questo le tecnologie "del dominio", quelle che ci
propongono poche multinazionali, sono quasi sempre costruite come scatole oscure
impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una
società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi
essere usata per controllarci) aprire e modificare le scatole oscure diventa un
esercizio vitale per la partecipazione, la libertà, la democrazia. In altre
parole: rompere le scatole è un atto politico. E "Scatole oscure" lo farà, in
modo documentato e regolare sul nostro sito. Stefano Borroni Barale (1972) è
laureato in Fisica teorica presso l'Università di Torino. Inizialmente
ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud)
all'interno del gruppo di ricerca dell'’Istituto nazionale di fisica nucleare
(Infn), ha lasciato la ricerca per lavorare nel programma di formazione
sindacale Actrav del Centro internazionale di formazione dell'Ilo. Oggi insegna
informatica in una scuola superiore del torinese e, come membro di Circe,
conduce corsi di formazione sui temi della Pedagogia hacker per varie
organizzazioni, tra cui il ministero dell'Istruzione. Sostenitore del software
libero da fine anni Novanta, è autore per Altreconomia di “Come passare al
software libero e vivere felici” (2003), una delle prime guide italiane su Linux
e altri programmi basati su software libero e “L’intelligenza inesistente. Un
approccio conviviale all’intelligenza artificiale” (2023). © riproduzione
riservata
L'articolo Il prossimo disastro “Crowdstrike Falcon” e l’urgenza di scegliere le
nostre tecnologie proviene da Altreconomia.
Tag - bill gates
La definizione moderna di Intelligenza artificiale (IA) si basa su idee vecchie
di settant’anni. Infatti, quando Elon Musk e compagni parlano di IA, si
riferiscono a delle tecnologie in grado di superare il famoso test di Turing,
altrimenti noto come “gioco dell'imitazione”. Alan Turing, in un fondamentale
articolo del 1950, propone un esperimento mentale: chiudere in due diverse
stanze un uomo e la sua “macchina di Turing”, permettendo a un esaminatore di
interrogarle solo dall'esterno attraverso una tastiera; l'uomo avrebbe dovuto
cercare di aiutare l’esaminatore, la macchina cercare di ingannarlo. La macchina
avrebbe vinto se fosse riuscita a convincere l’esaminatore di essere una
persona, unicamente rispondendo per iscritto alle sue domande. All'epoca una
condizione del genere sembrava davvero molto difficile da realizzare, ma oggi,
settant’anni di evoluzione tecnologica dopo, sembra un traguardo alla portata di
software come ChatGPT. Al tempo stesso il web è pieno di fallimenti al test da
parte di ChatGPT: vuoi per “allucinazioni” (risposte completamente fuori tema),
vuoi per errori grossolani (anche in operazioni banali); in ogni caso tali da
rivelare la vera natura della macchina, ancora ben lontana dall’essere
intelligente. Macchine senzienti e altre credenze tecno-magiche Se invece
prendiamo per buona la definizione di “intelligenza” data da Turing, sorvolando
sulla riduzione dell’intelligenza alla capacità di operare in maniera
soddisfacente con i simboli dell’alfabeto senza investigare sulla capacità della
macchina di “comprendere il senso” di tali simboli, otteniamo la ferma
convinzione dell'esistenza -qui e ora- di macchine senzienti. È in questo
contesto che si colloca la lettera: un contesto in cui è normale parlare, con
assoluta convinzione, dell’ipotesi di fondere l’uomo con le macchine per
conseguire la vita eterna (transumanesimo) o del rischio di una “apocalisse
delle macchine” in cui queste, come in “Matrix” o “Terminator”, sarebbero pronte
a mettere fine alla nostra esistenza sul Pianeta, dopo averci superato
nell’evoluzione (singolarismo). La guerra per l’IA Com’è possibile, dunque, che
da un consesso così smaccatamente tecno-entusiasta venga un monito a riflettere
e procedere con calma, democratizzando la tecnologia? Per comprenderlo bisogna
mettere insieme diversi pezzi di un puzzle complesso. Anzitutto Elon Musk aveva
tentato, nel 2018, di scalare OpenAI e prenderne il controllo, senza successo.
In quel momento è nata la collaborazione che ha portato l’azienda di Sam Altman
nell’orbita di Microsoft. Infatti, Bill Gates si è sentito in dovere di
intervenire prontamente in un campo che non dovrebbe più interessarlo, per
rispondere che “una moratoria non cambierebbe la sostanza del problema”. Questo
fa pensare che le vere motivazioni abbiano a che fare con uno “scontro al
vertice” tra colossi come Microsoft, l’emergente impero di Musk, Meta (che ha da
poco lanciato la sua versione “open source” di GPT, chiamata LLaMA ) e Google
con il suo Bard. In tale ottica una “moratoria” avrebbe chiaramente l’effetto di
dare un po’ di fiato a chi, come Musk, sta rincorrendo, e ridurre il vantaggio
che OpenAI ha conquistato grazie ai pesanti investimenti di Microsoft. E qui da
noi? Per una volta l’Italia è in prima fila. Il 30 marzo il Garante per la
protezione dei dati personali, organo collegiale usualmente rappresentato
pubblicamente dall’avvocato Guido Scorza, ha notificato a OpenAI la violazione
di diversi principi del Regolamento generale per la protezione dei dati (Reg.
679/2016, acronimo “Gdpr”). I punti più delicati sollevati dal Garante sono
quelli relativi al fatto che, dall’informativa scritta da OpenAI, non risultava
abbastanza chiaro il fatto che le conversazioni intrattenute con il bot
sarebbero state utilizzate per alimentare l’IA, la mancanza di efficaci metodi
per limitare l’accesso ai minori di 13 anni e, infine, la cosa più grave: il
fatto che ChatGPT restituisca dati personali uniti a informazioni false, per
esempio nella costruzione di biografie personali. Questo è un punto chiave per
OpenAI, giacché correggere questo tipo di errori è costoso, in quanto necessita
intelligenza umana, come mostrato nella primissima fase della creazione di
ChatGPT-3, quando un piccolo esercito di operatori del Kenya è stato assunto per
addestrare il modello grezzo. Sottopagato. Il richiamo dava tempo all’azienda 20
giorni (prolungabili) per rispondere e mettersi in regola. OpenAI ha invece
optato per la linea di scontro frontale: chiudere l’accesso al suo sito in
Italia e diffondere la vulgata secondo la quale il “Garante, nemico
dell’innovazione, ha chiuso OpenAI in Italia”. Falso, visto che la versione
precedente è ancora integrata in Bing, a dimostrazione che non è in atto alcuna
caccia alle streghe, semmai il primo serio tentativo di fare un passo concreto
verso l’apertura di un indispensabile e urgente dibattito su questi temi. Entro
fine 2023 è attesa la promulgazione della direttiva europea sull’IA che, pur se
“annacquata” rispetto al testo originale, potrebbe risultare una risorsa utile
per chi spinge verso una tecnologia più partecipata. La direttiva prevede
infatti che nelle cause per danni generate da questa nuova tecnologia, l’onere
della prova sia in carico all’azienda che fornisce il servizio e non al
danneggiato. Dunque, nessun pericolo? Se l’allarme lanciato dalla Silicon Valley
è come minimo prematuro (se mai avremo una Intelligenza artificiale generalista
- Agi è molto difficile che sia nel prossimo secolo), questo non significa che
l’IA sia sicura. Negli ultimi tre anni in molti hanno descritto i notevoli
problemi che l’IA, e le tecnologie in generale, possono causare ai diritti
umani, alla società e al mondo del lavoro. Penso ad accademici come Dan
McQuillan, Kate Crawford e Teresa Numerico, ad hacker come Carlo B. Milani e ad
attivisti digitali come Max Schrems, “responsabile” delle due sentenze europee
che portano il suo nome e che stanno mettendo i bastoni tra le ruote
all’applicazione dell’IA nella scuola, con progetti finanziati da Google e Meta
e, purtroppo, anche dai fondi del Piano nazionale di ripresa e resilienza
(Pnrr). Tali fondi, infatti, rischiano di andare a consolidare la presenza di
piattaforme come Google Workspace for Education, che sta raccogliendo
-nell’inconsapevolezza generale- i dati necessari a costruire la prossima IA
educativa, che dovrebbe sostituire i docenti nei piani di Google e Meta. Per
scongiurare questo scenario si sono mobilitate sia Assoli (l’Associazione per il
software libero), che ha scritto al governo per ottenere che le scuole si dotino
di piattaforme libere, sia il sindacato della scuola Cub Sur che ha lanciato una
campagna segnalando, oltre alle note problematiche di privacy e trasparenza,
anche la violazione dello Statuto dei lavoratori operata sistematicamente da
Google. L’IA di oggi è una tecnologia che lavora alacremente all’allargamento
della disparità sociale ed economica e al suo consolidamento in apparati rigidi,
regolati dalle macchine. Alcuni esempi: la tecnologia di riconoscimento facciale
utilizzata come arma contro i migranti, gli algoritmi di assegnazione delle
commesse che rendono la vita dei rider un’esperienza che ricorda lo schiavismo e
l’algoritmo delle graduatorie provinciali per le supplenze che da due anni priva
gli allievi più fragili, ossia persone con disabilità e Bes, delle loro figure
di riferimento, spedendo i professori precari in una girandola di cattedre che
non li vede mai ritornare nella stessa scuola, al contrario di quanto avveniva
con le nomine in presenza. Alla luce di questa realtà viene naturale pensare che
tutto questo gridare “al lupo, al lupo” nella direzione di un pericolo ipotetico
nel futuro, abbia come effetto collaterale di togliere attenzione ai danni reali
nel presente. Stefano Borroni Barale, classe 1972, è fisico teorico.
Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni
nella formazione sindacale internazionale e una (triste) parentesi nel privato,
oggi insegna informatica in un Iti del torinese. Sostenitore del software libero
da fine anni 90, è autore per Altreconomia del manuale di liberazione
informatica "Come passare al software libero e vivere felici" (edito nel 2003).
© riproduzione riservata
L'articolo Intelligenze pericolose domani? Disparità sociali ed economiche oggi
proviene da Altreconomia.