“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che
scacciate i tiranni e li buttiate giù dal loro trono; basta che non li
sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto
il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576.
Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di
base della scuola, è segretario del circolo di uno dei tanti partiti della
diaspora della sinistra, è femminista, appassionato praticante dell’inclusione
dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in
cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a
cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni
tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi,
giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua
non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai
nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la
nostra società, soprattutto a quelle della democrazia, che osserva preoccupato.
Nonostante tutto questo, una delle mani che sta girando la chiave della nascente
tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per
comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù
cibernetica volontaria” non è questione di stupidità o malafede, semmai di
essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella
seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver
dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web
la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel
cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di
movimento”, che replicavano via Internet dinamiche molto simili a quelle delle
radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla
generazione precedente quella di Giorgio che l’autogestione dei media da parte
del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma.
Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è
tornato a essere coltivato nei confronti del web. Gli entusiasti di quella
stagione, però, hanno commesso un errore più grave del confondere il web con
Internet: hanno confuso l’avvento di una tecnologia compatibile con la
redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo
dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione,
tanto meno l’organizzazione economica capitalista, che inizialmente esce
addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei
trent’anni successivi, le burocrazie statali e private hanno lavorato in
sinergia alla riconfigurazione della rete, per renderla uno strumento di
sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di
ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros,
ha finalmente intravisto le condizioni per realizzare il suo sogno distopico:
abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di
agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva
che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald
Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates
(Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon
Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple
all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia
all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel
pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in
Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle
aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era
stato nei primi anni duemila), che non cercando di prendere tutto il potere in
un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un
“sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto
dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una
volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili”
dei cittadini americani da parte del (Department of government efficiency,
Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli
analisti informatici come un vero e proprio attacco hacker portato al cuore del
sistema burocratico del governo statunitense. Un colpo di Stato senza
spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e
imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a
enormi quantità di dati captati, non sempre con il consenso degli interessati.
Una volta che le informazioni che ci riguardano divengono dati registrati
digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un
comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o
meno degli scenari peggiori è questione politica. Infatti l’unica resistenza
che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le
leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la
società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e
lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia
raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile
con la sopravvivenza di un sistema democratico. È in questo senso che le mani
che girano la chiave nella toppa della tirannia automatizzata sono quelle di
Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che
abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è
continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da
esperti, informatici o tecnici”, anche dopo che questo è stato usato
ripetutamente contro di noi, in maniera così plateale. Se non si comprende
questo, ogni sforzo verso una società migliore rischia di essere spazzato via
dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di
controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia
i dati con sistemi di riconoscimento biometrici, per braccarli con una
precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie
possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori,
semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il
"caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di
giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno
leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una
struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che
ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci
permette ancora di vivere l’avvento di personaggi come Trump e Musk con un
barlume di speranza in più, rispetto ai cittadini americani. È molto probabile
che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il
caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se
provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse
potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire
un approccio al digitale basato sull’autogestione e sulla convivialità, invece
che sul sogno di controllare (magari via norme) megastrutture impossibili da
controllare per design. Il futuro non è ancora scritto, a patto di cominciare
oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del
dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è
tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo
si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per
questo le tecnologie “del dominio”, quelle che ci propongono poche
multinazionali, sono quasi sempre costruite come scatole oscure impossibili da
aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui
la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per
controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale
per la partecipazione, la libertà, la democrazia. In altre parole: rompere le
scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica
teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto
EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca
dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per
lavorare nel programma di formazione sindacale Actrav del Centro internazionale
di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del
torinese e, come membro di Circe, conduce corsi di formazione sui temi della
Pedagogia hacker per varie organizzazioni, tra cui il ministero
dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore
per Altreconomia di “Come passare al software libero e vivere felici” (2003),
una delle prime guide italiane su Linux e altri programmi basati su software
libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza
artificiale” (2023). © riproduzione riservata
L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata?
proviene da Altreconomia.
Tag - musk
La definizione moderna di Intelligenza artificiale (IA) si basa su idee vecchie
di settant’anni. Infatti, quando Elon Musk e compagni parlano di IA, si
riferiscono a delle tecnologie in grado di superare il famoso test di Turing,
altrimenti noto come “gioco dell'imitazione”. Alan Turing, in un fondamentale
articolo del 1950, propone un esperimento mentale: chiudere in due diverse
stanze un uomo e la sua “macchina di Turing”, permettendo a un esaminatore di
interrogarle solo dall'esterno attraverso una tastiera; l'uomo avrebbe dovuto
cercare di aiutare l’esaminatore, la macchina cercare di ingannarlo. La macchina
avrebbe vinto se fosse riuscita a convincere l’esaminatore di essere una
persona, unicamente rispondendo per iscritto alle sue domande. All'epoca una
condizione del genere sembrava davvero molto difficile da realizzare, ma oggi,
settant’anni di evoluzione tecnologica dopo, sembra un traguardo alla portata di
software come ChatGPT. Al tempo stesso il web è pieno di fallimenti al test da
parte di ChatGPT: vuoi per “allucinazioni” (risposte completamente fuori tema),
vuoi per errori grossolani (anche in operazioni banali); in ogni caso tali da
rivelare la vera natura della macchina, ancora ben lontana dall’essere
intelligente. Macchine senzienti e altre credenze tecno-magiche Se invece
prendiamo per buona la definizione di “intelligenza” data da Turing, sorvolando
sulla riduzione dell’intelligenza alla capacità di operare in maniera
soddisfacente con i simboli dell’alfabeto senza investigare sulla capacità della
macchina di “comprendere il senso” di tali simboli, otteniamo la ferma
convinzione dell'esistenza -qui e ora- di macchine senzienti. È in questo
contesto che si colloca la lettera: un contesto in cui è normale parlare, con
assoluta convinzione, dell’ipotesi di fondere l’uomo con le macchine per
conseguire la vita eterna (transumanesimo) o del rischio di una “apocalisse
delle macchine” in cui queste, come in “Matrix” o “Terminator”, sarebbero pronte
a mettere fine alla nostra esistenza sul Pianeta, dopo averci superato
nell’evoluzione (singolarismo). La guerra per l’IA Com’è possibile, dunque, che
da un consesso così smaccatamente tecno-entusiasta venga un monito a riflettere
e procedere con calma, democratizzando la tecnologia? Per comprenderlo bisogna
mettere insieme diversi pezzi di un puzzle complesso. Anzitutto Elon Musk aveva
tentato, nel 2018, di scalare OpenAI e prenderne il controllo, senza successo.
In quel momento è nata la collaborazione che ha portato l’azienda di Sam Altman
nell’orbita di Microsoft. Infatti, Bill Gates si è sentito in dovere di
intervenire prontamente in un campo che non dovrebbe più interessarlo, per
rispondere che “una moratoria non cambierebbe la sostanza del problema”. Questo
fa pensare che le vere motivazioni abbiano a che fare con uno “scontro al
vertice” tra colossi come Microsoft, l’emergente impero di Musk, Meta (che ha da
poco lanciato la sua versione “open source” di GPT, chiamata LLaMA ) e Google
con il suo Bard. In tale ottica una “moratoria” avrebbe chiaramente l’effetto di
dare un po’ di fiato a chi, come Musk, sta rincorrendo, e ridurre il vantaggio
che OpenAI ha conquistato grazie ai pesanti investimenti di Microsoft. E qui da
noi? Per una volta l’Italia è in prima fila. Il 30 marzo il Garante per la
protezione dei dati personali, organo collegiale usualmente rappresentato
pubblicamente dall’avvocato Guido Scorza, ha notificato a OpenAI la violazione
di diversi principi del Regolamento generale per la protezione dei dati (Reg.
679/2016, acronimo “Gdpr”). I punti più delicati sollevati dal Garante sono
quelli relativi al fatto che, dall’informativa scritta da OpenAI, non risultava
abbastanza chiaro il fatto che le conversazioni intrattenute con il bot
sarebbero state utilizzate per alimentare l’IA, la mancanza di efficaci metodi
per limitare l’accesso ai minori di 13 anni e, infine, la cosa più grave: il
fatto che ChatGPT restituisca dati personali uniti a informazioni false, per
esempio nella costruzione di biografie personali. Questo è un punto chiave per
OpenAI, giacché correggere questo tipo di errori è costoso, in quanto necessita
intelligenza umana, come mostrato nella primissima fase della creazione di
ChatGPT-3, quando un piccolo esercito di operatori del Kenya è stato assunto per
addestrare il modello grezzo. Sottopagato. Il richiamo dava tempo all’azienda 20
giorni (prolungabili) per rispondere e mettersi in regola. OpenAI ha invece
optato per la linea di scontro frontale: chiudere l’accesso al suo sito in
Italia e diffondere la vulgata secondo la quale il “Garante, nemico
dell’innovazione, ha chiuso OpenAI in Italia”. Falso, visto che la versione
precedente è ancora integrata in Bing, a dimostrazione che non è in atto alcuna
caccia alle streghe, semmai il primo serio tentativo di fare un passo concreto
verso l’apertura di un indispensabile e urgente dibattito su questi temi. Entro
fine 2023 è attesa la promulgazione della direttiva europea sull’IA che, pur se
“annacquata” rispetto al testo originale, potrebbe risultare una risorsa utile
per chi spinge verso una tecnologia più partecipata. La direttiva prevede
infatti che nelle cause per danni generate da questa nuova tecnologia, l’onere
della prova sia in carico all’azienda che fornisce il servizio e non al
danneggiato. Dunque, nessun pericolo? Se l’allarme lanciato dalla Silicon Valley
è come minimo prematuro (se mai avremo una Intelligenza artificiale generalista
- Agi è molto difficile che sia nel prossimo secolo), questo non significa che
l’IA sia sicura. Negli ultimi tre anni in molti hanno descritto i notevoli
problemi che l’IA, e le tecnologie in generale, possono causare ai diritti
umani, alla società e al mondo del lavoro. Penso ad accademici come Dan
McQuillan, Kate Crawford e Teresa Numerico, ad hacker come Carlo B. Milani e ad
attivisti digitali come Max Schrems, “responsabile” delle due sentenze europee
che portano il suo nome e che stanno mettendo i bastoni tra le ruote
all’applicazione dell’IA nella scuola, con progetti finanziati da Google e Meta
e, purtroppo, anche dai fondi del Piano nazionale di ripresa e resilienza
(Pnrr). Tali fondi, infatti, rischiano di andare a consolidare la presenza di
piattaforme come Google Workspace for Education, che sta raccogliendo
-nell’inconsapevolezza generale- i dati necessari a costruire la prossima IA
educativa, che dovrebbe sostituire i docenti nei piani di Google e Meta. Per
scongiurare questo scenario si sono mobilitate sia Assoli (l’Associazione per il
software libero), che ha scritto al governo per ottenere che le scuole si dotino
di piattaforme libere, sia il sindacato della scuola Cub Sur che ha lanciato una
campagna segnalando, oltre alle note problematiche di privacy e trasparenza,
anche la violazione dello Statuto dei lavoratori operata sistematicamente da
Google. L’IA di oggi è una tecnologia che lavora alacremente all’allargamento
della disparità sociale ed economica e al suo consolidamento in apparati rigidi,
regolati dalle macchine. Alcuni esempi: la tecnologia di riconoscimento facciale
utilizzata come arma contro i migranti, gli algoritmi di assegnazione delle
commesse che rendono la vita dei rider un’esperienza che ricorda lo schiavismo e
l’algoritmo delle graduatorie provinciali per le supplenze che da due anni priva
gli allievi più fragili, ossia persone con disabilità e Bes, delle loro figure
di riferimento, spedendo i professori precari in una girandola di cattedre che
non li vede mai ritornare nella stessa scuola, al contrario di quanto avveniva
con le nomine in presenza. Alla luce di questa realtà viene naturale pensare che
tutto questo gridare “al lupo, al lupo” nella direzione di un pericolo ipotetico
nel futuro, abbia come effetto collaterale di togliere attenzione ai danni reali
nel presente. Stefano Borroni Barale, classe 1972, è fisico teorico.
Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni
nella formazione sindacale internazionale e una (triste) parentesi nel privato,
oggi insegna informatica in un Iti del torinese. Sostenitore del software libero
da fine anni 90, è autore per Altreconomia del manuale di liberazione
informatica "Come passare al software libero e vivere felici" (edito nel 2003).
© riproduzione riservata
L'articolo Intelligenze pericolose domani? Disparità sociali ed economiche oggi
proviene da Altreconomia.