Per raccontare gli eventi fondamentali di questa telenovela in salsa
tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco
della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un
simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti
per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli
vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e
proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i
suoi fondatori, tra cui figurano Elon Musk e l'allora poco conosciuto Sam
Altman, scrivono sul sito dell'azienda che "Il nostro obiettivo è quello di far
progredire l'intelligenza digitale nel modo più vantaggioso per l'umanità nel
suo complesso, senza essere vincolati dalla necessità di generare un ritorno
economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo
concentrarci meglio su un impatto umano positivo". In particolare, Musk,
finanziatore della prima ora, vuole un'azienda che faccia concorrenza all'allora
gigante dell'Ai DeepMind, controllata da Google. Spiega ad Altman che
"l'intelligenza artificiale non va lasciata in mano a Larry Page (Google)"
perché, nell'inevitabile momento in cui si verificherà la “singolarità”, ossia
quando le macchine raggiungeranno o supereranno l'uomo in intelligenza, Page non
farà nulla per evitare che questa nuova intelligenza sottometta o elimini
l’umanità dallo scenario. A lui, invece, l'umanità piace (a patto che non abbia
la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente
titolato a produrre "cambi di regime" a colpi di morti ammazzati senza troppi
problemi, come twittava più o meno nella stessa epoca). E poco importa se la
congettura in quel momento ha la stessa concretezza del motore a curvatura di
Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a
breve. L'azienda rischia effettivamente di chiudere i battenti, ma alla fine
Sam Altman trova la soluzione: convince il consiglio di amministrazione a
trasformare OpenAI da non profit impegnata a sviluppare software liberi a
"capped profit", ossia a profitto limitato fino a cento volte il valore
iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di
rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena,
investendo un miliardo di dollari, e OpenAI annuncia l'intenzione di concedere
in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta
l'idea del codice libero. Alcuni ricercatori criticano la svolta, sollevando
dubbi sull'impegno dell'azienda a democratizzare l'Ai, ma ovviamente restano
inascoltati. Così arriviamo alla vigilia del conflitto: con un'azienda
saldamente collocata nell'orbita Microsoft, e che è divenuta famosa grazie al
lancio sul mercato di una tecnologia sperimentale che causa molti più problemi
di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina
dei giornali un giorno sì e l'altro anche. [caption id="attachment_184510"
align="aligncenter" width="1035"] © Mojahid Mottakin - Unsplash[/caption] La
sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo
Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di
lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo
sfiducia adducendo una poco chiara "mancanza di sincerità". Scattano
consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della
mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft,
diffonde a sua volta un comunicato in cui conferma l'intenzione della sua
azienda di continuare a investire in OpenAI. Passano ventiquattro ore e Altman
riceve un'offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di
ricerca sull'intelligenza artificiale, questa volta interno alla multinazionale.
Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori
delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera
il 95% dei dipendenti dell'azienda minaccia di licenziarsi se Altman non farà
ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo
di OpenAI. Che cosa ha generato questa "guerra civile" all'interno
dell'azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue
da aumentare la confusione al proposito, invece di ridurla. Per provare a
dipanare la matassa non resta che "unire i puntini". Per prima cosa,
ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche.
Resta il fatto che, come risultato, Microsoft ha rimesso "in sella" Altman e
porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla
base dell'"OpenAI Drama" ci sarebbe il conflitto che ha contrapposto gli
"accelerazionisti efficaci" (l’amministratore delefato Sam Altman e i suoi
fedelissimi) agli "altruisti efficaci" (di cui fa parte il direttore della
ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi
preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley.
Per farla breve, queste due "scuole di pensiero", pur condividendo la fede
nell'imminenza della singolarità, hanno idee molto differenti su che cosa fare
nell'immediato: i primi vogliono premere l'acceleratore a tavoletta e confidare
nella "mano invisibile del mercato", i secondi lanciano appelli ai politici
perché intervengano immediatamente "contro qualcosa di più pericoloso degli
stessi armamenti nucleari". Negli stessi giorni in cui i giornali erano intasati
da questa telenovela, mi sono ritrovato a seguire online un'interessante
conferenza dal titolo "Come l'Ai promuove le diseguaglianze a livello globale",
tenuta presso l'Università di Groninga in Olanda. Dopo due anni di studi sul
campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori.
La tecnologia che chiamiamo Ai si basa sui "minitask" come l'etichettatura
manuale dei dati (e su questo è d'accordo anche più d'uno degli "entusiasti"
dell'Ai, solo che lo considerano un problema da risolvere attraverso le prossime
generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto
sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere
delle capacità dell'Ai (che, quindi, non sembra diventare più "intelligente" al
passare degli anni), bensì sono in crescita esponenziale. L'intelligenza su cui
si basano sembra avere origine molto più umana che artificiale. Quello che si è
scoperto è che in parecchi casi, servizi propagandati al pubblico come
realizzati con l'Ai sono puri e semplici paravento per lavoro sottopagato svolto
nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui
funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di
marketing dell'intelligenza artificiale, impegnato a presentare lavoro umano
come realizzato da macchine, al punto da coniare il termine real time training.
Termine utilizzato quando un umano si sostituisce alla macchina nell'interazione
con il cliente, istruendo l'Ai su come deve comportarsi nel futuro in tempo
reale. Ne consegue che i minitask alla base della gig economy (economia dei
"lavoretti") sono talmente in crescita che Amazon ha acquisito fin dai primi
anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il
compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando,
ovviamente, sull'impiego di persone pagate anche meno di 120 dollari al mese.
Quindi la ricerca, l'uso e la propaganda dell'Ai avvengono nel “Nord del mondo”,
ma il lavoro necessario a far "funzionare la magia" viene erogato dal Sud. Se ci
fosse mai un "blocco" temporaneo di internet l'intelligenza artificiale si
fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze
create da questo nascente "modello di business" si sovrappongono a quelle
precedenti e -spesso- le peggiorano. I lavoratori impegnati in minitask li
svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se
non attraverso la rete), spesso sono soggetti lavorativamente fragili come
anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci
sembra il fatto che questa "rivoluzione tecnologica" sia in mano a una manciata
di super miliardari. Questo significa che abbiamo un serio problema di
partecipazione e autodeterminazione, oltre che un gigantesco problema di
relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come
durante l'era dei social media non è più un'opzione. Ci vuole un approccio
radicalmente diverso al design dell'Ai, che può partire unicamente
dall'abbandono dei racconti fantascientifici per concentrarsi sul cambiare il
modello di business che questa tecnologia induce. Stefano Borroni Barale,
classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid
(per Infn To), dopo otto anni nella formazione sindacale internazionale e una
(triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese.
Sostenitore del software libero da fine anni 90, è autore per Altreconomia del
manuale di liberazione informatica “Come passare al software libero e vivere
felici” (edito nel 2003) e da ultimo de "L’intelligenza inesistente. Un
approccio conviviale all'intelligenza artificiale" © riproduzione riservata
L'articolo Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove
le diseguaglianze proviene da Altreconomia.
Tag - Approfondimento
La definizione moderna di Intelligenza artificiale (IA) si basa su idee vecchie
di settant’anni. Infatti, quando Elon Musk e compagni parlano di IA, si
riferiscono a delle tecnologie in grado di superare il famoso test di Turing,
altrimenti noto come “gioco dell'imitazione”. Alan Turing, in un fondamentale
articolo del 1950, propone un esperimento mentale: chiudere in due diverse
stanze un uomo e la sua “macchina di Turing”, permettendo a un esaminatore di
interrogarle solo dall'esterno attraverso una tastiera; l'uomo avrebbe dovuto
cercare di aiutare l’esaminatore, la macchina cercare di ingannarlo. La macchina
avrebbe vinto se fosse riuscita a convincere l’esaminatore di essere una
persona, unicamente rispondendo per iscritto alle sue domande. All'epoca una
condizione del genere sembrava davvero molto difficile da realizzare, ma oggi,
settant’anni di evoluzione tecnologica dopo, sembra un traguardo alla portata di
software come ChatGPT. Al tempo stesso il web è pieno di fallimenti al test da
parte di ChatGPT: vuoi per “allucinazioni” (risposte completamente fuori tema),
vuoi per errori grossolani (anche in operazioni banali); in ogni caso tali da
rivelare la vera natura della macchina, ancora ben lontana dall’essere
intelligente. Macchine senzienti e altre credenze tecno-magiche Se invece
prendiamo per buona la definizione di “intelligenza” data da Turing, sorvolando
sulla riduzione dell’intelligenza alla capacità di operare in maniera
soddisfacente con i simboli dell’alfabeto senza investigare sulla capacità della
macchina di “comprendere il senso” di tali simboli, otteniamo la ferma
convinzione dell'esistenza -qui e ora- di macchine senzienti. È in questo
contesto che si colloca la lettera: un contesto in cui è normale parlare, con
assoluta convinzione, dell’ipotesi di fondere l’uomo con le macchine per
conseguire la vita eterna (transumanesimo) o del rischio di una “apocalisse
delle macchine” in cui queste, come in “Matrix” o “Terminator”, sarebbero pronte
a mettere fine alla nostra esistenza sul Pianeta, dopo averci superato
nell’evoluzione (singolarismo). La guerra per l’IA Com’è possibile, dunque, che
da un consesso così smaccatamente tecno-entusiasta venga un monito a riflettere
e procedere con calma, democratizzando la tecnologia? Per comprenderlo bisogna
mettere insieme diversi pezzi di un puzzle complesso. Anzitutto Elon Musk aveva
tentato, nel 2018, di scalare OpenAI e prenderne il controllo, senza successo.
In quel momento è nata la collaborazione che ha portato l’azienda di Sam Altman
nell’orbita di Microsoft. Infatti, Bill Gates si è sentito in dovere di
intervenire prontamente in un campo che non dovrebbe più interessarlo, per
rispondere che “una moratoria non cambierebbe la sostanza del problema”. Questo
fa pensare che le vere motivazioni abbiano a che fare con uno “scontro al
vertice” tra colossi come Microsoft, l’emergente impero di Musk, Meta (che ha da
poco lanciato la sua versione “open source” di GPT, chiamata LLaMA ) e Google
con il suo Bard. In tale ottica una “moratoria” avrebbe chiaramente l’effetto di
dare un po’ di fiato a chi, come Musk, sta rincorrendo, e ridurre il vantaggio
che OpenAI ha conquistato grazie ai pesanti investimenti di Microsoft. E qui da
noi? Per una volta l’Italia è in prima fila. Il 30 marzo il Garante per la
protezione dei dati personali, organo collegiale usualmente rappresentato
pubblicamente dall’avvocato Guido Scorza, ha notificato a OpenAI la violazione
di diversi principi del Regolamento generale per la protezione dei dati (Reg.
679/2016, acronimo “Gdpr”). I punti più delicati sollevati dal Garante sono
quelli relativi al fatto che, dall’informativa scritta da OpenAI, non risultava
abbastanza chiaro il fatto che le conversazioni intrattenute con il bot
sarebbero state utilizzate per alimentare l’IA, la mancanza di efficaci metodi
per limitare l’accesso ai minori di 13 anni e, infine, la cosa più grave: il
fatto che ChatGPT restituisca dati personali uniti a informazioni false, per
esempio nella costruzione di biografie personali. Questo è un punto chiave per
OpenAI, giacché correggere questo tipo di errori è costoso, in quanto necessita
intelligenza umana, come mostrato nella primissima fase della creazione di
ChatGPT-3, quando un piccolo esercito di operatori del Kenya è stato assunto per
addestrare il modello grezzo. Sottopagato. Il richiamo dava tempo all’azienda 20
giorni (prolungabili) per rispondere e mettersi in regola. OpenAI ha invece
optato per la linea di scontro frontale: chiudere l’accesso al suo sito in
Italia e diffondere la vulgata secondo la quale il “Garante, nemico
dell’innovazione, ha chiuso OpenAI in Italia”. Falso, visto che la versione
precedente è ancora integrata in Bing, a dimostrazione che non è in atto alcuna
caccia alle streghe, semmai il primo serio tentativo di fare un passo concreto
verso l’apertura di un indispensabile e urgente dibattito su questi temi. Entro
fine 2023 è attesa la promulgazione della direttiva europea sull’IA che, pur se
“annacquata” rispetto al testo originale, potrebbe risultare una risorsa utile
per chi spinge verso una tecnologia più partecipata. La direttiva prevede
infatti che nelle cause per danni generate da questa nuova tecnologia, l’onere
della prova sia in carico all’azienda che fornisce il servizio e non al
danneggiato. Dunque, nessun pericolo? Se l’allarme lanciato dalla Silicon Valley
è come minimo prematuro (se mai avremo una Intelligenza artificiale generalista
- Agi è molto difficile che sia nel prossimo secolo), questo non significa che
l’IA sia sicura. Negli ultimi tre anni in molti hanno descritto i notevoli
problemi che l’IA, e le tecnologie in generale, possono causare ai diritti
umani, alla società e al mondo del lavoro. Penso ad accademici come Dan
McQuillan, Kate Crawford e Teresa Numerico, ad hacker come Carlo B. Milani e ad
attivisti digitali come Max Schrems, “responsabile” delle due sentenze europee
che portano il suo nome e che stanno mettendo i bastoni tra le ruote
all’applicazione dell’IA nella scuola, con progetti finanziati da Google e Meta
e, purtroppo, anche dai fondi del Piano nazionale di ripresa e resilienza
(Pnrr). Tali fondi, infatti, rischiano di andare a consolidare la presenza di
piattaforme come Google Workspace for Education, che sta raccogliendo
-nell’inconsapevolezza generale- i dati necessari a costruire la prossima IA
educativa, che dovrebbe sostituire i docenti nei piani di Google e Meta. Per
scongiurare questo scenario si sono mobilitate sia Assoli (l’Associazione per il
software libero), che ha scritto al governo per ottenere che le scuole si dotino
di piattaforme libere, sia il sindacato della scuola Cub Sur che ha lanciato una
campagna segnalando, oltre alle note problematiche di privacy e trasparenza,
anche la violazione dello Statuto dei lavoratori operata sistematicamente da
Google. L’IA di oggi è una tecnologia che lavora alacremente all’allargamento
della disparità sociale ed economica e al suo consolidamento in apparati rigidi,
regolati dalle macchine. Alcuni esempi: la tecnologia di riconoscimento facciale
utilizzata come arma contro i migranti, gli algoritmi di assegnazione delle
commesse che rendono la vita dei rider un’esperienza che ricorda lo schiavismo e
l’algoritmo delle graduatorie provinciali per le supplenze che da due anni priva
gli allievi più fragili, ossia persone con disabilità e Bes, delle loro figure
di riferimento, spedendo i professori precari in una girandola di cattedre che
non li vede mai ritornare nella stessa scuola, al contrario di quanto avveniva
con le nomine in presenza. Alla luce di questa realtà viene naturale pensare che
tutto questo gridare “al lupo, al lupo” nella direzione di un pericolo ipotetico
nel futuro, abbia come effetto collaterale di togliere attenzione ai danni reali
nel presente. Stefano Borroni Barale, classe 1972, è fisico teorico.
Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni
nella formazione sindacale internazionale e una (triste) parentesi nel privato,
oggi insegna informatica in un Iti del torinese. Sostenitore del software libero
da fine anni 90, è autore per Altreconomia del manuale di liberazione
informatica "Come passare al software libero e vivere felici" (edito nel 2003).
© riproduzione riservata
L'articolo Intelligenze pericolose domani? Disparità sociali ed economiche oggi
proviene da Altreconomia.