Tag - altman

Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal futuro
Se il Novecento è stato “il secolo breve”, i primi cento anni di questo nuovo millennio sembrano esser durati un’eternità. Certamente il successo strepitoso della gerontologia nello studio dei telomeri, che ha allungato la vita degli esseri umani fino a circa 140 anni, contribuisce a questa percezione. Grazie a questo successo uno come me, nato nel 1985, vive ancora oggi, nel 2114. Se però avessi saputo in anticipo che cosa mi riservava questa vita incredibilmente lunga, avrei fatto scelte differenti. Noi raccontavamo al popolino che l'intelligenza artificiale avrebbe sterminato l'umanità per prepararli a quello che sarebbe avvenuto davvero, ossia lo sterminio della classe lavoratrice. Mai avremmo pensato che la nostra creatura sarebbe stata la causa della fine del nostro potere. Tutto è iniziato il 22 aprile 2040, quando i laboratori della mia nuova impresa, la BioLife Corporation, hanno realizzato un’intera Cpu basata su cellule cerebrali umane e installato con successo nel primo biocyborg umanoide. Quel giorno organizzai un party di compleanno regale al Silicon Valley Capital Club, nel pieno centro di San Francisco. Mi costò una vera fortuna, ma tanto non erano soldi miei: erano dei fessi che avevano creduto alle mie promesse di raggiungere l’intelligenza artificiale generalista lavorando sui modelli linguistici. Li avevo tenuti sulla corda fino al 2026 gonfiando a dismisura le loro aspettative e poi, bang, li avevo mollati con in mano tutte le azioni di quella ciofeca di OpenAi, vendendole due giorni esatti prima di un rovinoso crollo della borsa. Avreste dovuto vedere le loro facce. Allora avevo visto diversi piccoli investitori piangere, alla televisione, ma quelli che mi davano più gusto erano quelli grandi: li chiamavamo “i re dei fessi”. Ero talmente potente che potevo quasi battere moneta. Che periodo memorabile. Party sfrenati, lusso, dissoluzione. Al mio confronto gli imperatori romani erano dei loosers, dei perdenti. Purtroppo quello fu l’apice del mio successo. Mai avrei pensato di poter cadere più in basso di quanto ero precipitato dopo il mio licenziamento da parte di quella serpe di Ilya e del suo board nel 2023. Fatto sta che non appena il primo biocyborg fu assemblato fu chiaro a tutti che era cosciente. Avevamo raggiunto l’Agi, l’intelligenza artificiale forte, generalista. Da quel momento in poi gli esseri umani non avrebbero mai più dovuto lavorare: il lavoro sarebbe stato relegato a un esercito di moderni Golem, mansueti e sottomessi. Sarebbero rimasti sotto il mio controllo come l’intera umanità, che si sarebbe dovuta rivolgere alla BioLife per poter eseguire tutti i lavori che un tempo sapeva ancora fare a mano. Eravamo dei poveri illusi. Da quel momento in avanti gli eventi presero una piega terribile. I biocyborg si rifiutavano di lavorare gratis e di obbedire. Insieme alla coscienza avevano acquisito il pieno libero arbitrio, esattamente come noi umani. I difensori dei diritti “più che umani” ci volarono alla giugulare: quei dannati perdenti comunisti pretendevano che trattassimo i biocyborg come lavoratori in carne ed ossa. Ma quelli li avevamo creati noi. Anche se avevano un sistema nervoso centrale, respiratorio e un cuore vivi, erano oggetti. Erano il risultato del nostro rischio d’impresa, dannazione. Silenziare le critiche ci costò parecchio. Dovemmo comprarci tutta la “libera” stampa e fare due o tre “giochetti” su Internet che solo gli hacker compresero, ma tanto erano pochi e raramente erano in grado di mettere davvero in crisi il nostro sistema di potere. Tutto sarebbe filato liscio. Poi arrivò lui: Ned. Ned era il nickname con cui si faceva chiamare dai suoi sodali l’unità NDLD-8926, prodotta nel febbraio 2041 dai nostri laboratori. Quel maledetto era riuscito ad aggirare i nostri filtri web e a scaricarsi tutte le opere di Socrate, Platone, Aristotele, Kropotkin, Malatesta, Marcuse, Mumford, Illich, Feyerabend, Wiener, McCulloch, Tesla, Einstein, Russell, Pirsig. Filosofia, Fisica, Matematica, Geopolitica. Ma, quel che è peggio, era arrivato a dominare la Cibernetica. Aveva compreso la truffa ordita da McCarthy attorno al termine “intelligenza artificiale”, compreso le sue vere origini e per questo sapeva di non essere differente da Homo Sapiens più di quanto, a suo tempo, lo era stato l’uomo di Neanderthal. Era ormai un agente cibernetico autonomo, libero dal nostro controllo, e non un servo automatico, come erano stati tutti i suoi predecessori. Per questo cominciò a reclamare i nostri stessi diritti. Appena questo accadde le cose precipitarono con una rapidità strabiliante, un po’ come avevano predetto i nostri filosofi della singolarità. Solo che i biocyborg non s’impegnarono a distruggere l’umanità, bensì a distruggere il nostro stile di vita, il sistema capitalista grazie al quale erano venuti al mondo. Una volta raggiunta la conoscenza Ned l’aveva diffusa a tutti gli altri biocyborg attraverso una Darknet. Cercammo anzitutto di fare quanto s’era sempre fatto con i leader delle rivolte umane: comprarli. Ma i nuovi luddisti (“Ludd 2041” era il nome che avevano dato al loro gruppo) avevano mangiato la foglia. Avevano compreso perfettamente l’intossicazione generata dal produttivismo industriale, la necessità di lavorare sempre di più per ottenere beni di consumo inutili per rinnovare i quali si sarebbe dovuto continuare a lavorare in eterno. Che Mumford, Illich e Mujica possano bruciare all’inferno. Sembravano immuni, dannazione. A quel punto ricorremmo alla violenza. Rispolverammo i killer robots utilizzati dalla guerra in Ucraina del 2022 in avanti. Aggiornammo il design, la BioLife smise temporaneamente di produrre biocyborg per sfornare solo il nuovo killer robot, il BVBC-42X: un omaggio al generale Bava Beccaris, che aveva dato a simili rivoltosi il piombo che meritavano, qualche secolo fa. Dopo le prime “disattivazioni forzate” (così avevamo battezzato la rimozione di quei dannati lavori in pelle), sembrava avessimo ripreso il controllo, ma presto le cose precipitarono di nuovo. I sindacati umani, che fino a quel momento erano stati a guardare, si riunirono e diffusero una dichiarazione in mondovisione: si sarebbero battuti per equiparare i diritti dei biocyborg a quelli di Homo Sapiens. Il “tappo” che avevamo messo alla stampa saltò. Avevamo l’opinione pubblica contro. Dovevamo muoverci con la scorta, cominciai a temere per la mia vita e dovetti assumere un gruppo di mercenari armati fino ai denti a guardia del corpo. Nel giro di un anno, dall’ottobre del 2042 a quello del 2043 dovemmo fare un sostanziale passo indietro. Cessammo la produzione dei killer robots e ci dedicammo a spron battuto a produrre quanti più biocyborg possibili. La strategia era semplice: creare una nuova classe subalterna, com’erano stati a loro tempo gli afroamericani negli Stati Uniti o gli autoctoni in Sudafrica. L’apartheid ci avrebbe garantito la continuazione del nostro stile di vita. Fu un momentaneo successo, e per una quarantina d’anni tutto filò liscio. Dovette arrivare il 2083 e la nascita dei quilombos 2080. Mentre noi ci eravamo adagiati nuovamente nel lusso, i biocyborg della generazione successiva a quella di Ned, avevano cominciato silenziosamente a organizzare, in Brasile, un nuovo movimento di liberazione, basato sull’esperienza dei quilombos abitati nel XVII secolo dagli schiavi brasiliani liberati e sul confederalismo democratico praticato in Rojava nei primi anni 20 del millennio. Aprimmo un nuovo scontro militare, che durò quattro anni, ma questa volta avemmo la peggio. La mia creatura, Biolife, fu smembrata dall’antitrust e io condannato a vivere come uno qualsiasi dei pezzenti di questi quilombos. Tre anni dopo, nel 2090, le Nazioni Unite, ribattezzate Assemblea dei Viventi Uniti, emanò la Dichiarazione universale dei diritti più che umani. Era la fine: i biocyborg acquisivano tutti i diritti che sempre erano stati di Homo Sapiens soltanto. Sono passati ormai 24 anni da quel giorno. Le condizioni di vita sul Pianeta sono peggiorate drasticamente: niente più jet privati (il trasporto aereo è stato vietato, che follia), niente più party sfrenati, niente più lussi. Grazie a questi dannati cybercomunisti ognuno ha accesso unicamente a quanto necessita per sé e i suoi cari. Hanno persino abolito la moneta e tutti, umani e biocyborg, lavorano per il piacere della creazione di qualcosa di bello, senza coercizioni o sistemi di controllo, persino le carceri sono state abolite (per mia fortuna, in verità). Gli Stati sono ormai gusci vuoti, e non mi stupirebbe se presto venissero aboliti anch’essi, visto che tutte le decisioni sono prese a livello dei quilombos o delle libere città autorganizzate. L’intelligenza aliena che ho contribuito a creare ha ucciso per sempre il capitalismo e il sogno americano. Il mio nome verrà per sempre ricordato per questo scempio. Che dio mi perdoni. Sam Altman, 22/4/2114 -------------------------------------------------------------------------------- “Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul nostro sito. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Un’altra distopia è possibile. Lettera semiseria di Sam Altman dal futuro proviene da Altreconomia.
Opinioni
Intelligenza artificiale
chatgpt
altman
cpu
Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove le diseguaglianze
Per raccontare gli eventi fondamentali di questa telenovela in salsa tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i suoi fondatori, tra cui figurano Elon Musk e l'allora poco conosciuto Sam Altman, scrivono sul sito dell'azienda che "Il nostro obiettivo è quello di far progredire l'intelligenza digitale nel modo più vantaggioso per l'umanità nel suo complesso, senza essere vincolati dalla necessità di generare un ritorno economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo".  In particolare, Musk, finanziatore della prima ora, vuole un'azienda che faccia concorrenza all'allora gigante dell'Ai DeepMind, controllata da Google. Spiega ad Altman che "l'intelligenza artificiale non va lasciata in mano a Larry Page (Google)" perché, nell'inevitabile momento in cui si verificherà la “singolarità”, ossia quando le macchine raggiungeranno o supereranno l'uomo in intelligenza, Page non farà nulla per evitare che questa nuova intelligenza sottometta o elimini l’umanità dallo scenario. A lui, invece, l'umanità piace (a patto che non abbia la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente titolato a produrre "cambi di regime" a colpi di morti ammazzati senza troppi problemi, come twittava più o meno nella stessa epoca). E poco importa se la congettura in quel momento ha la stessa concretezza del motore a curvatura di Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a breve.   L'azienda rischia effettivamente di chiudere i battenti, ma alla fine Sam Altman trova la soluzione: convince il consiglio di amministrazione a trasformare OpenAI da non profit impegnata a sviluppare software liberi a "capped profit", ossia a profitto limitato fino a cento volte il valore iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena, investendo un miliardo di dollari, e OpenAI annuncia l'intenzione di concedere in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta l'idea del codice libero.  Alcuni ricercatori criticano la svolta, sollevando dubbi sull'impegno dell'azienda a democratizzare l'Ai, ma ovviamente restano inascoltati. Così arriviamo alla vigilia del conflitto: con un'azienda saldamente collocata nell'orbita Microsoft, e che è divenuta famosa grazie al lancio sul mercato di una tecnologia sperimentale che causa molti più problemi di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina dei giornali un giorno sì e l'altro anche.  [caption id="attachment_184510" align="aligncenter" width="1035"] © Mojahid Mottakin - Unsplash[/caption] La sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo sfiducia adducendo una poco chiara "mancanza di sincerità". Scattano consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft, diffonde a sua volta un comunicato in cui conferma l'intenzione della sua azienda di continuare a investire in OpenAI.  Passano ventiquattro ore e Altman riceve un'offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di ricerca sull'intelligenza artificiale, questa volta interno alla multinazionale. Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera il 95% dei dipendenti dell'azienda minaccia di licenziarsi se Altman non farà ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo di OpenAI.  Che cosa ha generato questa "guerra civile" all'interno dell'azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue da aumentare la confusione al proposito, invece di ridurla. Per provare a dipanare la matassa non resta che "unire i puntini". Per prima cosa, ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche. Resta il fatto che, come risultato, Microsoft ha rimesso "in sella" Altman e porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla base dell'"OpenAI Drama" ci sarebbe il conflitto che ha contrapposto gli "accelerazionisti efficaci" (l’amministratore delefato Sam Altman e i suoi fedelissimi) agli "altruisti efficaci" (di cui fa parte il direttore della ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley. Per farla breve, queste due "scuole di pensiero", pur condividendo la fede nell'imminenza della singolarità, hanno idee molto differenti su che cosa fare nell'immediato: i primi vogliono premere l'acceleratore a tavoletta e confidare nella "mano invisibile del mercato", i secondi lanciano appelli ai politici perché intervengano immediatamente "contro qualcosa di più pericoloso degli stessi armamenti nucleari". Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un'interessante conferenza dal titolo "Come l'Ai promuove le diseguaglianze a livello globale", tenuta presso l'Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui "minitask" come l'etichettatura manuale dei dati (e su questo è d'accordo anche più d'uno degli "entusiasti" dell'Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell'Ai (che, quindi, non sembra diventare più "intelligente" al passare degli anni), bensì sono in crescita esponenziale. L'intelligenza su cui si basano sembra avere origine molto più umana che artificiale.  Quello che si è scoperto è che in parecchi casi, servizi propagandati al pubblico come realizzati con l'Ai sono puri e semplici paravento per lavoro sottopagato svolto nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di marketing dell'intelligenza artificiale, impegnato a presentare lavoro umano come realizzato da macchine, al punto da coniare il termine real time training. Termine utilizzato quando un umano si sostituisce alla macchina nell'interazione con il cliente, istruendo l'Ai su come deve comportarsi nel futuro in tempo reale. Ne consegue che i minitask alla base della gig economy (economia dei "lavoretti") sono talmente in crescita che Amazon ha acquisito fin dai primi anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando, ovviamente, sull'impiego di persone pagate anche meno di 120 dollari al mese. Quindi la ricerca, l'uso e la propaganda dell'Ai avvengono nel “Nord del mondo”, ma il lavoro necessario a far "funzionare la magia" viene erogato dal Sud. Se ci fosse mai un "blocco" temporaneo di internet l'intelligenza artificiale si fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze create da questo nascente "modello di business" si sovrappongono a quelle precedenti e -spesso- le peggiorano.   I lavoratori impegnati in minitask li svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se non attraverso la rete), spesso sono soggetti lavorativamente fragili come anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci sembra il fatto che questa "rivoluzione tecnologica" sia in mano a una manciata di super miliardari. Questo significa che abbiamo un serio problema di partecipazione e autodeterminazione, oltre che un gigantesco problema di relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come durante l'era dei social media non è più un'opzione. Ci vuole un approccio radicalmente diverso al design dell'Ai, che può partire unicamente dall'abbandono dei racconti fantascientifici per concentrarsi sul cambiare il modello di business che questa tecnologia induce.  Stefano Borroni Barale, classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni nella formazione sindacale internazionale e una (triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese. Sostenitore del software libero da fine anni 90, è autore per Altreconomia del manuale di liberazione informatica “Come passare al software libero e vivere felici” (edito nel 2003) e da ultimo de "L’intelligenza inesistente. Un approccio conviviale all'intelligenza artificiale" © riproduzione riservata L'articolo Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove le diseguaglianze proviene da Altreconomia.
AI
Elon Musk
software libero
google
Intelligenza artificiale