Tag - google

ChatGPT-5 è qui. Ed è esattamente come ce lo aspettavamo
Dopo un anno di rinvii e anticipazioni a effetto, la nuova creatura di OpenAI è finalmente qui. Ed è un flop. La delusione dei fan della società di Altman è talmente grande che alcuni, dopo nemmeno 24 ore, hanno ottenuto il ripristino della versione precedente perché, secondo loro, “è meglio di quella nuova”. Nel tentativo di correre ai ripari, Sam Altman arriva a pronunciare la parola proibita: “bolla”. Che cosa ci aspetta? La rubrica di Stefano Borroni Barale L'articolo ChatGPT-5 è qui. Ed è esattamente come ce lo aspettavamo proviene da Altreconomia.
AI
Donald Trump
meta
Opinioni
google
Masters of Cyberwar. Dai sogni degli hippies all’incubo dei killer robots
“Venite signori della guerra / voi che costruite i cannoni / voi che costruite gli aereoplani di morte / voi che costruite le bombe / voi che vi nascondete dietro muri / voi che vi nascondete dietro scrivanie / voglio solo che sappiate / che posso vedere attraverso le vostre maschere”. Bob Dylan, "Masters Of War" da “The freewheelin’ Bob Dylan”, 1963 Qui in Italia non è così noto, ma la controcultura hippie degli anni Sessanta, di cui San Francisco era divenuta la capitale, è stata uno degli ingredienti che ha contribuito, nel decennio successivo, alla creazione di quei gruppi di appassionati di elettronica, come l’Homebrew computer club, in cui hanno mosso i primi passi personaggi come Steve Wozniack e Steve Jobs, i fondatori della Apple. Il sogno naïf di quella generazione era che i piccoli personal computer avrebbero distribuito il potere di calcolo, cambiando la società. Il poeta Richard Brautigan arrivò a cantare di questa utopia nel suo poema del 1967 "All watched over by machines of loving grace" che conobbe per questo una discreta fortuna.  Forse anche per questo motivo alcuni, tra cui Bill Gates, sono rimasti stupiti della recente sterzata all’estrema destra della totalità dei Gafam, ossia Google, Apple, Facebook (ora Meta), Amazon e Microsoft. La “svolta a destra”, però, non ha coinvolto solo la generazione degli ex-hippie. Sembra passato un millennio da quando due giovani universitari di belle speranze, Larry Page e Sergej Brin, fondavano una start-up per gestire il successo del loro algoritmo di ricerca, PageRank, che aveva dato i natali al più fortunato “motore” di ricerca su internet, Google. Allora, era il 1998, il motto scelto per la loro impresa era “Do no evil” ossia “Non fare del male”. Chissà che cosa penserebbero oggi quegli stessi giovanotti della decisione presa, a gennaio di quest’anno, dalle loro attuali versioni imbolsite e con le borse sotto gli occhi: far cadere la clausola che impegnava l’azienda a non utilizzare i propri studi sull’intelligenza artificiale per scopi militari, aprendo così la porta allo sviluppo di killer robots, in accordo con un piano di implementazione delle armi autonome pubblicato dalla Nato già nel 2023.  Purtroppo questa decisione non fa altro che suggellare un impegno sul campo dell’azienda che va ben oltre la ricerca e sviluppo di sistemi d’arma. L'American friends service commitee (Afsc) -storica organizzazione nonviolenta americana legata ai quaccheri- accusa da tempo Google di avere responsabilità dirette nei crimini di guerra compiuti da Israele in Palestina dopo gli attacchi di Hamas del 7 ottobre 2023. Secondo un’esplosiva inchiesta della rivista israeliana +972 uscita ad agosto del 2024, Google, insieme a Microsoft (Azure) e Amazon (Amazon web services - Aws, il fornitore che vanta i legami più solidi di tutti con governo e militari israeliani), avrebbe fornito servizi cloud classici al Project nimbus, il servizio di raccolta dati del governo, utilizzato successivamente dall’esercito per individuare i bersagli militari. Contemporaneamente, su un’altra commessa, Microsoft e Google fornivano la tecnologia di “intelligence artificiale” per il riconoscimento facciale, usata per scegliere automaticamente gli obiettivi degli attacchi che hanno causato decine di migliaia di morti civili. Diverse altre inchieste del Washington Post danno riscontro e solidità alle accuse dell'Afsc. Purtroppo Google non è l’unica impresa del gruppo Gafam a essere impegnata in prima linea nei peggiori conflitti in atto (anche se, per ora, è l’unica ad aver licenziato i suoi dipendenti che protestavano contro queste collaborazioni). La lista è talmente lunga da eccedere lo spazio di questa rubrica: ci dovremo limitare a una attenta selezione, partendo da Meta Platforms Inc. (conglomerato che controlla Facebook, Instagram, WhatsApp e l’ultimo nato Threads). In questo momento l’ufficio stampa di Meta è impegnato in un titanico sforzo per evitare che le persone leggano "Careless People", il libro-scandalo della sua ex-dipendente Sarah Wynn-Williams che ne rivela alcuni dei segreti più inconfessabili (legati alle sue responsabilità nel massacro della minoranza Rohingya in Myanmar soprattutto) e, al contempo, per silenziare lo scandalo della cessione illegale dei dati di migliaia di utenti palestinesi della controllata WhatsApp all’Idf (l’esercito israeliano), che li ha inseriti in Lavender, una delle Ai utilizzate per scegliere automaticamente chi uccidere. In questo caso non si è trattato di killer robots, bensì di Laws ossia Lethal authonomous weapons systems, sistemi per uccidere automatizzati: morte somministrata via algoritmo, a seguito dell’utilizzo di una chat. Sappiamo infatti che le reti neurali utilizzate da Lavender hanno margini di errore nella produzione del loro output (le cosiddette “allucinazioni”: ne abbiamo parlato qui) che non scendono mai sotto il 5% e che possono arrivare ad oltre il 20%. Tale margine di errore va poi moltiplicato, giacché le nuove regole d’ingaggio dell’Idf dopo il 7 ottobre prevedono come “accettabile” la morte di venti innocenti per ogni presunto miliziano di Hamas colpito. Ultimi nella nostra analisi, ma non certo per importanza strategica, vengono gli interessi militari di due imprese che, fino a poco tempo fa, avevano un profilo più “riservato” rispetto ai Gafam: Palantir di Peter Thiel e SpaceX di Elon Musk. La prima è oggetto di operazioni di disinvestimento pianificato per via del suo coinvolgimento nei crimini di guerra di Israele, ma è frutto di un progetto abominevole fin dal nome: Palantir, nel mondo creato da Tolkien, è il nome delle antiche pietre capaci di mostrare il futuro che portano il saggio Saruman a impazzire e unirsi all’oscuro sire, Sauron. Infatti, l’azienda nasce con l’idea di fornire sistemi di polizia predittiva, una pseudo-scienza il cui fondamento è “solido” quanto le infami teorie del nostro Cesare Lombroso, e i risultati tutt’altro che entusiasmanti (meno dell’1% di efficacia nel caso americano). Nonostante ciò, i suoi servizi sono stati utilizzati dal governo di Israele per incarcerare cittadini palestinesi per il solo fatto di rientrare in un “profilo del terrorista” sviluppato dalla ditta in questione. La seconda è passata alle cronache di guerra per via del servizio Starlink, una rete di satelliti di comunicazione a bassa quota, che si è rivelata strategicamente vitale in Ucraina. All’indomani dell’invasione russa, Elon Musk è stato acclamato eroe dagli ucraini perché ha fornito “gratuitamente” il servizio agli ucraini, salvo poi divenire -il 10 marzo di quest'anno- il peggiore dei loro nemici sostenendo che “senza Starlink sarebbero spacciati”. D’altronde Musk aveva già mostrato di essere un attore incontrollabile in almeno due occasioni: quando era passato all’incasso con il suo stesso governo (sostenendo di non poter continuare a finanziare l’Ucraina a tempo indeterminato), e quando aveva deciso di bloccare le comunicazioni per impedire un’escalation della guerra che considerava nefasta. L’orrore della morte via chat si sarebbe potuto evitare. Le avvisaglie di una forte collaborazione tra Meta e l’Idf, infatti, erano nell’aria sino dal 2021, quando Meta bloccò gli account di diversi giornalisti della Striscia di Gaza, per impedirgli di far fluire informazioni verso l’esterno. Purtroppo, la società civile ha introiettato profondamente l’idea che le tecnologie dell’informazione e comunicazione siano semplici merci, strumenti a nostra disposizione. Gli esempi che abbiamo toccato mostrano in maniera lampante il contrario. Eppure, le alternative esistono: il software libero costituisce un corpus di conoscenze collettive che possono essere utilizzate da qualsiasi gruppo per soddisfare i propri bisogni, dalla formazione (è il caso di alcune scuole del progetto Fuss, che si sono dotate di una infrastruttura per la formazione online), alla comunicazione (è il caso del sindacato Cub-Sur che si è dotato di un’intera piattaforma di comunicazione a distanza), rendendosi indipendenti delle imprese Gafam. Ma basta allargare lo sguardo per scoprire che, nei dintorni di Barcellona, esiste una “rete internet locale” con la bellezza di cinquemila punti d’accesso su diversi chilometri quadrati di territorio, che continuerebbe a funzionare anche se la connessione verso il mondo esterno fosse tranciata di netto, in maniera simile a progetti presenti anche in Italia. Insomma, non si tratta di “testimonianze” di singoli, magari un po’ “impallinati” e senza impatto sulla società, ma piuttosto di esempi di come problemi collettivi possano trovare soluzioni collettive. Il passo da fare, ora, è riconoscere che la dipendenza da queste imprese, mentre queste “riconvertono” il loro business alla guerra, è un serio problema collettivo, che ci riguarda tutte e tutti.  Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Masters of Cyberwar. Dai sogni degli hippies all’incubo dei killer robots proviene da Altreconomia.
Elon Musk
gaza
meta
Opinioni
google
Chi sta girando la chiave della contemporanea tirannia automatizzata?
“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che scacciate i tiranni e li buttiate giù dal loro trono; basta che non li sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576. Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di base della scuola, è segretario del circolo di uno dei tanti partiti della diaspora della sinistra, è femminista, appassionato praticante dell’inclusione dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi, giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la nostra società, soprattutto a quelle della democrazia, che osserva preoccupato. Nonostante tutto questo, una delle mani che sta girando la chiave della nascente tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù cibernetica volontaria” non è questione di stupidità o malafede, semmai di essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di movimento”, che replicavano via Internet dinamiche molto simili a quelle delle radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla generazione precedente quella di Giorgio che l’autogestione dei media da parte del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma. Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è tornato a essere coltivato nei confronti del web. Gli entusiasti di quella stagione, però, hanno commesso un errore più grave del confondere il web con Internet: hanno confuso l’avvento di una tecnologia compatibile con la redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione, tanto meno l’organizzazione economica capitalista, che inizialmente esce addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei trent’anni successivi, le burocrazie statali e private hanno lavorato in sinergia alla riconfigurazione della rete, per renderla uno strumento di sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros, ha finalmente intravisto le condizioni per realizzare il suo sogno distopico: abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates (Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era stato nei primi anni duemila), che non cercando di prendere tutto il potere in un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un “sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili” dei cittadini americani da parte del (Department of government efficiency, Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli analisti informatici come un vero e proprio attacco hacker portato al cuore del sistema burocratico del governo statunitense. Un colpo di Stato senza spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a enormi quantità di dati captati, non sempre con il consenso degli interessati. Una volta che le informazioni che ci riguardano divengono dati registrati digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o meno degli scenari peggiori è questione politica. Infatti l’unica resistenza che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile con la sopravvivenza di un sistema democratico. È in questo senso che le mani che girano la chiave nella toppa della tirannia automatizzata sono quelle di Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da esperti, informatici o tecnici”, anche dopo che questo è stato usato ripetutamente contro di noi, in maniera così plateale. Se non si comprende questo, ogni sforzo verso una società migliore rischia di essere spazzato via dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia i dati con sistemi di riconoscimento biometrici, per braccarli con una precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori, semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il "caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci permette ancora di vivere l’avvento di personaggi come Trump e Musk con un barlume di speranza in più, rispetto ai cittadini americani. È molto probabile che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire un approccio al digitale basato sull’autogestione e sulla convivialità, invece che sul sogno di controllare (magari via norme) megastrutture impossibili da controllare per design. Il futuro non è ancora scritto, a patto di cominciare oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata? proviene da Altreconomia.
dati
Trump
piattaforme
meta
Opinioni
Provaci ancora, Sam. Come Altman (e i suoi “techbros”) ci stanno portando verso il collasso
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai). https://www.youtube.com/watch?v=SKBG1sqdyIU&t=302s Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande contenute in tale test, che ricorda molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero invece una seria analisi: non esiste un consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l'etimologia: "inter" più "ligere", “leggere tra (le cose)”, leggere in profondità. Sam Altman (più in generale l’intero comparto dell'Ai) ci ha abituato a trucchi degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a supporto di affermazioni-bomba come quella appena citata (e immediatamente seguita da affermazioni ancora più esplosive sulla “Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello in questione sapeva riconoscere il gioco della morra cinese al primo colpo (zero-shot), mentre -guardando il video completo- si scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono molto importanti). Fatta questa dovuta premessa, ChatGPT o3 ha davvero superato il test ARC-AGI? Tutto fa pensare di sì, a partire dalla conferma del premio ARC-AGI di François Chollet. Il punto sta tutto nel dettaglio, ossia nel come questo risultato sia stato ottenuto. La prima cosa da dire è che siamo di nuovo in un territorio semi-oscuro, come nel caso di Google. Pare che il risultato, infatti, sia stato ottenuto da un modello pre-ottimizzato sul materiale fornito dal premio ARC-AGI e solo Altman sa come. Perché questo è importante? Perché la premessa posta (e forse dimenticata) da Chollet al suo premio era che l’eventuale “intelligenza” dovrebbe essere intrinseca al modello, non emergere come frutto di un’ottimizzazione “furbetta”. Per capire l’importanza di questo dettaglio pensate al Dustin Hoffman di “Rainman”. Tutti le Ai generative (Llm) hanno, ovviamente, la prodigiosa memoria del protagonista. Così come lui ricorda perfettamente tutte le carte già uscite in una mano di Blackjack, se mostrassimo a un’Ai generativa tutte le risposte di un corpus di milioni di domande, questa sarebbe -subito dopo- in grado di rispondere correttamente nella stragrande maggioranza delle volte, in accordo ai nuovi pesi che sarebbero registrati nella sua rete neurale artificiale, in ragione di questa ottimizzazione. Non solo, attraverso metodi come il fine tuning e l’uso di ontologie, queste macchine divengono in grado di raggiungere un’accuratezza pari a circa il 72,55% nel produrre testo appropriato al contesto, non troppo distante dal 75,7% dei risutati “low compute” raggiunto da o3 nei test. Per fare un’analogia semplificatoria, ma comprensibile, è come se queste macchine non divenissero in grado solo di rispondere alla pseudo-domanda “di che colore è il cavallo bianco di Napoleone”, ma di fare lo stesso con un ipotetico “cavallo castano del Duca di Wellington”. Per questo sarebbe importante avere il risultato di ChatGPT o3 allo stesso test senza alcun tipo di pre-ottimizzazione, risultati che OpenAI si è guardata bene dal rendere pubblici. Il punto più interessante, però, sembra essere rimasto fuori da un sano e aperto dibattito pubblico, ossia il costo necessario a raggiungere questo “notevole” risultato. Per fare una semplice comparazione con l’esistente, una singola ricerca del motore Google Search costa attualmente due centesimi di dollaro. Per raggiungere un’accuratezza dell’85,7% nel rispondere a cento domande usando una macchina invece di un singolo essere umano, OpenAI ha speso la pantagruelica cifra di un milione di dollari. Si tratta di mezzo milione di volte il costo di una ricerca Google per ogni domanda. Particolare ancora più importante: raggiungere il 75,7% di accuratezza è costato poco meno di seimila euro. La differenza, quindi, per migliorare il risultato del 10% è stata di oltre 995.000 dollari (ossia un costo e un lavoro di ottimizzazione 170 volte maggiore). Perché questo rapporto è di massima importanza? Perché è uno straordinario indizio del fatto che la strada utilizzata da OpenAI per rispondere al test sia stata la forza bruta, non il tentativo di replicare realmente il ragionamento astratto, che Altman e altri propagandano possa “emergere” dalle reti neurali artificiali, ma sul quale sappiamo solo che nel cervello animale si presenta con una straordinaria efficienza energetica. Un’efficienza di cui le reti neurali dei sistemi GPT sono prive. Che cosa s’intende quindi per “usare la forza bruta”? Al solito, invece di studiare e comprendere una lezione di storia potremmo decidere di studiare tutte le domande che un determinato professore (nel caso il “professor Chollet di ARC-AGI”) ha fatto ai candidati in tutta la sua carriera, e mandare a memoria quelle. Potremmo anche pagare degli umani per concepire domande e risposte simili e mandare a memoria anche quelle coppie di domande/risposte. Certo un metodo poco efficiente, ma molto efficace se il nostro obiettivo è solo passare quel dannato test a ogni costo, perché da quello dipendono gli investimenti che ci permetteranno di tenere aperto il nostro traveling show abbastanza a lungo da poter scappare con la cassa come fatto da Charles Ponzi e, più di recente, da Sam Bankman-Fried prima di noi. Oppure, se le promesse non risultassero disattese al 100%, per reinvestire quanto guadagnato con questa ondata di hype nella prossima moda che verrà, seguendo le orme di Elon Musk e Peter Thiel, senza troppi pensieri per i soldi degli investitori “bruciati” nel frattempo. Fino a qui qualcuno si sarà forse convinto che l’approccio dell’industria "GenAi" non sia il più efficace o il più scientificamente solido. Ma c’è ancora un aspetto che non abbiamo preso in considerazione. I costi dell’operazione di marketing “ARC-AGI” sono enormi per un buon motivo: procedere in modalità forza bruta richiede una quantità di energia mostruosa. Ma quanto? Così tanto da spingere l'amministratore delegato di AT&T, certo non una organizzazione non profit preoccupata dell’ecologia, a lanciare l’allarme dichiarando che, se l’Ai proseguirà lungo questa strada, c’è il rischio si arrivi nel 2027 a dei black-out catastrofici causati da una nuova crisi energetica. Infatti, nonostante Microsoft e OpenAI abbiano già dichiarato di voler alimentare l’Ai con l’energia atomica (saltiamo a piè pari i rischi ecologici), questa opzione richiede decenni per poter essere operativa. La recente elezione di Donald Trump e le mosse di Elon Musk, Jeff Bezos, Mark Zuckerberg che l’hanno seguita non lasciano adito a dubbi sul fatto che i techbros della Silicon Valley (ora ribattezzati broligarchi dalla stampa) ne abbiano finanziato la campagna elettorale in maniera rilevante con il preciso scopo di rimuovere ogni ostacolo alla marcia verso il collasso del sistema, un collasso cibernetico perché causato da interazioni fuori controllo tra l’animale-uomo e le macchine mangia-soldi e mangia-risorse che pochi techbros hanno deciso di creare allo scopo di moltiplicare il loro potere. A noi la scelta se stare a guardare o decidere che è arrivata finalmente l’ora di disertare questa agenda: migliaia di tecnologie sono possibili, la condizione per poterle immaginare è l'abbandono del culto demenziale dell’intelligenza artificiale generale con i suoi GPT proprietari, per concentrarci sulla creazione “macchine conviviali” create per affiancare gli esseri viventi nel distribuire potere e per convivere armoniosamente con l’ambiente che ci sostiene. Non saranno scintillanti Golem moderni, pronti a combattere guerre in cui uccidono al posto nostro, ma ci terranno al sicuro dal collasso ambientale, sociale ed economico. “Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Provaci ancora, Sam. Come Altman (e i suoi “techbros”) ci stanno portando verso il collasso proviene da Altreconomia.
Donald Trump
Elon Musk
intelligenza inesistente
Opinioni
addestramento intelligenza artificiale
L’Ai in medicina? Non basta “usarla bene”, e l’etica non ci salverà dall’effetto Vajont
"Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un'inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963. Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia. Nello specifico, le “opinioni accettabili” nel dibattito sull’adozione dell’Ai sono quelle che vengono chiamati “i tre assiomi della transizione digitale” di cui l’adozione a rotta di collo dell’Ai è la logica conseguenza. Primo, la tecnologia è neutra, l’importante è usarla bene (eticamente?); secondo, digitale è meglio di analogico, perché la tecnologia di oggi è sempre meglio di quella di ieri; terzo, i problemi di oggi saranno risolti dalla tecnologia di domani, perché la tecnologia risolve qualsiasi problema. Il primo assioma è relativamente semplice da “smontare”. Se fosse vero che la tecnologia è neutrale allora dovrebbe esistere un modo per “usare bene” l’auto nelle strade di Roma, alle cinque del pomeriggio. Invece il problema dello spostamento in orario di punta si risolve solo cambiando tecnologia: bisogna abbandonare l’auto a favore della bici, del motorino o del trasporto pubblico. Saper “usare bene” l’auto non aiuta.  Nel caso specifico dell’uso dell’Ai in medicina siamo poi davanti a un rischio ancora più grave: l’effetto Vajont. Come racconta Marco Paolini nel suo spettacolo teatrale, dopo il disastro, lui non riesce a dare la colpa dei morti alla diga. La diga aveva fatto bene il suo lavoro: non era crollata. Anche Dino Buzzati scrive, all’indomani del disastro, “la diga del Vajont era ed è un capolavoro”. Fascinazione tutta maschile per l’artefatto. Eppure questa tecnologia perfetta è coinvolta nella morte di oltre duemila innocenti. Com’è possibile? La diga non andava costruita in quella valle: troppo stretta e troppo frequentemente soggetta a frane importanti, quello è il problema. Un problema politico.  Sulla scena del disastro, a denunciarlo, c’è una donna coraggiosa: Tina Merlin, inviata per l’Unità, che scrive un libro che inchioda politici e imprenditori senza scrupoli alle loro responsabilità: “Sulla pelle viva. Come si costruisce una catastrofe. Il caso del Vajont”. Oggi le donne che parlano fuori dal coro dell’entusiasmo “virile” per la tecnologia si chiamano Gebru, Bender, Whittaker, Tafani. L’ultima, da esperta di etica, non è affatto convinta che l’etica possa offrire risposte a questi problemi: “L’'etica dell’intelligenza artificiale' è assimilabile dunque a una merce, che i ricercatori e le università sono interessati a fornire, in quanto ‘olio che unge le ruote della collaborazione’ con le grandi aziende tecnologiche, e che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale” (Daniela Tafani, L’"etica"come specchietto per le allodole, 2023). Infatti, per tornare all’esempio dell’auto, l’etica del pilota non diminuisce l’inquinamento causato dallo stare fermi al semaforo. Per diminuirlo bisogna entrare nella “stanza dei bottoni” e imporre una modifica che preveda lo spegnimento del mezzo quando si ferma. L’etica a posteriori diventa, appunto, uno specchietto per le allodole. La falsificazione del secondo assioma può passare nuovamente da un confronto della bicicletta con l’auto: la prima è certo una tecnologia precedente, ma è capace di risolvere un problema che la seconda non risolve. Di esempi come questo se ne possono trovare molti: i vecchi Nokia che mitigano il problema dell’e-waste grazie a una batteria facilmente rimovibile, per esempio. Il terzo assioma esprime il pensiero che il sociologo Evgeny Morozov ha definito soluzionismo tecnologico, ossia la convinzione che tutti i problemi umani contemplino una soluzione per via tecnologica. Questa posizione si fonda su un credo che Nick Barrowman chiama “culto del dato”: “Siamo tentati di presupporre che i dati siano autosufficienti e indipendenti dal contesto e che, con sufficienti dati, le preoccupazioni relative a causalità, bias (distorsione), selezione e incompletezza possano essere ignorate. È una visione seducente: i dati ‘crudi’, non corrotti dalla teoria o dall'ideologia, ci condurranno alla verità; non saranno necessari esperti; non saranno rilevanti le teorie, né sarà necessario vagliare alcuna ipotesi” (Nick Barrowman, Why data is never raw). Il credo di tale “setta”, che altro non è se non un culto minore dello scientismo, produce una distorsione paradossale: credere nella supremazia del dato sulla stessa scienza che dovrebbe produrlo, come l’ex caporedattore di Wired, Chris Anderson quando scrive che “oggi possiamo gettare i numeri nei più grandi cluster di calcolo che il mondo abbia mai visto e lasciare che gli algoritmi statistici trovino modelli dove la scienza non può arrivare”. Se Anderson avesse ragione l’avvento della tecnologia causerebbe la fine della scienza. La realtà è che i dati non sono mai "crudi": “I dati 'crudi' sono un ossimoro e una cattiva idea. Al contrario, i dati dovrebbero essere cucinati con cura. ‘Crudo’ ha un senso di naturale o incontaminato, mentre ‘cotto’ suggerisce il risultato di processi cognitivi. Ma i dati sono sempre il prodotto di processi cognitivi, culturali e istituzionali che determinano cosa raccogliere e come farlo” (ibidem). Esplicitare questi processi significa fare scienza, associando alle “sensate esperienze” le “dimostrazioni necessarie” (come affermava Galileo Galilei). Sorvolarli, per contro, significa rischiare conclusioni grossolanamente errate, o persino non rendersi conto di tali errori e sprofondare nella pseudoscienza. Sgombrato quindi il campo dalle mistificazioni che “limitano rigorosamente lo spettro delle opinioni accettabili” (Chomsky) siamo finalmente in condizione di sintetizzare i motivi per cui l’introduzione dell’Ai in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. Questa tecnologia non è neutra: si fonda sul lavoro sottopagato del Sud globale; pone già oggi un enorme problema ecologico per via dei consumi pantagruelici di acqua, elettricità, suolo, terre rare (al punto che l'Ue ha lanciato una campagna per riaprire le miniere entro i territori dell’Unione per garantirsi i "materiali strategici" necessari a costruire i datacenter con tutti i rischi geopolitici che questo implica).  Le applicazioni delle Ai generative sono soggette al problema delle "allucinazioni" che, in situazioni di rischio per la vita, rappresentano un problema gravissimo e, anche quando potrebbero essere utili, generano pesanti cambiamenti nel modus operandi di una istituzione sanitaria, cambiamenti non sempre possibili o economici. Quindi non sono sempre meglio dei metodi precedenti: dipende.  C’è poi il fatto che le Ai pensate per la medicina non sono abbastanza testate per poter essere considerate sicure, soprattutto quando non si rispettano i protocolli tipici della ricerca scientifica, sull’onda della “immaterialità del digitale” o di slogan assurdi coniati in Silicon Valley, come “move fast, break things”. L’unica cosa da rompere sono certi piani di dominio del mondo, roba da scienziati pazzi. Infine, l'uso degli strumenti Ai in medicina può produrre pericolosi errori metodologici, che possono portare a storture distopiche come l'utilizzo dell'Ai per decidere automaticamente se staccare la spina a un paziente, o quale trattamento salvavita somministrargli. L’eventuale morte del paziente non potrà essere risolta dalla successiva tecnologia.  “Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo L’Ai in medicina? Non basta “usarla bene”, e l’etica non ci salverà dall’effetto Vajont proviene da Altreconomia.
AI
Opinioni
google
Intelligenza artificiale
allucinazioni Ai
Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove le diseguaglianze
Per raccontare gli eventi fondamentali di questa telenovela in salsa tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i suoi fondatori, tra cui figurano Elon Musk e l'allora poco conosciuto Sam Altman, scrivono sul sito dell'azienda che "Il nostro obiettivo è quello di far progredire l'intelligenza digitale nel modo più vantaggioso per l'umanità nel suo complesso, senza essere vincolati dalla necessità di generare un ritorno economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo".  In particolare, Musk, finanziatore della prima ora, vuole un'azienda che faccia concorrenza all'allora gigante dell'Ai DeepMind, controllata da Google. Spiega ad Altman che "l'intelligenza artificiale non va lasciata in mano a Larry Page (Google)" perché, nell'inevitabile momento in cui si verificherà la “singolarità”, ossia quando le macchine raggiungeranno o supereranno l'uomo in intelligenza, Page non farà nulla per evitare che questa nuova intelligenza sottometta o elimini l’umanità dallo scenario. A lui, invece, l'umanità piace (a patto che non abbia la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente titolato a produrre "cambi di regime" a colpi di morti ammazzati senza troppi problemi, come twittava più o meno nella stessa epoca). E poco importa se la congettura in quel momento ha la stessa concretezza del motore a curvatura di Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a breve.   L'azienda rischia effettivamente di chiudere i battenti, ma alla fine Sam Altman trova la soluzione: convince il consiglio di amministrazione a trasformare OpenAI da non profit impegnata a sviluppare software liberi a "capped profit", ossia a profitto limitato fino a cento volte il valore iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena, investendo un miliardo di dollari, e OpenAI annuncia l'intenzione di concedere in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta l'idea del codice libero.  Alcuni ricercatori criticano la svolta, sollevando dubbi sull'impegno dell'azienda a democratizzare l'Ai, ma ovviamente restano inascoltati. Così arriviamo alla vigilia del conflitto: con un'azienda saldamente collocata nell'orbita Microsoft, e che è divenuta famosa grazie al lancio sul mercato di una tecnologia sperimentale che causa molti più problemi di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina dei giornali un giorno sì e l'altro anche.  [caption id="attachment_184510" align="aligncenter" width="1035"] © Mojahid Mottakin - Unsplash[/caption] La sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo sfiducia adducendo una poco chiara "mancanza di sincerità". Scattano consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft, diffonde a sua volta un comunicato in cui conferma l'intenzione della sua azienda di continuare a investire in OpenAI.  Passano ventiquattro ore e Altman riceve un'offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di ricerca sull'intelligenza artificiale, questa volta interno alla multinazionale. Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera il 95% dei dipendenti dell'azienda minaccia di licenziarsi se Altman non farà ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo di OpenAI.  Che cosa ha generato questa "guerra civile" all'interno dell'azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue da aumentare la confusione al proposito, invece di ridurla. Per provare a dipanare la matassa non resta che "unire i puntini". Per prima cosa, ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche. Resta il fatto che, come risultato, Microsoft ha rimesso "in sella" Altman e porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla base dell'"OpenAI Drama" ci sarebbe il conflitto che ha contrapposto gli "accelerazionisti efficaci" (l’amministratore delefato Sam Altman e i suoi fedelissimi) agli "altruisti efficaci" (di cui fa parte il direttore della ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley. Per farla breve, queste due "scuole di pensiero", pur condividendo la fede nell'imminenza della singolarità, hanno idee molto differenti su che cosa fare nell'immediato: i primi vogliono premere l'acceleratore a tavoletta e confidare nella "mano invisibile del mercato", i secondi lanciano appelli ai politici perché intervengano immediatamente "contro qualcosa di più pericoloso degli stessi armamenti nucleari". Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un'interessante conferenza dal titolo "Come l'Ai promuove le diseguaglianze a livello globale", tenuta presso l'Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui "minitask" come l'etichettatura manuale dei dati (e su questo è d'accordo anche più d'uno degli "entusiasti" dell'Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell'Ai (che, quindi, non sembra diventare più "intelligente" al passare degli anni), bensì sono in crescita esponenziale. L'intelligenza su cui si basano sembra avere origine molto più umana che artificiale.  Quello che si è scoperto è che in parecchi casi, servizi propagandati al pubblico come realizzati con l'Ai sono puri e semplici paravento per lavoro sottopagato svolto nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di marketing dell'intelligenza artificiale, impegnato a presentare lavoro umano come realizzato da macchine, al punto da coniare il termine real time training. Termine utilizzato quando un umano si sostituisce alla macchina nell'interazione con il cliente, istruendo l'Ai su come deve comportarsi nel futuro in tempo reale. Ne consegue che i minitask alla base della gig economy (economia dei "lavoretti") sono talmente in crescita che Amazon ha acquisito fin dai primi anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando, ovviamente, sull'impiego di persone pagate anche meno di 120 dollari al mese. Quindi la ricerca, l'uso e la propaganda dell'Ai avvengono nel “Nord del mondo”, ma il lavoro necessario a far "funzionare la magia" viene erogato dal Sud. Se ci fosse mai un "blocco" temporaneo di internet l'intelligenza artificiale si fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze create da questo nascente "modello di business" si sovrappongono a quelle precedenti e -spesso- le peggiorano.   I lavoratori impegnati in minitask li svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se non attraverso la rete), spesso sono soggetti lavorativamente fragili come anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci sembra il fatto che questa "rivoluzione tecnologica" sia in mano a una manciata di super miliardari. Questo significa che abbiamo un serio problema di partecipazione e autodeterminazione, oltre che un gigantesco problema di relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come durante l'era dei social media non è più un'opzione. Ci vuole un approccio radicalmente diverso al design dell'Ai, che può partire unicamente dall'abbandono dei racconti fantascientifici per concentrarsi sul cambiare il modello di business che questa tecnologia induce.  Stefano Borroni Barale, classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni nella formazione sindacale internazionale e una (triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese. Sostenitore del software libero da fine anni 90, è autore per Altreconomia del manuale di liberazione informatica “Come passare al software libero e vivere felici” (edito nel 2003) e da ultimo de "L’intelligenza inesistente. Un approccio conviviale all'intelligenza artificiale" © riproduzione riservata L'articolo Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove le diseguaglianze proviene da Altreconomia.
AI
Elon Musk
software libero
google
Intelligenza artificiale