Tag - musk

Chi sta girando la chiave della contemporanea tirannia automatizzata?
“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che scacciate i tiranni e li buttiate giù dal loro trono; basta che non li sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576. Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di base della scuola, è segretario del circolo di uno dei tanti partiti della diaspora della sinistra, è femminista, appassionato praticante dell’inclusione dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi, giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la nostra società, soprattutto a quelle della democrazia, che osserva preoccupato. Nonostante tutto questo, una delle mani che sta girando la chiave della nascente tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù cibernetica volontaria” non è questione di stupidità o malafede, semmai di essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di movimento”, che replicavano via Internet dinamiche molto simili a quelle delle radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla generazione precedente quella di Giorgio che l’autogestione dei media da parte del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma. Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è tornato a essere coltivato nei confronti del web. Gli entusiasti di quella stagione, però, hanno commesso un errore più grave del confondere il web con Internet: hanno confuso l’avvento di una tecnologia compatibile con la redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione, tanto meno l’organizzazione economica capitalista, che inizialmente esce addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei trent’anni successivi, le burocrazie statali e private hanno lavorato in sinergia alla riconfigurazione della rete, per renderla uno strumento di sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros, ha finalmente intravisto le condizioni per realizzare il suo sogno distopico: abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates (Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era stato nei primi anni duemila), che non cercando di prendere tutto il potere in un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un “sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili” dei cittadini americani da parte del (Department of government efficiency, Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli analisti informatici come un vero e proprio attacco hacker portato al cuore del sistema burocratico del governo statunitense. Un colpo di Stato senza spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a enormi quantità di dati captati, non sempre con il consenso degli interessati. Una volta che le informazioni che ci riguardano divengono dati registrati digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o meno degli scenari peggiori è questione politica. Infatti l’unica resistenza che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile con la sopravvivenza di un sistema democratico. È in questo senso che le mani che girano la chiave nella toppa della tirannia automatizzata sono quelle di Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da esperti, informatici o tecnici”, anche dopo che questo è stato usato ripetutamente contro di noi, in maniera così plateale. Se non si comprende questo, ogni sforzo verso una società migliore rischia di essere spazzato via dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia i dati con sistemi di riconoscimento biometrici, per braccarli con una precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori, semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il "caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci permette ancora di vivere l’avvento di personaggi come Trump e Musk con un barlume di speranza in più, rispetto ai cittadini americani. È molto probabile che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire un approccio al digitale basato sull’autogestione e sulla convivialità, invece che sul sogno di controllare (magari via norme) megastrutture impossibili da controllare per design. Il futuro non è ancora scritto, a patto di cominciare oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata? proviene da Altreconomia.
dati
Trump
piattaforme
meta
Opinioni
Intelligenze pericolose domani? Disparità sociali ed economiche oggi
La definizione moderna di Intelligenza artificiale (IA) si basa su idee vecchie di settant’anni. Infatti, quando Elon Musk e compagni parlano di IA, si riferiscono a delle tecnologie in grado di superare il famoso test di Turing, altrimenti noto come “gioco dell'imitazione”. Alan Turing, in un fondamentale articolo del 1950, propone un esperimento mentale: chiudere in due diverse stanze un uomo e la sua “macchina di Turing”, permettendo a un esaminatore di interrogarle solo dall'esterno attraverso una tastiera; l'uomo avrebbe dovuto cercare di aiutare l’esaminatore, la macchina cercare di ingannarlo. La macchina avrebbe vinto se fosse riuscita a convincere l’esaminatore di essere una persona, unicamente rispondendo per iscritto alle sue domande. All'epoca una condizione del genere sembrava davvero molto difficile da realizzare, ma oggi, settant’anni di evoluzione tecnologica dopo, sembra un traguardo alla portata di software come ChatGPT. Al tempo stesso il web è pieno di fallimenti al test da parte di ChatGPT: vuoi per “allucinazioni” (risposte completamente fuori tema), vuoi per errori grossolani (anche in operazioni banali); in ogni caso tali da rivelare la vera natura della macchina, ancora ben lontana dall’essere intelligente. Macchine senzienti e altre credenze tecno-magiche Se invece prendiamo per buona la definizione di “intelligenza” data da Turing, sorvolando sulla riduzione dell’intelligenza alla capacità di operare in maniera soddisfacente con i simboli dell’alfabeto senza investigare sulla capacità della macchina di “comprendere il senso” di tali simboli, otteniamo la ferma convinzione dell'esistenza -qui e ora- di macchine senzienti. È in questo contesto che si colloca la lettera: un contesto in cui è normale parlare, con assoluta convinzione, dell’ipotesi di fondere l’uomo con le macchine per conseguire la vita eterna (transumanesimo) o del rischio di una “apocalisse delle macchine” in cui queste, come in “Matrix” o “Terminator”, sarebbero pronte a mettere fine alla nostra esistenza sul Pianeta, dopo averci superato nell’evoluzione (singolarismo). La guerra per l’IA Com’è possibile, dunque, che da un consesso così smaccatamente tecno-entusiasta venga un monito a riflettere e procedere con calma, democratizzando la tecnologia? Per comprenderlo bisogna mettere insieme diversi pezzi di un puzzle complesso. Anzitutto Elon Musk aveva tentato, nel 2018, di scalare OpenAI e prenderne il controllo, senza successo. In quel momento è nata la collaborazione che ha portato l’azienda di Sam Altman nell’orbita di Microsoft. Infatti, Bill Gates si è sentito in dovere di intervenire prontamente in un campo che non dovrebbe più interessarlo, per rispondere che “una moratoria non cambierebbe la sostanza del problema”. Questo fa pensare che le vere motivazioni abbiano a che fare con uno “scontro al vertice” tra colossi come Microsoft, l’emergente impero di Musk, Meta (che ha da poco lanciato la sua versione “open source” di GPT, chiamata LLaMA ) e Google con il suo Bard. In tale ottica una “moratoria” avrebbe chiaramente l’effetto di dare un po’ di fiato a chi, come Musk, sta rincorrendo, e ridurre il vantaggio che OpenAI ha conquistato grazie ai pesanti investimenti di Microsoft. E qui da noi? Per una volta l’Italia è in prima fila. Il 30 marzo il Garante per la protezione dei dati personali, organo collegiale usualmente rappresentato pubblicamente dall’avvocato Guido Scorza, ha notificato a OpenAI la violazione di diversi principi del Regolamento generale per la protezione dei dati (Reg. 679/2016, acronimo “Gdpr”). I punti più delicati sollevati dal Garante sono quelli relativi al fatto che, dall’informativa scritta da OpenAI, non risultava abbastanza chiaro il fatto che le conversazioni intrattenute con il bot sarebbero state utilizzate per alimentare l’IA, la mancanza di efficaci metodi per limitare l’accesso ai minori di 13 anni e, infine, la cosa più grave: il fatto che ChatGPT restituisca dati personali uniti a informazioni false, per esempio nella costruzione di biografie personali. Questo è un punto chiave per OpenAI, giacché correggere questo tipo di errori è costoso, in quanto necessita intelligenza umana, come mostrato nella primissima fase della creazione di ChatGPT-3, quando un piccolo esercito di operatori del Kenya è stato assunto per addestrare il modello grezzo. Sottopagato. Il richiamo dava tempo all’azienda 20 giorni (prolungabili) per rispondere e mettersi in regola. OpenAI ha invece optato per la linea di scontro frontale: chiudere l’accesso al suo sito in Italia e diffondere la vulgata secondo la quale il “Garante, nemico dell’innovazione, ha chiuso OpenAI in Italia”. Falso, visto che la versione precedente è ancora integrata in Bing, a dimostrazione che non è in atto alcuna caccia alle streghe, semmai il primo serio tentativo di fare un passo concreto verso l’apertura di un indispensabile e urgente dibattito su questi temi. Entro fine 2023 è attesa la promulgazione della direttiva europea sull’IA che, pur se “annacquata” rispetto al testo originale, potrebbe risultare una risorsa utile per chi spinge verso una tecnologia più partecipata. La direttiva prevede infatti che nelle cause per danni generate da questa nuova tecnologia, l’onere della prova sia in carico all’azienda che fornisce il servizio e non al danneggiato. Dunque, nessun pericolo? Se l’allarme lanciato dalla Silicon Valley è come minimo prematuro (se mai avremo una Intelligenza artificiale generalista - Agi è molto difficile che sia nel prossimo secolo), questo non significa che l’IA sia sicura. Negli ultimi tre anni in molti hanno descritto i notevoli problemi che l’IA, e le tecnologie in generale, possono causare ai diritti umani, alla società e al mondo del lavoro. Penso ad accademici come Dan McQuillan, Kate Crawford e Teresa Numerico, ad hacker come Carlo B. Milani e ad attivisti digitali come Max Schrems, “responsabile” delle due sentenze europee che portano il suo nome e che stanno mettendo i bastoni tra le ruote all’applicazione dell’IA nella scuola, con progetti finanziati da Google e Meta e, purtroppo, anche dai fondi del Piano nazionale di ripresa e resilienza (Pnrr). Tali fondi, infatti, rischiano di andare a consolidare la presenza di piattaforme come Google Workspace for Education, che sta raccogliendo -nell’inconsapevolezza generale- i dati necessari a costruire la prossima IA educativa, che dovrebbe sostituire i docenti nei piani di Google e Meta. Per scongiurare questo scenario si sono mobilitate sia Assoli (l’Associazione per il software libero), che ha scritto al governo per ottenere che le scuole si dotino di piattaforme libere, sia il sindacato della scuola Cub Sur che ha lanciato una campagna segnalando, oltre alle note problematiche di privacy e trasparenza, anche la violazione dello Statuto dei lavoratori operata sistematicamente da Google. L’IA di oggi è una tecnologia che lavora alacremente all’allargamento della disparità sociale ed economica e al suo consolidamento in apparati rigidi, regolati dalle macchine. Alcuni esempi: la tecnologia di riconoscimento facciale utilizzata come arma contro i migranti, gli algoritmi di assegnazione delle commesse che rendono la vita dei rider un’esperienza che ricorda lo schiavismo e l’algoritmo delle graduatorie provinciali per le supplenze che da due anni priva gli allievi più fragili, ossia persone con disabilità e Bes, delle loro figure di riferimento, spedendo i professori precari in una girandola di cattedre che non li vede mai ritornare nella stessa scuola, al contrario di quanto avveniva con le nomine in presenza. Alla luce di questa realtà viene naturale pensare che tutto questo gridare “al lupo, al lupo” nella direzione di un pericolo ipotetico nel futuro, abbia come effetto collaterale di togliere attenzione ai danni reali nel presente. Stefano Borroni Barale, classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni nella formazione sindacale internazionale e una (triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese. Sostenitore del software libero da fine anni 90, è autore per Altreconomia del manuale di liberazione informatica "Come passare al software libero e vivere felici" (edito nel 2003). © riproduzione riservata L'articolo Intelligenze pericolose domani? Disparità sociali ed economiche oggi proviene da Altreconomia.
garante privacy
Intelligenza artificiale
chatgpt
bill gates
openai