Tag - amazon

Masters of Cyberwar. Dai sogni degli hippies all’incubo dei killer robots
“Venite signori della guerra / voi che costruite i cannoni / voi che costruite gli aereoplani di morte / voi che costruite le bombe / voi che vi nascondete dietro muri / voi che vi nascondete dietro scrivanie / voglio solo che sappiate / che posso vedere attraverso le vostre maschere”. Bob Dylan, "Masters Of War" da “The freewheelin’ Bob Dylan”, 1963 Qui in Italia non è così noto, ma la controcultura hippie degli anni Sessanta, di cui San Francisco era divenuta la capitale, è stata uno degli ingredienti che ha contribuito, nel decennio successivo, alla creazione di quei gruppi di appassionati di elettronica, come l’Homebrew computer club, in cui hanno mosso i primi passi personaggi come Steve Wozniack e Steve Jobs, i fondatori della Apple. Il sogno naïf di quella generazione era che i piccoli personal computer avrebbero distribuito il potere di calcolo, cambiando la società. Il poeta Richard Brautigan arrivò a cantare di questa utopia nel suo poema del 1967 "All watched over by machines of loving grace" che conobbe per questo una discreta fortuna.  Forse anche per questo motivo alcuni, tra cui Bill Gates, sono rimasti stupiti della recente sterzata all’estrema destra della totalità dei Gafam, ossia Google, Apple, Facebook (ora Meta), Amazon e Microsoft. La “svolta a destra”, però, non ha coinvolto solo la generazione degli ex-hippie. Sembra passato un millennio da quando due giovani universitari di belle speranze, Larry Page e Sergej Brin, fondavano una start-up per gestire il successo del loro algoritmo di ricerca, PageRank, che aveva dato i natali al più fortunato “motore” di ricerca su internet, Google. Allora, era il 1998, il motto scelto per la loro impresa era “Do no evil” ossia “Non fare del male”. Chissà che cosa penserebbero oggi quegli stessi giovanotti della decisione presa, a gennaio di quest’anno, dalle loro attuali versioni imbolsite e con le borse sotto gli occhi: far cadere la clausola che impegnava l’azienda a non utilizzare i propri studi sull’intelligenza artificiale per scopi militari, aprendo così la porta allo sviluppo di killer robots, in accordo con un piano di implementazione delle armi autonome pubblicato dalla Nato già nel 2023.  Purtroppo questa decisione non fa altro che suggellare un impegno sul campo dell’azienda che va ben oltre la ricerca e sviluppo di sistemi d’arma. L'American friends service commitee (Afsc) -storica organizzazione nonviolenta americana legata ai quaccheri- accusa da tempo Google di avere responsabilità dirette nei crimini di guerra compiuti da Israele in Palestina dopo gli attacchi di Hamas del 7 ottobre 2023. Secondo un’esplosiva inchiesta della rivista israeliana +972 uscita ad agosto del 2024, Google, insieme a Microsoft (Azure) e Amazon (Amazon web services - Aws, il fornitore che vanta i legami più solidi di tutti con governo e militari israeliani), avrebbe fornito servizi cloud classici al Project nimbus, il servizio di raccolta dati del governo, utilizzato successivamente dall’esercito per individuare i bersagli militari. Contemporaneamente, su un’altra commessa, Microsoft e Google fornivano la tecnologia di “intelligence artificiale” per il riconoscimento facciale, usata per scegliere automaticamente gli obiettivi degli attacchi che hanno causato decine di migliaia di morti civili. Diverse altre inchieste del Washington Post danno riscontro e solidità alle accuse dell'Afsc. Purtroppo Google non è l’unica impresa del gruppo Gafam a essere impegnata in prima linea nei peggiori conflitti in atto (anche se, per ora, è l’unica ad aver licenziato i suoi dipendenti che protestavano contro queste collaborazioni). La lista è talmente lunga da eccedere lo spazio di questa rubrica: ci dovremo limitare a una attenta selezione, partendo da Meta Platforms Inc. (conglomerato che controlla Facebook, Instagram, WhatsApp e l’ultimo nato Threads). In questo momento l’ufficio stampa di Meta è impegnato in un titanico sforzo per evitare che le persone leggano "Careless People", il libro-scandalo della sua ex-dipendente Sarah Wynn-Williams che ne rivela alcuni dei segreti più inconfessabili (legati alle sue responsabilità nel massacro della minoranza Rohingya in Myanmar soprattutto) e, al contempo, per silenziare lo scandalo della cessione illegale dei dati di migliaia di utenti palestinesi della controllata WhatsApp all’Idf (l’esercito israeliano), che li ha inseriti in Lavender, una delle Ai utilizzate per scegliere automaticamente chi uccidere. In questo caso non si è trattato di killer robots, bensì di Laws ossia Lethal authonomous weapons systems, sistemi per uccidere automatizzati: morte somministrata via algoritmo, a seguito dell’utilizzo di una chat. Sappiamo infatti che le reti neurali utilizzate da Lavender hanno margini di errore nella produzione del loro output (le cosiddette “allucinazioni”: ne abbiamo parlato qui) che non scendono mai sotto il 5% e che possono arrivare ad oltre il 20%. Tale margine di errore va poi moltiplicato, giacché le nuove regole d’ingaggio dell’Idf dopo il 7 ottobre prevedono come “accettabile” la morte di venti innocenti per ogni presunto miliziano di Hamas colpito. Ultimi nella nostra analisi, ma non certo per importanza strategica, vengono gli interessi militari di due imprese che, fino a poco tempo fa, avevano un profilo più “riservato” rispetto ai Gafam: Palantir di Peter Thiel e SpaceX di Elon Musk. La prima è oggetto di operazioni di disinvestimento pianificato per via del suo coinvolgimento nei crimini di guerra di Israele, ma è frutto di un progetto abominevole fin dal nome: Palantir, nel mondo creato da Tolkien, è il nome delle antiche pietre capaci di mostrare il futuro che portano il saggio Saruman a impazzire e unirsi all’oscuro sire, Sauron. Infatti, l’azienda nasce con l’idea di fornire sistemi di polizia predittiva, una pseudo-scienza il cui fondamento è “solido” quanto le infami teorie del nostro Cesare Lombroso, e i risultati tutt’altro che entusiasmanti (meno dell’1% di efficacia nel caso americano). Nonostante ciò, i suoi servizi sono stati utilizzati dal governo di Israele per incarcerare cittadini palestinesi per il solo fatto di rientrare in un “profilo del terrorista” sviluppato dalla ditta in questione. La seconda è passata alle cronache di guerra per via del servizio Starlink, una rete di satelliti di comunicazione a bassa quota, che si è rivelata strategicamente vitale in Ucraina. All’indomani dell’invasione russa, Elon Musk è stato acclamato eroe dagli ucraini perché ha fornito “gratuitamente” il servizio agli ucraini, salvo poi divenire -il 10 marzo di quest'anno- il peggiore dei loro nemici sostenendo che “senza Starlink sarebbero spacciati”. D’altronde Musk aveva già mostrato di essere un attore incontrollabile in almeno due occasioni: quando era passato all’incasso con il suo stesso governo (sostenendo di non poter continuare a finanziare l’Ucraina a tempo indeterminato), e quando aveva deciso di bloccare le comunicazioni per impedire un’escalation della guerra che considerava nefasta. L’orrore della morte via chat si sarebbe potuto evitare. Le avvisaglie di una forte collaborazione tra Meta e l’Idf, infatti, erano nell’aria sino dal 2021, quando Meta bloccò gli account di diversi giornalisti della Striscia di Gaza, per impedirgli di far fluire informazioni verso l’esterno. Purtroppo, la società civile ha introiettato profondamente l’idea che le tecnologie dell’informazione e comunicazione siano semplici merci, strumenti a nostra disposizione. Gli esempi che abbiamo toccato mostrano in maniera lampante il contrario. Eppure, le alternative esistono: il software libero costituisce un corpus di conoscenze collettive che possono essere utilizzate da qualsiasi gruppo per soddisfare i propri bisogni, dalla formazione (è il caso di alcune scuole del progetto Fuss, che si sono dotate di una infrastruttura per la formazione online), alla comunicazione (è il caso del sindacato Cub-Sur che si è dotato di un’intera piattaforma di comunicazione a distanza), rendendosi indipendenti delle imprese Gafam. Ma basta allargare lo sguardo per scoprire che, nei dintorni di Barcellona, esiste una “rete internet locale” con la bellezza di cinquemila punti d’accesso su diversi chilometri quadrati di territorio, che continuerebbe a funzionare anche se la connessione verso il mondo esterno fosse tranciata di netto, in maniera simile a progetti presenti anche in Italia. Insomma, non si tratta di “testimonianze” di singoli, magari un po’ “impallinati” e senza impatto sulla società, ma piuttosto di esempi di come problemi collettivi possano trovare soluzioni collettive. Il passo da fare, ora, è riconoscere che la dipendenza da queste imprese, mentre queste “riconvertono” il loro business alla guerra, è un serio problema collettivo, che ci riguarda tutte e tutti.  Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Masters of Cyberwar. Dai sogni degli hippies all’incubo dei killer robots proviene da Altreconomia.
Elon Musk
gaza
meta
Opinioni
google
Chi sta girando la chiave della contemporanea tirannia automatizzata?
“Siate dunque decisi a non servire mai più e sarete liberi. Non voglio che scacciate i tiranni e li buttiate giù dal loro trono; basta che non li sosteniate più, e li vedrete crollare, […] come un colosso a cui sia stato tolto il basamento”. Étienne de La Boétie, "Discorso sulla servitù volontaria", 1576. Giorgio vive a Roma ed è un militante a tempo pieno. Fa parte di un sindacato di base della scuola, è segretario del circolo di uno dei tanti partiti della diaspora della sinistra, è femminista, appassionato praticante dell’inclusione dei suoi allievi con disabilità e non. La sua vita, a parte i rari momenti in cui riposa o in cui si dedica ai suoi genitori molto anziani, è dedicata a cercare di ricostruire quel “tessuto collettivo” in cui è cresciuto, negli anni tra il sessantotto e il settantasette, e che lo ha visto prendere parte poi, giovanissimo, al movimento ecologista e nonviolento dei primi anni 80. La sua non è solo nostalgia: è convinto (a ragione) che solo un approccio collettivo ai nostri problemi potrà portare a uscire dalle convulsioni che sta vivendo la nostra società, soprattutto a quelle della democrazia, che osserva preoccupato. Nonostante tutto questo, una delle mani che sta girando la chiave della nascente tirannia automatizzata di cui parlava Edward Snowden è anche la sua. Per comprenderne il motivo bisogna ricostruire alcuni eventi. Praticare la “servitù cibernetica volontaria” non è questione di stupidità o malafede, semmai di essersi persi quelli che, di primo acchito, sembrano dettagli. Giorgio era nella seconda metà dei suoi vent’anni quando l’avvento del World wide web sembrò aver dato vita a Internet. In realtà, Internet esisteva dagli anni Sessanta e il web la stava solo rendendo un po’ più sexy. Ecco il primo importante dettaglio. Quel cambiamento meramente “estetico” ha promosso la nascita dei primi siti “di movimento”, che replicavano via Internet dinamiche molto simili a quelle delle radio libere che avevano invaso l’etere dal 1976 in avanti, facendo sognare alla generazione precedente quella di Giorgio che l’autogestione dei media da parte del movimento studentesco, fuori dal controllo Rai, sarebbe diventata la norma. Secondo dettaglio: purtroppo quello è rimasto un sogno. Un sogno simile è tornato a essere coltivato nei confronti del web. Gli entusiasti di quella stagione, però, hanno commesso un errore più grave del confondere il web con Internet: hanno confuso l’avvento di una tecnologia compatibile con la redistribuzione del potere con l’effettiva redistribuzione dello stesso. Terzo dettaglio: Internet non ha mai smantellato la burocrazia degli Stati-nazione, tanto meno l’organizzazione economica capitalista, che inizialmente esce addirittura rafforzata dalla bolla delle dot-com (nel 1995). Infatti, nei trent’anni successivi, le burocrazie statali e private hanno lavorato in sinergia alla riconfigurazione della rete, per renderla uno strumento di sorveglianza e controllo. Per questo oggi Peter Thiel, noto sociopatico di ultradestra, dopo aver promosso la “transizione al trumpismo” dei suoi techbros, ha finalmente intravisto le condizioni per realizzare il suo sogno distopico: abolire la democrazia a favore della “libertà” della Silicon Valley. Libertà di agire senza rispondere delle proprie azioni, s’intende. Questa è la prospettiva che rende l’immagine della cerimonia di insediamento del secondo ciclo di Donald Trump, un evento da lasciare senza fiato. All’indomani, lo stesso Bill Gates (Microsoft) ha dichiarato di essere “stupito dalla svolta a destra della Silicon Valley”; una svolta suggellata dalla presenza di Google, Amazon, Meta e Apple all’evento. Microsoft era l’unica impresa della rosa "Gafam" assente, sia all’insediamento, sia al party esclusivo tenutosi proprio a casa di Peter Thiel pochi giorni prima (ma Gates aveva fatto visita a Trump nella sua residenza in Florida appena pochi giorni prima). Forse Gates pensa che gli interessi delle aziende nate grazie al web siano meglio tutelati difendendo la Rete (com’era stato nei primi anni duemila), che non cercando di prendere tutto il potere in un colpo. I colpi di mano possono fallire mentre la strategia di diffondere un “sogno americano” in salsa cibernetica aveva fin qui trionfato. Quarto dettaglio, che potrebbe costar caro ai miliardari della Silicon Valley, una volta tanto. Il tentativo di prendere il totale controllo dei dati “sensibili” dei cittadini americani da parte del (Department of government efficiency, Doge), sotto la guida del suo caudillo Elon Musk, sono state lette dagli analisti informatici come un vero e proprio attacco hacker portato al cuore del sistema burocratico del governo statunitense. Un colpo di Stato senza spargimento di sangue, come scrive Salvaggio su TechPolicy Press. Stati e imprese, infatti, sono ormai completamente digitalizzati: funzionano grazie a enormi quantità di dati captati, non sempre con il consenso degli interessati. Una volta che le informazioni che ci riguardano divengono dati registrati digitalmente, qualsiasi abuso diviene tecnicamente possibile: è sufficiente un comando impartito a un terminale da un attore senza scrupoli. Il realizzarsi o meno degli scenari peggiori è questione politica. Infatti l’unica resistenza che, per ora, sta rallentando il Doge è quella legale. In prospettiva, però, le leggi possono cambiare, soprattutto sotto spinte populiste. Per questo la società civile dovrebbe darsi come obiettivo urgente la cancellazione dei dati e lo smantellamento degli apparati atti a captarli, almeno fino a che non si sia raggiunto un nuovo patto sociale su questa nuova forma di potere, compatibile con la sopravvivenza di un sistema democratico. È in questo senso che le mani che girano la chiave nella toppa della tirannia automatizzata sono quelle di Giorgio, quella di chi scrive, di chi legge, quella di tutte e tutti noi che abbiamo fornito e continuiamo a fornire i nostri dati. L’errore capitale è continuare a vedere il digitale come uno strumento neutrale o -peggio- “roba da esperti, informatici o tecnici”, anche dopo che questo è stato usato ripetutamente contro di noi, in maniera così plateale. Se non si comprende questo, ogni sforzo verso una società migliore rischia di essere spazzato via dalla tirannia automatizzata, quella che riconosce i migranti con sistemi di controllo satellitari da miliardi di euro piazzati a ogni confine e ne incrocia i dati con sistemi di riconoscimento biometrici, per braccarli con una precisione di dieci metri, anche nel mezzo di un deserto. Queste tecnologie possono essere utilizzate in qualsiasi momento contro giornalisti, oppositori, semplici cittadini. Anzi, stanno già venendo utilizzate oggi, come mostra il "caso Paragon" che ha fatto emergere sistemi di sorveglianza illegale a danno di giornalisti, preti e attivisti. Da questo punto di vista le cose in Europa vanno leggermente meglio. Nonostante il progetto ideale europeo sia naufragato in una struttura burocratica, cieca e sorda a tutto e funzionale alla finanza più che ai popoli, qualcosa si salva. La normativa sul trattamento dei dati (Gdpr) ci permette ancora di vivere l’avvento di personaggi come Trump e Musk con un barlume di speranza in più, rispetto ai cittadini americani. È molto probabile che i nostri governi stiano, sottobanco, abusando dei nostri dati (vedasi il caso Invalsi), ma per lo meno lo stanno facendo in maniera illegale e, se provassero a usare i dati in tribunale, potrebbero vedersela brutta. Forse potremmo ripartire da questa semplice osservazione, mentre proviamo a costruire un approccio al digitale basato sull’autogestione e sulla convivialità, invece che sul sogno di controllare (magari via norme) megastrutture impossibili da controllare per design. Il futuro non è ancora scritto, a patto di cominciare oggi stesso. Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Chi sta girando la chiave della contemporanea tirannia automatizzata? proviene da Altreconomia.
dati
Trump
piattaforme
meta
Opinioni
Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale che “le spara grosse”
Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di ubriacatura, hanno cominciato a sorgere voci critiche. Verso le reali potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti” nell’organismo che la controlla, seguiti al licenziamento e al successivo rientro da vincitore di Sam Altman, di cui abbiamo scritto qui).   Il dibattito, per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne: Timnit Gebru, Emily Bender e Meredith Whittaker. Grazie a una ricerca della prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano statisticamente molto di più nel riconoscere i tratti somatici delle minoranze etniche, e quando ha posto seriamente il problema dei rischi di queste tecnologie è stata licenziata in tronco da Google. La seconda è co-autrice dell’articolo “incriminato” nonché colei che ha etichettato i Large language model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi software realizzino il divorzio tra segno e significato. La terza attualmente lavora per Signal, uno dei software di chat criptati più sicuri al mondo, posizione a cui è giunta dopo essere stata costretta a lasciare Google per via del suo attivismo sindacale, nonché delle sue critiche nel campo della cosiddetta “etica dell’Ai”.   In Italia le migliori analisi recenti sono quelle contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due assoluti "must read" per chiunque voglia capire quali siano le principali mistificazioni che stanno alla base dell’Ai odierna.  Ma c’è un secondo livello a cui si presenta la mistificazione, che riguarda in particolare gli LLM: l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo software, anche se opportunamente ottimizzato sotto la supervisione umana per rispondere accuratamente, spesso produce output spazzatura.  Gli entusiasti dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione distorta della realtà, in psichiatria definita “percezione in assenza di stimolo”. Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della realtà che possa “andare in crisi” generando percezioni distorte analoghe alle allucinazioni di un essere umano. Per questo diversi autori preferiscono dire che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’ come uno studente interrogato che inventa notizie e personaggi storici per non fare scena muta (trovate gli articoli a cui mi riferisco qui e qui).   Non solo, i LLM abbassano in maniera impressionante il costo della creazione di campagne di marketing, propaganda o -più in generale- di qualsiasi testo che non debba essere di particolare complessità e originalità. Per questo si presentano come poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo socialmente verso il loro output, stanno generando diversi effetti di inquinamento della cosiddetta "infosfera". A iniziare dai contenuti (esplosione dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda politica ed elettorale; dei dati personali (creazione di informazioni false su persone vere); della produzione accademica (ricercatori, magari spinti dalle urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli, che vengono sottoposti a peer-review "automatizzate" utilizzando altri chatbot, creando un clima di generale crescita della sfiducia anche verso le pubblicazioni scientifiche). Se la narrazione mistificata dell’hype è correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle grosse” non potrà essere “corretta” per il semplice fatto che non è un comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.   La questione si comprende meglio se capiamo che l’output di questi modelli non è costruito come una risposta alle nostre domande, ma come un tentativo di costruire una frase che probabilmente avrà senso per un essere umano, sulla base del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà partire con le parole “La sconfitta di Caporetto fu causata da…”. La maggiore o minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM, che viene chiamato “temperatura”. Alte temperature causano più bullshit di quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare statisticamente frasi che hanno alta probabilità di avere senso compiuto basta non “allontanarsi troppo” dal contesto fornito dall’utente.   Questo fatto rende i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi nefasti che ne possono essere fatti.  “Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023). © riproduzione riservata L'articolo Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale che “le spara grosse” proviene da Altreconomia.
Stati Uniti
Opinioni
Intelligenza artificiale
chatgpt
big tech