Tag - Intelligenza Artificiale

Sembra IA
T ra i miei messaggi privati, in una chat che condivido con una persona a me cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche. Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo. Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche, compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video generati, in particolare, è investita da una mutazione rapidissima, un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A guardare i social media, si ha l’impressione di stare scivolando da un livello di simulazione a un altro più profondo. Dopo tre anni di entusiasmo, disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA è esattamente questo: le persone hanno la sensazione di essere in balia di qualcosa che sfugge senza controllo, come se proprio la realtà stesse deragliando da sotto i piedi. Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa, improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli futuri era già evidente, ma la produzione di video da parte degli utenti restava per lo più motivo di burla e sperimentazione estetica. > Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi > a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole > incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche > complesse non immediatamente evidenti. Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche complesse non immediatamente evidenti. Video familiari, agenti atmosferici bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che impastano la massa lievitata del pane: una categoria di video dal ricercato mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante. Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto da correggere o interpretare, ma una caratteristica anestetica sfruttata nella propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o porsi domande. Simulazioni. Pseudoeventi. Narrazioni Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa dignità. Nel suo libro America (1986), racconta una visita al museo delle cere di Buena Park, in California, dove vede esposte fianco a fianco le repliche di Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono identico trattamento: cura nei dettagli, realismo espressivo, attenzione scenografica. Le due figure sembrano appartenere allo stesso registro ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard, accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le questioni dell’aderenza al reale o dell’autenticità non sono prese in considerazione. Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni, dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili, appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica: la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA generative hanno esasperato questa abilità con una potenza esponenziale, rimescolando liberamente database di miliardi di dati visivi per reiterarne altri identici. È il simulacro perfetto. > Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora > dovremmo scandalizzarci all’idea di interagire apertamente con contenuti > artificiali? La velocità sequenziale nella stimolazione visuale, lo scroll, non consente costitutivamente la distinzione critica del vero dal falso. Esporsi a questo carosello senza confini e linee di separazione, vuol dire “perdere la coscienza storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede identico valore e statuto, il rischio è di smarrire la traccia di quanto realmente accaduto ‒ o  sta ancora accadendo. Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota come a una parte della popolazione preoccupata dall’incapacità di riconoscere i video generati con IA, risponde un pubblico altrettanto numeroso che invece non si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa adesione immediata ai video generati nell’ecosistema digitale? Molto prima dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo scandalizzarci all’idea di interagire apertamente con contenuti artificiali? La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità, un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque? Nello studio “How do users perceive AI? A dual-process perspective on enhancement and replacement” i ricercatori hanno indagato il valore percepito dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti percepiscono l’IA attraverso due processi cognitivi distinti: uno più immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati mostrano come la percezione immediata (sistema 1) prevale nella fruizione sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica. Inondati dai video generati, la soglia critica si riduce, ciò che importa è l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura volutamente naive, ma destinata a diventare quella prevalente nella fruizione dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento, non ciò che è. Il reale si riduce a un’interfaccia adattativa. > L’origine dei video non è più una condizione per stabilirne la veridicità: > accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo > già appartenere alle cose del mondo. In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione. Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore implicito al momento della lettura, un soggetto che sta “dietro” al testo, con le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra utenti, piattaforme, algoritmi e sistemi di prompt automatici. C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro origine ‒ non è più un a priori, una condizione per stabilirne la veridicità: accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo più in sintonia con le nostre aspettative. I video generati servono proprio a continuare a mostrarci ciò che siamo pronti a vedere. Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito chiuso, interviste falsificate con deepfake tra politici e celebrità, sono contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come “pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America. Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o provocati, per avvenire in un preciso momento e luogo, generalmente con l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e falsi nel panorama mediatico. L’assuefazione alla proliferazione degli pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali. Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto estetico ideale diventa un atto manipolatorio: il valore della testimonianza, nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà viene letta come cinema ‒ o respinta come una messinscena, anche quando autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee Nicole Good in Minnesota). La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata, mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia (1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso. Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal senso abbondano: dal turismo che ha riconfigurato le location scelte per la serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi non usa il mattarello come in quel video?”. La realtà è un effetto narrativo. > È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà > che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che > potrebbe accadere di lì a poco. Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è ingovernabile. È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che potrebbe accadere di lì a poco. Una questione di verosimiglianza Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and analysis of a recurring conflation” (2025) esplora il concetto di verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di vista della filosofia della scienza, e sottolinea come alcune teorie, pur false, risultino più verosimili di altre. In quest’ottica, anche un video generato può essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla nostra verità di quanto lo fosse la realtà precedente. Il problema, naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle nostre attese. Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non conta più la corrispondenza con un mondo esterno, quanto la relazione informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile” se è integrato nel flusso informativo che abitiamo. La soglia della verità ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒ come se lo fosse. Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media, soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di Baudrillard. Perniola intendeva il simulacro come una forma ludica dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto imitazione del reale, ma perché obbedisce a una propria logica di esistenza estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri immaginari e schemi percettivi. In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di queste tecnologie è in mano alle “corporation dell’imagineering”, le quali “hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia: l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale, con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo avviene attraverso la saturazione degli spazi di immaginazione, con una “produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si può immaginare. Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2 di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo che appare reale per frequenza e familiarità. In quel suo “funzionare” il sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale. > Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in > cui lo guardiamo – o da cui siamo guardati. La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma ‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta reale tanto quanto la realtà irreale nella quale viviamo. In questa superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli, interpretazioni, significati, immagini e dati, facendola sparire dietro a una foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il tempo di assimilarli. “Sembra IA”. La svolta percettiva I video generati da IA rappresentano l’emersione di un nuovo paradigma di simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo, l’infosfera agisce direttamente sul sistema nervoso della società, non si limita più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo materiale. Questo scenario impone di ripensare il concetto di “post-verità” estendendolo alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui siamo guardati. Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich identificava l’emergere del “realismo sintetico” come una cesura fondamentale, citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della transizione dal cinema fotografico al cinema digitale. La settima arte cambiava identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è solo una delle possibilità” annotava Manovich. Il cinema diventava un sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più la realtà, ma la riscriveva, inaugurando una nuova condizione visiva. Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio “True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996), introducendo il concetto di perceptual realism per descrivere come le immagini digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella nuova ondata di effetti speciali generati al computer. Prince cita la creatura acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito, “diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può comprendere sia immagini irreali che immagini referenzialmente realistiche. […] Le immagini irreali possono essere referenzialmente fittizie ma percettivamente realistiche”. Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio “Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma piuttosto attraverso l’“impressione di realtà”: un effetto costruito, intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia ontologica dell’indice (l’immagine fotografica considerata come traccia diretta del mondo) alla capacità delle immagini di simulare la percezione del reale. Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua efficacia percettiva. > Software come Sora non registrano, piuttosto restituiscono idee in forma di > immagine, spostando il baricentro dal filmato alla ricostruzione digitale > totale, senza alcuna mediazione umana. Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di generare un intero film. Software come Sora non registrano, piuttosto restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il film è ora nello sguardo di tutti. Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto, quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande macchina informatica o il robot umanoide, anche la più modesta estensione dello strumento quotidiano è stata integrata nella forma‑vita umana, trasformando abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale volume di informazioni e campi di competenza differenti, da svelare la loro natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di adottarle in ogni ambito della vita quotidiana, professionale, persino affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e mediazione. > Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le > intelligenze artificiali sono riconoscibili come non-umane non per via dei > loro limiti, ma in quanto troppo capaci. Mentre Manovich, Prince e Gunning riflettono sulla materialità e la percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I media, la memoria, il cinema (2008), si concentra sull’epistemologia dello sguardo: il ruolo del cinema nella costruzione della memoria e della testimonianza, e il rapporto tra evento e trasposizione mediatica. Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo: dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un film!” davanti alla realtà mediatizzata, culminata con la trasmissione televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale, l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si limita a ridurre la distanza tra significante e significato: diventa lente attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa per essere compresa, allora la distinzione tra reale e immaginario sembra essere esplosa del tutto. Dal passaggio iniziale del “Sembra vero” (cinema → sospensione dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt – a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con l’interpretazione di categorie e riferimenti astratti, più che in relazione con il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice soddisfacimento delle sue categorie. Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra IA”, dove non si indica la simulazione, ma nuove forme di autenticità e riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi, cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti. Go and touch grass Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà, tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa. È plausibile che il pubblico, davanti ai video generati con IA, semplicemente, smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile resistenza, se non addirittura un atteggiamento reazionario. > La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe > presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile > resistenza, se non addirittura un atteggiamento reazionario. Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato. Il capitale della nostra attenzione viene cooptato da un contenuto generato all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa che finalmente “qualcosa accada davvero” si sposta da un video a quello successivo, lasciandoci davanti allo schermo come consumatori, tragici, speranzosi, assopiti. Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma perché tale confusione è parte integrante del suo raccontarsi. Lo stesso Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e simulazioni non avessero azzerato la Storia: la produzione delle immagini non riesce ancora a nascondere e contenere la materialità viscerale del mondo. Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la rappresentazione della guerra e della violenza attraverso la fotografia e i media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che non può essere ridotta alla relazione spettacolo/spettatore, e della quale dobbiamo farci carico. Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze artificiali come a un destino ineluttabile. Le intelligenze artificiali non saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono sostituirci, vogliono tutta la nostra attenzione. Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera conflittuale, produrre scarti, glitch, narrazioni che espongano il programma sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla simulazione onnisciente. Una forma di détournement digitale, atti di deviazione e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle piattaforme e spostare altrove il potere simbolico. Infine, possiamo provare a contrapporre alla simulazione generativa un altro tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni. Martha Nussbaum, in libri come  Love’s Knowledge (1990) e Poetic Justice (1995), parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui, di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente. Parafrasandola, possiamo chiamare questo processo mentale come “simulazione morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui continuiamo a esercitare la nostra capacità morale. Una controsimulazione che non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali siano le sue condizioni. A patto che l’altro esista. L'articolo Sembra IA proviene da Il Tascabile.
Intelligenza Artificiale
Scienze
Le Dita Nella Presa - Sarà cambiata la musica?
Iniziamo con la multa della commissione europea ai danni di X: leggiamo le motivazioni e cerchiamo di capire se davvero, come alcuni dicono, è cambiata la musica per le Big Tech, con una Unione Europea più interventista. In Irlanda la ICCL apre un procedimento contro Microsoft presso la commissione per la protezione dei dati dell'Unione Europea per la fornitura di servizi all'esercito israeliano, in particolare l'esteso sistema di raccolta di tutte le intercettazioni di tutte le persone a Gaza. Quando la notizia è diventata pubblica, la Microsoft ha interrotto l'accordo (pur mantenendo molti altri legami con Israele). Usare le VPN tutela la vostra privacy? Dipende dalla VPN: il caso di Urban VPN Proxy è, come per tutte le VPN gratuite, negativo. Anna's Archive annuncia un backup completo di Spotify, con 300TB di musica e metadati. Si tratterebbe del più grande archivio pubblico di musica. Notiziole * Nuovi poteri alla polizia di Berlino, soprattutto su tematiche legate all'acquisizione di dati, alla sorveglianza tramite malware, l'uso di bodycam e addirittura la possibilità di usare i dati raccolti in fase di indagine per addestrare l'intelligenza artificiale * In India il governo lancia la app di sorveglianza obbligatoria su ogni smartphone, ma il provvedimento dura 24 ore. * Ennesimo ban in Russia, proibito Roblox; è un altro avanzamento per RuNet, con crescente malcontento * No, l'IA non vi ruberà il lavoro. L'esperimento di far gestire una macchinetta per la vendita di bibite e snack ad un'intelligenza artificiale è un fallimento (per la ditta) su tutta la linea: bibite vendute a zero euro assieme a pesci vivi e cubi di metallo, crisi di identità per l'IA e il licenziamento di un Ceo virtuale * Ennesima frontiera dell'IoT: farsi spiare da dentro la tazza del bagno Ascolta l'audio nel sito di Radio Onda Rossa Your page content goes here.
UE
Le Dita Nella Presa
Intelligenza Artificiale
Microsoft
VPN
Le Dita Nella Presa - Non è siccità, è saccheggio!
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese Underscore, di cui abbiamo parlato anche recentemente. Continuiamo passando alle Americhe, guardando agli stati che si stanno distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla cultura woke. In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese che si trova da anni in una situazione di siccità, ma che può offrire molta acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay sia tra i paesi con la più alta percentuale di energia elettrica da fonti rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al raffreddamento dei data center. Ascolta la trasmissione sul sito di Radio Onda Rossa Di seguito due siti di cui si è parlato ad Hackrocchio: * Osseervatorio Nessuno * Arachidi - Occhi indiscreti
AI
Intelligenza Artificiale
datacenter
Uruguay
Ricordare per procura
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La scrittura appare immobile, incapace di adattarsi all’interlocutore come invece fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza generare la memoria e la saggezza che nascono dall’interazione dialettica. È, infine, un “gioco bellissimo” ma assai distante dalla serietà del processo dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo “vera” filosofia, per Platone la scrittura è uno strumento a essa necessario, così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità richiamare alla mente un’informazione. Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella intuizione con il concetto di cognitive offloading. Con questa espressione si indicano tutte le pratiche attraverso cui gli individui delegano a un supporto esterno parte dei propri processi cognitivi, come ad esempio la funzione di ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come segnare una lista della spesa, annotare un compleanno su un calendario o ricorrere al proverbiale nodo al fazzoletto. > Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur > non essendo “vera” filosofia è uno strumento che le è necessario, così com’è > necessaria per la capacità di richiamare alla mente un’informazione. Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un forte impulso la comparsa e la diffusione della rete, e delle tecnologie digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le possibilità di delega della funzione cognitiva del ricordo, ma le loro pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di benefici e costi di queste pratiche a favore dei secondi. I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il cui lavoro è stato fondamentale per cristallizzare nella nostra cultura l’immaginario del digitale ‒ funzionano come una vera e propria protesi della nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui, appunto, la memoria. In un paper intitolato The benefits and potential costs of cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G. Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli esperimenti più significativi nell’ambito del cognitive offloading. Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere un ampio numero di azioni quotidiane, le persone si affidano a due tipi di memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare questa funzione a un supporto esterno. Questo spiega il motivo per cui la maggior parte delle persone intervistate nei contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di cognitive offloading per compensare peggioramenti nelle proprie performance mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di ferro, sono stato costretto, passati i quaranta e diventato genitore per due volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare impegni e scadenze. > Con l’espressione cognitive offloading si indicano le pratiche attraverso cui > gli individui delegano a un supporto esterno la funzione di ricordare > informazioni, trasformando strumenti e tecnologie in estensioni delle proprie > capacità mnemoniche. Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più specifiche, non ha bisogno di una formazione mirata. Per un adulto con una percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto intuitivo e immediato, che non richiede ulteriore carico cognitivo. La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in rassegna nello studio mostrano come l’offloading cognitivo generi benefici per entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di informazioni non archiviate tramite meccanismi di associazione mentale: una persona che ha segnato sulla propria lista della spesa di acquistare un barattolo di alici ha più probabilità di ricordarsi di acquistare il burro rispetto a una persona che non lo ha fatto, anche se il burro non è presente nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di offloading cognitivo siano d’ausilio alla memoria. Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.  Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni “scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che l’accesso può esser negato, le performance mnemoniche si dimostrano più efficaci. Un altro costo è la possibilità di favorire la formazione di falsi ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa. > Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria. > Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior > difficoltà a reperire informazioni quando viene improvvisamente a mancare > l’accesso all’archivio esterno. Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di cognitive offloading comportano costi e benefici. Da questa prospettiva, la diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle informazioni, nonché sullo sviluppo del loro pensiero critico. Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA aggiungono all’esperienza utente la capacità di processare e presentare le informazioni, senza doversi confrontare direttamente con le relative fonti. Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666 partecipanti di età e percorsi formativi differenti. Questo studio analizza la relazione tra uso di strumenti di intelligenza artificiale e capacità di pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di offloading cognitivo. Per pensiero critico si intende la capacità di analizzare, valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate, incluse le abilità di problem solving e di valutazione critica delle situazioni. Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla velocità di accesso ai dati alla presentazione semplificata delle risposte ‒ scoraggiano l’impegno nei processi cognitivi più complessi. > La diffusione dell’intelligenza artificiale sta mettendo in luce come questo > strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul > modo in cui le persone si rapportano alle informazioni e sviluppano pensiero > critico. Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la necessità, per questi professionisti, di esercitare analisi critica. Una dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo processo, sollevando ulteriori interrogativi sul possibile declino delle capacità di ritenzione perché, anche in questo caso, la loro capacità di sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una conversazione umana Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in ambito militare, dove lo sviluppo di sistemi automatizzati di comando e controllo pone dubbi di natura etica, politica e psicologica. I test effettuati confermano che l’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive offloading che, pur alleggerendo il carico cognitivo e liberando risorse mentali, si associano a un declino della capacità di pensiero critico, in particolare nelle fasce più giovani. Questo declino viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva Diane F. Halpert e misura le abilità di pensiero critico (come  valutazione della probabilità e dell’incertezza,  problem solving decisionale,  capacità di trarre conclusioni basate su prove), grazie a un set di domande aperte e a risposta multipla applicate a uno scenario di vita quotidiana. > L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive > offloading che, pur alleggerendo il carico cognitivo, si associano a un > declino della capacità di pensiero critico, in particolare nelle fasce più > giovani. Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti, producono i loro benefici quando attivano la mente delle persone che le utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una delle tecniche di gestione della conoscenza più conosciute. Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento, lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura di testi non fiction e rafforzare la memoria delle proprie letture, che prevede di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega Sonke Ahrens in How to take smart notes, uno dei principali testi di divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo. Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento produce perciò un beneficio proprio perché impegna chi lo esegue sia a confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò introdurre in quest’ultima attività una componente di frizione e di impegno, che sono la base della sua efficacia. > Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del > tempo necessario affinché un’informazione si depositi nella nostra memoria > fino a diventare un pensiero originale. A differenza della maggior parte delle interfacce attraverso cui interagiamo con le tecnologie, in particolare con quelle digitali e di intelligenza artificiale, il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che stimola la nostra mente, la attiva e produce benefici sulle nostre capacità cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web e l’interazione uomo-computer. Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la scrittura che un metodo come lo Zettelkasten prescrive come base per la sua efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare in costi i benefici che esse possono apportare alla nostra capacità di ricordare e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo necessario affinché un’informazione si depositi nella nostra memoria fino a diventare un pensiero originale. Prendere atto di questa contraddizione significa spostare l’attenzione dalla dimensione neurologica a quella culturale e sociale. Perché è vero che invocare interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma senza porsi il problema dell’accesso al capitale culturale necessario per un uso consapevole e critico delle tecnologie, tali soluzioni rischiano di restare lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il capitale culturale ed economico per permettersi di limitare il proprio l’accesso alla tecnologia e chi, al contrario, finisce per subire in modo passivo le scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano star costruendo l’immaginario dei loro strumenti di intelligenza artificiale. > Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi > capaci di potenziare creatività e pensiero critico, quanto scorciatoie per > aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta. Per come vengono presentati nella comunicazione corporate, gli strumenti di intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di presentazione degli strumenti di scrittura “smart” della sedicesima iterazione dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato protagonista dello spot, li usa proprio per dare un tono professionale al testo dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia working class è in realtà una visione in cui l’automazione non ha liberato l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non essere costretto a pensare prima di agire. Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una questione che andrebbe rimessa al centro del dibattito sull’intelligenza artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e integrati che ancora sembra dominarlo. L'articolo Ricordare per procura proviene da Il Tascabile.
Intelligenza Artificiale
Scienze
neuroscienze
scrittura
cognitive offloading
Perché la poesia manda in tilt ChatGPT
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile? Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi. Jailbreak in versi Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi... Continua a leggere
AI
Poesia
Intelligenza Artificiale
Prompt
Il problema non è l’intelligenza artificiale: basta usarla bene
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo questione di tempo prima che qualcuno pronunci – con la massima determinazione – la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”. Analisi di una “catchphrase” di gran moda Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne esistono numerose varianti che sostituiscono la parola “bene” con locuzioni specifiche, senza variare il significato complessivo. Se la tecnologia in questione è l’intelligenza artificiale, le varianti più probabili, solitamente, sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o ancora “appropriato”. In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”. Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa virale. Monetizza, magari. Ma è anche vera? leggi l'articolo di Stefano Borroni Barale
AI
Scuola
Intelligenza Artificiale
Stefano Barale
Proiezione di "In the belly of AI" al CSOA Forte Prenestino
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato "IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa funzionare la cosidetta Intelligenza Artificiale. AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e territoriale del XXI secolo. Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione digitale e su ciò che essa comporta in termini di costi umani e ambientali. Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i nostri sogni che i nostri incubi. Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità, la realtà della loro produzione rimane totalmente nascosta. Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi, milioni di lavoratori in tutto il mondo preparano i miliardi di dati che alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute mentale ed emotiva. Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley ormai da alcuni anni? Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
AI
Intelligenza Artificiale
lavoro
Le Dita Nella Presa - Nel ventre dell'IA
Nella puntata di domenenica 17 novembre intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire questi sono alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/ * https://turkopticon.net/ * https://www.alphabetworkersunion.org/ Inoltre: * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025) Ascolta la puntata intera o l'audio dei singoli temi trattati sul sito di Radio Onda Rossa
Palestina
Intelligenza Artificiale
GDPR
LLM
lavoratori
Modelli linguistici: oracoli da bar con manie di grandezza
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo. L‘insistenza criminale sui sistemi predittivi fallimentari C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare. Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale. leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
AI
Intelligenza Artificiale
LLM
DataKnightmare
L’intelligenza irrazionale. Come l’IA alimenta le bolle finanziarie
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi simili, pochi attori dominanti e un mercato sempre più irrazionale «Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci si rivolge a una qualche intelligenza artificiale. Molti tra questi prenderebbero in considerazione l’idea di lasciare direttamente nelle mani dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca, sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul fatto che è impossibile predire l’andamento dei mercati, in ragione della complessità e della quantità di fattori che possono influenzarli. [...] Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che guidano gli investimenti sui mercati, mercati dominati da un oligopolio di investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai andare storto? Leggi l'articolo
AI
Intelligenza Artificiale
finanza