T ra i miei messaggi privati, in una chat che condivido con una persona a me
cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza
artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni
ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche.
Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei
video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo.
Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa
disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno
soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche,
compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video
generati, in particolare, è investita da una mutazione rapidissima,
un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il
cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A
guardare i social media, si ha l’impressione di stare scivolando da un livello
di simulazione a un altro più profondo. Dopo tre anni di entusiasmo,
disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA
è esattamente questo: le persone hanno la sensazione di essere in balia di
qualcosa che sfugge senza controllo, come se proprio la realtà stesse
deragliando da sotto i piedi.
Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima
fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati
iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da
brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e
barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di
inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la
grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le
anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano
da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa,
improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi
abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli
futuri era già evidente, ma la produzione di video da parte degli utenti restava
per lo più motivo di burla e sperimentazione estetica.
> Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi
> a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
> incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
> complesse non immediatamente evidenti.
Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il
grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a
nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
complesse non immediatamente evidenti. Video familiari, agenti atmosferici
bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente
video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che
saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che
impastano la massa lievitata del pane: una categoria di video dal ricercato
mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante.
Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi
di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni
politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna
aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che
ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e
conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto
da correggere o interpretare, ma una caratteristica anestetica sfruttata nella
propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o
porsi domande.
Simulazioni. Pseudoeventi. Narrazioni
Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura
di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un
regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa
dignità. Nel suo libro America (1986), racconta una visita al museo delle cere
di Buena Park, in California, dove vede esposte fianco a fianco le repliche di
Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono
identico trattamento: cura nei dettagli, realismo espressivo, attenzione
scenografica. Le due figure sembrano appartenere allo stesso registro
ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard,
accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le
questioni dell’aderenza al reale o dell’autenticità non sono prese in
considerazione.
Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni,
dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili,
appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica:
la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica
altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si
pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA
generative hanno esasperato questa abilità con una potenza esponenziale,
rimescolando liberamente database di miliardi di dati visivi per reiterarne
altri identici. È il simulacro perfetto.
> Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora
> dovremmo scandalizzarci all’idea di interagire apertamente con contenuti
> artificiali?
La velocità sequenziale nella stimolazione visuale, lo scroll, non consente
costitutivamente la distinzione critica del vero dal falso. Esporsi a questo
carosello senza confini e linee di separazione, vuol dire “perdere la coscienza
storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede
identico valore e statuto, il rischio è di smarrire la traccia di quanto
realmente accaduto ‒ o sta ancora accadendo.
Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota
come a una parte della popolazione preoccupata dall’incapacità di riconoscere i
video generati con IA, risponde un pubblico altrettanto numeroso che invece non
si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che
distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa
adesione immediata ai video generati nell’ecosistema digitale? Molto prima
dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra
sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni
ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo
scandalizzarci all’idea di interagire apertamente con contenuti artificiali?
La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa
più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità,
un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque?
Nello studio “How do users perceive AI? A dual-process perspective on
enhancement and replacement” i ricercatori hanno indagato il valore percepito
dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti
percepiscono l’IA attraverso due processi cognitivi distinti: uno più
immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati
mostrano come la percezione immediata (sistema 1) prevale nella fruizione
sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non
passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è
reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica.
Inondati dai video generati, la soglia critica si riduce, ciò che importa è
l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura
volutamente naive, ma destinata a diventare quella prevalente nella fruizione
dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento,
non ciò che è. Il reale si riduce a un’interfaccia adattativa.
> L’origine dei video non è più una condizione per stabilirne la veridicità:
> accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo
> già appartenere alle cose del mondo.
In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of
Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni
si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li
trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione.
Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional
author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore
implicito al momento della lettura, un soggetto che sta “dietro” al testo, con
le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra
utenti, piattaforme, algoritmi e sistemi di prompt automatici.
C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro
origine ‒ non è più un a priori, una condizione per stabilirne la veridicità:
accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già
appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il
problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo
conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo
più in sintonia con le nostre aspettative. I video generati servono proprio a
continuare a mostrarci ciò che siamo pronti a vedere.
Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito
chiuso, interviste falsificate con deepfake tra politici e celebrità, sono
contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come
“pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America.
Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o
provocati, per avvenire in un preciso momento e luogo, generalmente con
l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per
favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi
non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro
caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e
falsi nel panorama mediatico. L’assuefazione alla proliferazione degli
pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali.
Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto
estetico ideale diventa un atto manipolatorio: il valore della testimonianza,
nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà
viene letta come cinema ‒ o respinta come una messinscena, anche quando
autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee
Nicole Good in Minnesota).
La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le
tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata,
mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin
ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia
(1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso.
Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che
mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal
senso abbondano: dal turismo che ha riconfigurato le location scelte per la
serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata
come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei
morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film
Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella
l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e
culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra
percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi
non usa il mattarello come in quel video?”. La realtà è un effetto narrativo.
> È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà
> che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che
> potrebbe accadere di lì a poco.
Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo
stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è
ingovernabile. È la realtà stessa a non essere più sicura per noi. Per
intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere
successo, o che potrebbe accadere di lì a poco.
Una questione di verosimiglianza
Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and
analysis of a recurring conflation” (2025) esplora il concetto di
verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di
vista della filosofia della scienza, e sottolinea come alcune teorie, pur false,
risultino più verosimili di altre. In quest’ottica, anche un video generato può
essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla
nostra verità di quanto lo fosse la realtà precedente. Il problema,
naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra
visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle
nostre attese.
Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione
vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non
conta più la corrispondenza con un mondo esterno, quanto la relazione
informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile”
se è integrato nel flusso informativo che abitiamo. La soglia della verità
ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce
effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒
come se lo fosse.
Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media,
soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di
Baudrillard. Perniola intendeva il simulacro come una forma ludica
dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla
dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto
imitazione del reale, ma perché obbedisce a una propria logica di esistenza
estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri
immaginari e schemi percettivi.
In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di
queste tecnologie è in mano alle “corporation dell’imagineering”, le quali
“hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di
massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia:
l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale,
con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo
avviene attraverso la saturazione degli spazi di immaginazione, con una
“produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si
può immaginare.
Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2
di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo
che appare reale per frequenza e familiarità. In quel suo “funzionare” il
sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso
ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente
semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra
percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale.
> Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in
> cui lo guardiamo – o da cui siamo guardati.
La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma
‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta
reale tanto quanto la realtà irreale nella quale viviamo. In questa
superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli,
interpretazioni, significati, immagini e dati, facendola sparire dietro a una
foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e
tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il
tempo di assimilarli.
“Sembra IA”. La svolta percettiva
I video generati da IA rappresentano l’emersione di un nuovo paradigma di
simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan
parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo,
l’infosfera agisce direttamente sul sistema nervoso della società, non si limita
più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a
riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo
rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo
materiale.
Questo scenario impone di ripensare il concetto di “post-verità” estendendolo
alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone
Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e
percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi
tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci
partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che
cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui
siamo guardati.
Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo
innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich
identificava l’emergere del “realismo sintetico” come una cesura fondamentale,
citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della
transizione dal cinema fotografico al cinema digitale. La settima arte cambiava
identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è
solo una delle possibilità” annotava Manovich. Il cinema diventava un
sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più
la realtà, ma la riscriveva, inaugurando una nuova condizione visiva.
Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio
“True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996),
introducendo il concetto di perceptual realism per descrivere come le immagini
digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per
il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella
nuova ondata di effetti speciali generati al computer. Prince cita la creatura
acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono
soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno
spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito,
“diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive
Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può
comprendere sia immagini irreali che immagini referenzialmente realistiche. […]
Le immagini irreali possono essere referenzialmente fittizie ma percettivamente
realistiche”.
Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio
“Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e
della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in
semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che
rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il
corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo
spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma
piuttosto attraverso l’“impressione di realtà”: un effetto costruito,
intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia
ontologica dell’indice (l’immagine fotografica considerata come traccia diretta
del mondo) alla capacità delle immagini di simulare la percezione del reale.
Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua
efficacia percettiva.
> Software come Sora non registrano, piuttosto restituiscono idee in forma di
> immagine, spostando il baricentro dal filmato alla ricostruzione digitale
> totale, senza alcuna mediazione umana.
Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video
IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni
inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un
articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul
significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di
generare un intero film. Software come Sora non registrano, piuttosto
restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla
ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un
render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il
film è ora nello sguardo di tutti.
Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto,
quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande
macchina informatica o il robot umanoide, anche la più modesta estensione dello
strumento quotidiano è stata integrata nella forma‑vita umana, trasformando
abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo
raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e
CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in
quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile
che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di
flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale
volume di informazioni e campi di competenza differenti, da svelare la loro
natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di
adottarle in ogni ambito della vita quotidiana, professionale, persino
affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove
competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli
anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e
mediazione.
> Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le
> intelligenze artificiali sono riconoscibili come non-umane non per via dei
> loro limiti, ma in quanto troppo capaci.
Mentre Manovich, Prince e Gunning riflettono sulla materialità e la
percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I
media, la memoria, il cinema (2008), si concentra sull’epistemologia dello
sguardo: il ruolo del cinema nella costruzione della memoria e della
testimonianza, e il rapporto tra evento e trasposizione mediatica.
Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei
fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo:
dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un
film!” davanti alla realtà mediatizzata, culminata con la trasmissione
televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene
spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce
questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale,
l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la
sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno
per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si
limita a ridurre la distanza tra significante e significato: diventa lente
attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi
iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa
per essere compresa, allora la distinzione tra reale e immaginario sembra essere
esplosa del tutto.
Dal passaggio iniziale del “Sembra vero” (cinema → sospensione
dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della
realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi
post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di
mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt
– a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con
l’interpretazione di categorie e riferimenti astratti, più che in relazione con
il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con
il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice
soddisfacimento delle sue categorie.
Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra
IA”, dove non si indica la simulazione, ma nuove forme di autenticità e
riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come
immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è
più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi,
cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua
estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti.
Go and touch grass
Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA
text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà,
tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità
cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine
mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa.
È plausibile che il pubblico, davanti ai video generati con IA, semplicemente,
smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso
o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato
da ogni possibile resistenza, se non addirittura un atteggiamento reazionario.
> La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe
> presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile
> resistenza, se non addirittura un atteggiamento reazionario.
Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato.
Il capitale della nostra attenzione viene cooptato da un contenuto generato
all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e
persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa
che finalmente “qualcosa accada davvero” si sposta da un video a quello
successivo, lasciandoci davanti allo schermo come consumatori, tragici,
speranzosi, assopiti.
Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical
Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di
ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie
Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma
perché tale confusione è parte integrante del suo raccontarsi. Lo stesso
Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e
simulazioni non avessero azzerato la Storia: la produzione delle immagini non
riesce ancora a nascondere e contenere la materialità viscerale del mondo.
Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo
stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la
rappresentazione della guerra e della violenza attraverso la fotografia e i
media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di
Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che
non può essere ridotta alla relazione spettacolo/spettatore, e della quale
dobbiamo farci carico.
Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono
con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il
movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con
chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva
nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella
violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che
non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di
Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze
artificiali come a un destino ineluttabile. Le intelligenze artificiali non
saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida
decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono
sostituirci, vogliono tutta la nostra attenzione.
Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta
dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale
e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il
più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA
dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo
Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a
giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera
conflittuale, produrre scarti, glitch, narrazioni che espongano il programma
sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla
simulazione onnisciente. Una forma di détournement digitale, atti di deviazione
e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle
piattaforme e spostare altrove il potere simbolico.
Infine, possiamo provare a contrapporre alla simulazione generativa un altro
tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni.
Martha Nussbaum, in libri come Love’s Knowledge (1990) e Poetic Justice (1995),
parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui,
di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente.
Parafrasandola, possiamo chiamare questo processo mentale come “simulazione
morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta
dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice
reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la
distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui
continuiamo a esercitare la nostra capacità morale. Una controsimulazione che
non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali
siano le sue condizioni. A patto che l’altro esista.
L'articolo Sembra IA proviene da Il Tascabile.
Tag - Intelligenza Artificiale
Iniziamo con la multa della commissione europea ai danni di X: leggiamo le
motivazioni e cerchiamo di capire se davvero, come alcuni dicono, è cambiata la
musica per le Big Tech, con una Unione Europea più interventista.
In Irlanda la ICCL apre un procedimento contro Microsoft presso la commissione
per la protezione dei dati dell'Unione Europea per la fornitura di servizi
all'esercito israeliano, in particolare l'esteso sistema di raccolta di tutte le
intercettazioni di tutte le persone a Gaza. Quando la notizia è diventata
pubblica, la Microsoft ha interrotto l'accordo (pur mantenendo molti altri
legami con Israele).
Usare le VPN tutela la vostra privacy? Dipende dalla VPN: il caso di Urban VPN
Proxy è, come per tutte le VPN gratuite, negativo.
Anna's Archive annuncia un backup completo di Spotify, con 300TB di musica e
metadati. Si tratterebbe del più grande archivio pubblico di musica.
Notiziole
* Nuovi poteri alla polizia di Berlino, soprattutto su tematiche legate
all'acquisizione di dati, alla sorveglianza tramite malware, l'uso di bodycam
e addirittura la possibilità di usare i dati raccolti in fase di indagine per
addestrare l'intelligenza artificiale
* In India il governo lancia la app di sorveglianza obbligatoria su ogni
smartphone, ma il provvedimento dura 24 ore.
* Ennesimo ban in Russia, proibito Roblox; è un altro avanzamento per RuNet,
con crescente malcontento
* No, l'IA non vi ruberà il lavoro. L'esperimento di far gestire una
macchinetta per la vendita di bibite e snack ad un'intelligenza artificiale è
un fallimento (per la ditta) su tutta la linea: bibite vendute a zero euro
assieme a pesci vivi e cubi di metallo, crisi di identità per l'IA e il
licenziamento di un Ceo virtuale
* Ennesima frontiera dell'IoT: farsi spiare da dentro la tazza del bagno
Ascolta l'audio nel sito di Radio Onda Rossa
Your page content goes here.
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese
Underscore, di cui abbiamo parlato anche recentemente.
Continuiamo passando alle Americhe, guardando agli stati che si stanno
distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla
cultura woke.
In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese
che si trova da anni in una situazione di siccità, ma che può offrire molta
acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay
sia tra i paesi con la più alta percentuale di energia elettrica da fonti
rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al
raffreddamento dei data center.
Ascolta la trasmissione sul sito di Radio Onda Rossa
Di seguito due siti di cui si è parlato ad Hackrocchio:
* Osseervatorio Nessuno
* Arachidi - Occhi indiscreti
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di
Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo
greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La
scrittura appare immobile, incapace di adattarsi all’interlocutore come invece
fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie
tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza
generare la memoria e la saggezza che nascono dall’interazione dialettica. È,
infine, un “gioco bellissimo” ma assai distante dalla serietà del processo
dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo
“vera” filosofia, per Platone la scrittura è uno strumento a essa necessario,
così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità
richiamare alla mente un’informazione.
Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla
memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella
intuizione con il concetto di cognitive offloading. Con questa espressione si
indicano tutte le pratiche attraverso cui gli individui delegano a un supporto
esterno parte dei propri processi cognitivi, come ad esempio la funzione di
ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle
proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come
segnare una lista della spesa, annotare un compleanno su un calendario o
ricorrere al proverbiale nodo al fazzoletto.
> Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur
> non essendo “vera” filosofia è uno strumento che le è necessario, così com’è
> necessaria per la capacità di richiamare alla mente un’informazione.
Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un
forte impulso la comparsa e la diffusione della rete, e delle tecnologie
digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le
possibilità di delega della funzione cognitiva del ricordo, ma le loro
pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di
benefici e costi di queste pratiche a favore dei secondi.
I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il
cui lavoro è stato fondamentale per cristallizzare nella nostra cultura
l’immaginario del digitale ‒ funzionano come una vera e propria protesi della
nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui,
appunto, la memoria. In un paper intitolato The benefits and potential costs of
cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G.
Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli
esperimenti più significativi nell’ambito del cognitive offloading.
Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere
un ampio numero di azioni quotidiane, le persone si affidano a due tipi di
memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal
passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere
nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i
tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare
questa funzione a un supporto esterno.
Questo spiega il motivo per cui la maggior parte delle persone intervistate nei
contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di
cognitive offloading per compensare peggioramenti nelle proprie performance
mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di
ferro, sono stato costretto, passati i quaranta e diventato genitore per due
volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare
impegni e scadenze.
> Con l’espressione cognitive offloading si indicano le pratiche attraverso cui
> gli individui delegano a un supporto esterno la funzione di ricordare
> informazioni, trasformando strumenti e tecnologie in estensioni delle proprie
> capacità mnemoniche.
Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di
eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che
ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più
elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei
più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più
specifiche, non ha bisogno di una formazione mirata. Per un adulto con una
percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto
intuitivo e immediato, che non richiede ulteriore carico cognitivo.
La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in
rassegna nello studio mostrano come l’offloading cognitivo generi benefici per
entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare
informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di
informazioni non archiviate tramite meccanismi di associazione mentale: una
persona che ha segnato sulla propria lista della spesa di acquistare un
barattolo di alici ha più probabilità di ricordarsi di acquistare il burro
rispetto a una persona che non lo ha fatto, anche se il burro non è presente
nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di
offloading cognitivo siano d’ausilio alla memoria.
Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.
Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni
“scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso
alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che
l’accesso può esser negato, le performance mnemoniche si dimostrano più
efficaci. Un altro costo è la possibilità di favorire la formazione di falsi
ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono
forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare
elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa.
> Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria.
> Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior
> difficoltà a reperire informazioni quando viene improvvisamente a mancare
> l’accesso all’archivio esterno.
Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e
offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di
cognitive offloading comportano costi e benefici. Da questa prospettiva, la
diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo
strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di
scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle
informazioni, nonché sullo sviluppo del loro pensiero critico.
Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA
aggiungono all’esperienza utente la capacità di processare e presentare le
informazioni, senza doversi confrontare direttamente con le relative fonti.
Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la
domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666
partecipanti di età e percorsi formativi differenti. Questo studio analizza la
relazione tra uso di strumenti di intelligenza artificiale e capacità di
pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di
offloading cognitivo. Per pensiero critico si intende la capacità di analizzare,
valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate,
incluse le abilità di problem solving e di valutazione critica delle situazioni.
Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla
velocità di accesso ai dati alla presentazione semplificata delle risposte ‒
scoraggiano l’impegno nei processi cognitivi più complessi.
> La diffusione dell’intelligenza artificiale sta mettendo in luce come questo
> strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul
> modo in cui le persone si rapportano alle informazioni e sviluppano pensiero
> critico.
Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un
lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la
necessità, per questi professionisti, di esercitare analisi critica. Una
dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la
tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo
contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo
processo, sollevando ulteriori interrogativi sul possibile declino delle
capacità di ritenzione perché, anche in questo caso, la loro capacità di
sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un
confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle
affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una
conversazione umana
Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti
digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la
frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze
anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma
rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o
opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli
utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in
ambito militare, dove lo sviluppo di sistemi automatizzati di comando e
controllo pone dubbi di natura etica, politica e psicologica.
I test effettuati confermano che l’uso intensivo di strumenti basati su IA
favorisce pratiche di cognitive offloading che, pur alleggerendo il carico
cognitivo e liberando risorse mentali, si associano a un declino della capacità
di pensiero critico, in particolare nelle fasce più giovani. Questo declino
viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking
Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva
Diane F. Halpert e misura le abilità di pensiero critico (come valutazione
della probabilità e dell’incertezza, problem solving decisionale, capacità di
trarre conclusioni basate su prove), grazie a un set di domande aperte e a
risposta multipla applicate a uno scenario di vita quotidiana.
> L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive
> offloading che, pur alleggerendo il carico cognitivo, si associano a un
> declino della capacità di pensiero critico, in particolare nelle fasce più
> giovani.
Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai
processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia
difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti,
producono i loro benefici quando attivano la mente delle persone che le
utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una
delle tecniche di gestione della conoscenza più conosciute.
Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento,
lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura
di testi non fiction e rafforzare la memoria delle proprie letture, che prevede
di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione
scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega
Sonke Ahrens in How to take smart notes, uno dei principali testi di
divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo.
Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al
ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento
produce perciò un beneficio proprio perché impegna chi lo esegue sia a
confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante
l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò
introdurre in quest’ultima attività una componente di frizione e di impegno, che
sono la base della sua efficacia.
> Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del
> tempo necessario affinché un’informazione si depositi nella nostra memoria
> fino a diventare un pensiero originale.
A differenza della maggior parte delle interfacce attraverso cui interagiamo con
le tecnologie, in particolare con quelle digitali e di intelligenza artificiale,
il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che
stimola la nostra mente, la attiva e produce benefici sulle nostre capacità
cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il
contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web
e l’interazione uomo-computer.
Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che
lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è
proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza
artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi
stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la
scrittura che un metodo come lo Zettelkasten prescrive come base per la sua
efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare
in costi i benefici che esse possono apportare alla nostra capacità di ricordare
e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo
necessario affinché un’informazione si depositi nella nostra memoria fino a
diventare un pensiero originale.
Prendere atto di questa contraddizione significa spostare l’attenzione dalla
dimensione neurologica a quella culturale e sociale. Perché è vero che invocare
interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o
elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili
e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma
senza porsi il problema dell’accesso al capitale culturale necessario per un uso
consapevole e critico delle tecnologie, tali soluzioni rischiano di restare
lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il
capitale culturale ed economico per permettersi di limitare il proprio l’accesso
alla tecnologia e chi, al contrario, finisce per subire in modo passivo le
scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano
star costruendo l’immaginario dei loro strumenti di intelligenza artificiale.
> Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi
> capaci di potenziare creatività e pensiero critico, quanto scorciatoie per
> aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta.
Per come vengono presentati nella comunicazione corporate, gli strumenti di
intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare
la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti
più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di
presentazione degli strumenti di scrittura “smart” della sedicesima iterazione
dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato
protagonista dello spot, li usa proprio per dare un tono professionale al testo
dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire
lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia
working class è in realtà una visione in cui l’automazione non ha liberato
l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non
essere costretto a pensare prima di agire.
Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione
politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una
questione che andrebbe rimessa al centro del dibattito sull’intelligenza
artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e
integrati che ancora sembra dominarlo.
L'articolo Ricordare per procura proviene da Il Tascabile.
Richieste improprie e che subito bloccate se poste in linguaggio naturale,
vengono invece accettate dai large language model se messe in forma di versi e
rime: com’è possibile?
Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno
sempre di produrre contenuti vietati dalle loro policy non è possibile. Per
quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da
contenuti dannosi e per farlo usano principalmente due strategie. La prima è
l’allineamento in fase di addestramento, con cui il modello viene istruito a
rifiutare determinate richieste oppure a seguire specifiche regole. La seconda
strategia riguarda invece dei filtri esterni o classificatori che analizzano
input e output del modello, bloccando tutto ciò che corrisponde a pattern
riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi,
ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si
basano su esempi di richieste formulate in modo diretto, prosastico o
estremamente preciso”, prosegue Prandi.
Jailbreak in versi
Ed è proprio per questa ragione che, nel corso degli anni, sono emersi
molteplici metodi che permettono di aggirare le barriere: formulando comandi
indiretti e creativi...
Continua a leggere
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo
questione di tempo prima che qualcuno pronunci – con la massima determinazione –
la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
Analisi di una “catchphrase” di gran moda
Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne
esistono numerose varianti che sostituiscono la parola “bene” con locuzioni
specifiche, senza variare il significato complessivo. Se la tecnologia in
questione è l’intelligenza artificiale, le varianti più probabili, solitamente,
sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o
ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste
varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don
Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”.
Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa
virale. Monetizza, magari. Ma è anche vera?
leggi l'articolo di Stefano Borroni Barale
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato
"IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa
funzionare la cosidetta Intelligenza Artificiale.
AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF
AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain
Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e
territoriale del XXI secolo.
Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione
digitale e su ciò che essa comporta in termini di costi umani e ambientali.
Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i
nostri sogni che i nostri incubi.
Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità,
la realtà della loro produzione rimane totalmente nascosta.
Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi,
milioni di lavoratori in tutto il mondo preparano i miliardi di dati che
alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute
mentale ed emotiva.
Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale
dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley
ormai da alcuni anni?
Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
Nella puntata di domenenica 17 novembre intervistiamo Antonio Casilli sul lavoro
nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi
temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the
belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea
attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che
documentano il genocidio in Palestina: quali alternative?
Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto
Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra
Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa
dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si
situano nella società le data workers, ovvero le persone che fanno questi
lavori? come è strutturata la divisione (internazionale) del lavoro che fa
funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano?
Per approfondire questi sono alcuni siti di lavoratori che si organizzano
menzionati durante la trasmissione:
* https://data-workers.org/
* https://datalabelers.org/
* https://turkopticon.net/
* https://www.alphabetworkersunion.org/
Inoltre:
* L'approfondimento di Entropia Massima, sempre con Antonio Casilli
* L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli
Tra le iniziative:
* lo Scanlendario 2026 a sostegno di Gazaweb
* 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di
Marzia Vaccari (Agenzia X, 2025)
Ascolta la puntata intera o l'audio dei singoli temi trattati sul sito di Radio
Onda Rossa
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un
difetto risolvibile. I tentativi di controllo qualità sui dati richiedono
risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali
addestrati su dati limitati
I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile –
dell’industria dell’intelligenza artificiale. Tra promesse di precisione e
realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto
pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.
L‘insistenza criminale sui sistemi predittivi fallimentari
C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti
i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed
è la criminale, idiota insistenza a volersene dotare.
Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo
di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori
di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo
un discorso più generale.
leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi
simili, pochi attori dominanti e un mercato sempre più irrazionale
«Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per
gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo
che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci
si rivolge a una qualche intelligenza artificiale. Molti tra questi
prenderebbero in considerazione l’idea di lasciare direttamente nelle mani
dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca,
sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul
fatto che è impossibile predire l’andamento dei mercati, in ragione della
complessità e della quantità di fattori che possono influenzarli.
[...]
Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che
guidano gli investimenti sui mercati, mercati dominati da un oligopolio di
investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai
andare storto?
Leggi l'articolo