T ra i miei messaggi privati, in una chat che condivido con una persona a me
cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza
artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni
ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche.
Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei
video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo.
Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa
disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno
soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche,
compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video
generati, in particolare, è investita da una mutazione rapidissima,
un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il
cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A
guardare i social media, si ha l’impressione di stare scivolando da un livello
di simulazione a un altro più profondo. Dopo tre anni di entusiasmo,
disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA
è esattamente questo: le persone hanno la sensazione di essere in balia di
qualcosa che sfugge senza controllo, come se proprio la realtà stesse
deragliando da sotto i piedi.
Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima
fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati
iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da
brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e
barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di
inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la
grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le
anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano
da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa,
improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi
abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli
futuri era già evidente, ma la produzione di video da parte degli utenti restava
per lo più motivo di burla e sperimentazione estetica.
> Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi
> a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
> incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
> complesse non immediatamente evidenti.
Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il
grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a
nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
complesse non immediatamente evidenti. Video familiari, agenti atmosferici
bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente
video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che
saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che
impastano la massa lievitata del pane: una categoria di video dal ricercato
mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante.
Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi
di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni
politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna
aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che
ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e
conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto
da correggere o interpretare, ma una caratteristica anestetica sfruttata nella
propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o
porsi domande.
Simulazioni. Pseudoeventi. Narrazioni
Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura
di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un
regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa
dignità. Nel suo libro America (1986), racconta una visita al museo delle cere
di Buena Park, in California, dove vede esposte fianco a fianco le repliche di
Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono
identico trattamento: cura nei dettagli, realismo espressivo, attenzione
scenografica. Le due figure sembrano appartenere allo stesso registro
ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard,
accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le
questioni dell’aderenza al reale o dell’autenticità non sono prese in
considerazione.
Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni,
dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili,
appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica:
la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica
altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si
pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA
generative hanno esasperato questa abilità con una potenza esponenziale,
rimescolando liberamente database di miliardi di dati visivi per reiterarne
altri identici. È il simulacro perfetto.
> Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora
> dovremmo scandalizzarci all’idea di interagire apertamente con contenuti
> artificiali?
La velocità sequenziale nella stimolazione visuale, lo scroll, non consente
costitutivamente la distinzione critica del vero dal falso. Esporsi a questo
carosello senza confini e linee di separazione, vuol dire “perdere la coscienza
storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede
identico valore e statuto, il rischio è di smarrire la traccia di quanto
realmente accaduto ‒ o sta ancora accadendo.
Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota
come a una parte della popolazione preoccupata dall’incapacità di riconoscere i
video generati con IA, risponde un pubblico altrettanto numeroso che invece non
si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che
distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa
adesione immediata ai video generati nell’ecosistema digitale? Molto prima
dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra
sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni
ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo
scandalizzarci all’idea di interagire apertamente con contenuti artificiali?
La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa
più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità,
un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque?
Nello studio “How do users perceive AI? A dual-process perspective on
enhancement and replacement” i ricercatori hanno indagato il valore percepito
dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti
percepiscono l’IA attraverso due processi cognitivi distinti: uno più
immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati
mostrano come la percezione immediata (sistema 1) prevale nella fruizione
sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non
passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è
reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica.
Inondati dai video generati, la soglia critica si riduce, ciò che importa è
l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura
volutamente naive, ma destinata a diventare quella prevalente nella fruizione
dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento,
non ciò che è. Il reale si riduce a un’interfaccia adattativa.
> L’origine dei video non è più una condizione per stabilirne la veridicità:
> accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo
> già appartenere alle cose del mondo.
In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of
Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni
si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li
trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione.
Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional
author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore
implicito al momento della lettura, un soggetto che sta “dietro” al testo, con
le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra
utenti, piattaforme, algoritmi e sistemi di prompt automatici.
C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro
origine ‒ non è più un a priori, una condizione per stabilirne la veridicità:
accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già
appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il
problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo
conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo
più in sintonia con le nostre aspettative. I video generati servono proprio a
continuare a mostrarci ciò che siamo pronti a vedere.
Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito
chiuso, interviste falsificate con deepfake tra politici e celebrità, sono
contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come
“pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America.
Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o
provocati, per avvenire in un preciso momento e luogo, generalmente con
l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per
favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi
non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro
caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e
falsi nel panorama mediatico. L’assuefazione alla proliferazione degli
pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali.
Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto
estetico ideale diventa un atto manipolatorio: il valore della testimonianza,
nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà
viene letta come cinema ‒ o respinta come una messinscena, anche quando
autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee
Nicole Good in Minnesota).
La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le
tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata,
mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin
ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia
(1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso.
Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che
mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal
senso abbondano: dal turismo che ha riconfigurato le location scelte per la
serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata
come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei
morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film
Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella
l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e
culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra
percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi
non usa il mattarello come in quel video?”. La realtà è un effetto narrativo.
> È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà
> che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che
> potrebbe accadere di lì a poco.
Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo
stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è
ingovernabile. È la realtà stessa a non essere più sicura per noi. Per
intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere
successo, o che potrebbe accadere di lì a poco.
Una questione di verosimiglianza
Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and
analysis of a recurring conflation” (2025) esplora il concetto di
verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di
vista della filosofia della scienza, e sottolinea come alcune teorie, pur false,
risultino più verosimili di altre. In quest’ottica, anche un video generato può
essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla
nostra verità di quanto lo fosse la realtà precedente. Il problema,
naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra
visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle
nostre attese.
Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione
vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non
conta più la corrispondenza con un mondo esterno, quanto la relazione
informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile”
se è integrato nel flusso informativo che abitiamo. La soglia della verità
ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce
effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒
come se lo fosse.
Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media,
soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di
Baudrillard. Perniola intendeva il simulacro come una forma ludica
dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla
dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto
imitazione del reale, ma perché obbedisce a una propria logica di esistenza
estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri
immaginari e schemi percettivi.
In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di
queste tecnologie è in mano alle “corporation dell’imagineering”, le quali
“hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di
massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia:
l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale,
con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo
avviene attraverso la saturazione degli spazi di immaginazione, con una
“produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si
può immaginare.
Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2
di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo
che appare reale per frequenza e familiarità. In quel suo “funzionare” il
sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso
ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente
semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra
percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale.
> Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in
> cui lo guardiamo – o da cui siamo guardati.
La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma
‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta
reale tanto quanto la realtà irreale nella quale viviamo. In questa
superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli,
interpretazioni, significati, immagini e dati, facendola sparire dietro a una
foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e
tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il
tempo di assimilarli.
“Sembra IA”. La svolta percettiva
I video generati da IA rappresentano l’emersione di un nuovo paradigma di
simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan
parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo,
l’infosfera agisce direttamente sul sistema nervoso della società, non si limita
più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a
riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo
rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo
materiale.
Questo scenario impone di ripensare il concetto di “post-verità” estendendolo
alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone
Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e
percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi
tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci
partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che
cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui
siamo guardati.
Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo
innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich
identificava l’emergere del “realismo sintetico” come una cesura fondamentale,
citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della
transizione dal cinema fotografico al cinema digitale. La settima arte cambiava
identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è
solo una delle possibilità” annotava Manovich. Il cinema diventava un
sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più
la realtà, ma la riscriveva, inaugurando una nuova condizione visiva.
Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio
“True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996),
introducendo il concetto di perceptual realism per descrivere come le immagini
digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per
il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella
nuova ondata di effetti speciali generati al computer. Prince cita la creatura
acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono
soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno
spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito,
“diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive
Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può
comprendere sia immagini irreali che immagini referenzialmente realistiche. […]
Le immagini irreali possono essere referenzialmente fittizie ma percettivamente
realistiche”.
Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio
“Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e
della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in
semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che
rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il
corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo
spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma
piuttosto attraverso l’“impressione di realtà”: un effetto costruito,
intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia
ontologica dell’indice (l’immagine fotografica considerata come traccia diretta
del mondo) alla capacità delle immagini di simulare la percezione del reale.
Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua
efficacia percettiva.
> Software come Sora non registrano, piuttosto restituiscono idee in forma di
> immagine, spostando il baricentro dal filmato alla ricostruzione digitale
> totale, senza alcuna mediazione umana.
Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video
IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni
inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un
articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul
significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di
generare un intero film. Software come Sora non registrano, piuttosto
restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla
ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un
render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il
film è ora nello sguardo di tutti.
Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto,
quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande
macchina informatica o il robot umanoide, anche la più modesta estensione dello
strumento quotidiano è stata integrata nella forma‑vita umana, trasformando
abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo
raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e
CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in
quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile
che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di
flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale
volume di informazioni e campi di competenza differenti, da svelare la loro
natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di
adottarle in ogni ambito della vita quotidiana, professionale, persino
affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove
competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli
anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e
mediazione.
> Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le
> intelligenze artificiali sono riconoscibili come non-umane non per via dei
> loro limiti, ma in quanto troppo capaci.
Mentre Manovich, Prince e Gunning riflettono sulla materialità e la
percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I
media, la memoria, il cinema (2008), si concentra sull’epistemologia dello
sguardo: il ruolo del cinema nella costruzione della memoria e della
testimonianza, e il rapporto tra evento e trasposizione mediatica.
Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei
fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo:
dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un
film!” davanti alla realtà mediatizzata, culminata con la trasmissione
televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene
spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce
questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale,
l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la
sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno
per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si
limita a ridurre la distanza tra significante e significato: diventa lente
attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi
iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa
per essere compresa, allora la distinzione tra reale e immaginario sembra essere
esplosa del tutto.
Dal passaggio iniziale del “Sembra vero” (cinema → sospensione
dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della
realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi
post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di
mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt
– a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con
l’interpretazione di categorie e riferimenti astratti, più che in relazione con
il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con
il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice
soddisfacimento delle sue categorie.
Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra
IA”, dove non si indica la simulazione, ma nuove forme di autenticità e
riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come
immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è
più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi,
cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua
estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti.
Go and touch grass
Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA
text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà,
tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità
cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine
mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa.
È plausibile che il pubblico, davanti ai video generati con IA, semplicemente,
smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso
o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato
da ogni possibile resistenza, se non addirittura un atteggiamento reazionario.
> La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe
> presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile
> resistenza, se non addirittura un atteggiamento reazionario.
Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato.
Il capitale della nostra attenzione viene cooptato da un contenuto generato
all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e
persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa
che finalmente “qualcosa accada davvero” si sposta da un video a quello
successivo, lasciandoci davanti allo schermo come consumatori, tragici,
speranzosi, assopiti.
Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical
Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di
ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie
Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma
perché tale confusione è parte integrante del suo raccontarsi. Lo stesso
Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e
simulazioni non avessero azzerato la Storia: la produzione delle immagini non
riesce ancora a nascondere e contenere la materialità viscerale del mondo.
Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo
stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la
rappresentazione della guerra e della violenza attraverso la fotografia e i
media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di
Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che
non può essere ridotta alla relazione spettacolo/spettatore, e della quale
dobbiamo farci carico.
Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono
con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il
movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con
chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva
nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella
violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che
non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di
Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze
artificiali come a un destino ineluttabile. Le intelligenze artificiali non
saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida
decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono
sostituirci, vogliono tutta la nostra attenzione.
Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta
dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale
e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il
più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA
dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo
Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a
giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera
conflittuale, produrre scarti, glitch, narrazioni che espongano il programma
sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla
simulazione onnisciente. Una forma di détournement digitale, atti di deviazione
e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle
piattaforme e spostare altrove il potere simbolico.
Infine, possiamo provare a contrapporre alla simulazione generativa un altro
tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni.
Martha Nussbaum, in libri come Love’s Knowledge (1990) e Poetic Justice (1995),
parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui,
di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente.
Parafrasandola, possiamo chiamare questo processo mentale come “simulazione
morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta
dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice
reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la
distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui
continuiamo a esercitare la nostra capacità morale. Una controsimulazione che
non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali
siano le sue condizioni. A patto che l’altro esista.
L'articolo Sembra IA proviene da Il Tascabile.
Tag - Scienze
O gni anno, in Europa, quasi 60 milioni di tonnellate di cibo finiscono nella
spazzatura: oltre 130 chili per persona. Una parte consistente si accumula lungo
la filiera, dalla produzione alla distribuzione, mentre l’altra metà si
trasforma in scarto nelle nostre case, nei ristoranti, nelle mense. In Italia,
ad esempio, l’industria del pomodoro genera ogni estate migliaia di tonnellate
di bucce e semi che non per forza devono diventare semplici rifiuti. Oggi,
grazie a nuove tecniche di estrazione sostenibile, da quei residui si possono
infatti ottenere composti ad alto potere antiossidante, riutilizzati in
alimenti, cosmetici o integratori: è la scienza dell’upcycling.
Numerosi studi ne evidenziano da anni la solidità e le analisi del ciclo di
vita, nella maggior parte dei casi, segnalano un impatto ambientale positivo. Ma
il cosiddetto upcycling alimentare, ovvero i cibi “rigenerati”, prodotti nati
dal recupero di scarti o eccedenze alimentari, può essere una risposta efficace
alla riduzione degli sprechi solo se si riesce a garantire sostenibilità dei
processi, sicurezza del prodotto, misurazione dei risultati e opportune economie
di scala. In tutto questo, come vedremo nel corso dell’articolo, la fiducia di
chi consuma è un ingrediente decisivo. Non basta che un alimento sia
sostenibile: deve anche apparire tale, e ispirare sicurezza. Superare queste
resistenze richiede una comunicazione chiara e coerente: servono dati condivisi,
confrontabili, raccontati in modo comprensibile, e un linguaggio capace di
costruire fiducia più che distanza, spiegando come e perché certi ingredienti
vengono recuperati, e quale valore aggiunto porta questa scelta.
Genealogia della circolarità
In ambito agroalimentare, il concetto di economia circolare non è certamente
nuovo. Esistono da millenni pratiche agronomiche e di trasformazione alimentare
orientate alla circolarità, anche a livello domestico: tradizionalmente si è
sempre cercato di riutilizzare tutto, limitando lo spreco di prodotti non più
salubri. Esistono molti esempi, nella storia dell’alimentazione umana, che si
basano su un uso oculato delle risorse e dei cosiddetti prodotti di scarto
alimentare: basti pensare alla ricotta, ottenuta dal siero residuo della
lavorazione del formaggio; ma anche al riuso delle vinacce, cioè le bucce e i
residui solidi dell’uva, che venivano e vengono ancora riutilizzate per produrre
distillati o come combustibile. Si tratta, in tutti i casi, di forme di economia
circolare ante litteram, che tendono a un principio di equilibrio tra ciò che si
produce, si consuma e si restituisce al ciclo naturale.
> Oggi circa la metà della superficie abitabile del pianeta è destinata
> all’agricoltura, e tra il 2000 e il 2022 la produzione di colture primarie è
> più che raddoppiata, generando una quantità crescente di residui e scarti
> lungo la filiera.
Oggi, questo pensiero secolare riemerge nel panorama della bioeconomia, portando
con sé l’urgenza della scarsità di risorse in un mondo di oltre otto miliardi di
persone, e segnalandoci che ciò che chiamiamo “scarto” è spesso una miniera di
composti bioattivi che la scienza ha imparato a estrarre, stabilizzare e
trasformare, per incorporarli in prodotti con maggiori benefici per la salute.
Da secoli, il modello economico dominante si fonda sul principio del
take-make-dispose, traducibile in italiano come preleva, produci, consuma e
getta. È un paradigma che ha plasmato l’agricoltura e l’industria alimentare, e
che oggi mostra tutti i suoi limiti. Con una popolazione mondiale destinata a
superare i nove miliardi di persone entro il 2050, non è più sostenibile
continuare a utilizzare risorse naturali come se fossero infinite. Oggi circa la
metà della superficie abitabile del pianeta è destinata all’agricoltura, per un
totale di 48 milioni di chilometri quadrati di suolo, e tra il 2000 e il 2022 la
produzione di colture primarie è più che raddoppiata, generando una quantità
crescente di residui e scarti lungo la filiera. L’upcycling alimentare, come
altre tecniche di bioeconomia, nasce dal bisogno di rivedere il rapporto fra
produzione e consumo, in un’era in cui un terzo del cibo prodotto diventa scarto
contribuendo al 58% delle emissioni di metano nell’atmosfera.
> Nel panorama alimentare l’upcycling non è sinonimo di riciclo. Se riciclare
> implica il recupero di materia per usi differenti, l’upcycling la restituisce
> al cibo, reintroducendola nella filiera con un valore nutrizionale o
> funzionale più elevato.
Secondo la definizione della Upcycled Food Association, nata nel 2019 come rete
di poche aziende pionieristiche, con l’obiettivo di dare una definizione
condivisa a ciò che fino ad allora era solo una pratica frammentaria, si
considerano upcycled foods quei prodotti che utilizzano ingredienti altrimenti
destinati a non essere consumati dall’uomo, provenienti da filiere tracciabili e
verificabili, e che generano un impatto ambientale positivo. Nel panorama
alimentare, l’upcycling non è quindi, come si potrebbe pensare, sinonimo di
riciclo. Perché se riciclare implica il recupero di materia per usi differenti,
l’upcycling la restituisce al cibo, reintroducendola nella filiera con un valore
nutrizionale o funzionale più elevato. Proviamo quindi a capire come funziona un
ciclo di processo completo.
Come funziona un ciclo completo
Valorizzare uno scarto, in ambito agroalimentare, significa prima di tutto
conoscerlo: analizzarne la composizione nutrizionale per capire quali componenti
possano essere recuperati e riutilizzati. Da qui parte un processo che unisce
ricerca scientifica, tecnologie sostenibili e controllo della qualità.
L’estrazione dei componenti utili avviene oggi attraverso tecniche che si stanno
muovendo verso un sempre minore impatto ambientale, come l’uso di solventi green
o processi biotecnologici basati su enzimi e fermentazioni controllate. È così
che, per citare uno dei tanti casi di ricerca italiani, residui oggi poco
sfruttati, come quelli della coltivazione delle giovani piantine di ortaggi
(microgreen) raccolte pochi giorni dopo la germinazione, vengono trasformati in
ingredienti funzionali per alimenti come pane o yogurt, o in molecole bioattive
per nuovi prodotti.
> L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi
> globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo
> e rallentare il cambiamento climatico.
Una delle sfide maggiori è stata negli anni di rendere sempre più sostenibili le
tecniche di estrazione. Ad esempio, il settore sa bene che la produzione dei
derivati industriali del pomodoro genera elevate quantità di scarti – quali
bucce, semi e residui di polpa – che rappresentano circa il 2-5% della materia
prima. Tuttavia, per ottenere questi composti si utilizzano ancora processi che
fanno uso di sostanze chimiche non propriamente sostenibili. Per cui, al fine di
ridurre l’impatto, vengono impiegate diverse tecniche di estrazione alternative
e con minori ricadute ambientali. Tra queste, è stato valutato l’utilizzo di
anidride carbonica (CO2) per il recupero degli scarti di pomodoro. Gli estratti
ottenuti da bucce, semi e cascami interi sono stati analizzati per valutare il
quantitativo di carotenoidi. I risultati hanno evidenziato che gli estratti
ottenuti mediante l’utilizzo della CO2 avevano un elevato potere antiossidante,
con rese elevate.
Le buone ragioni dell’upcycling
L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi
globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo e
rallentare il cambiamento climatico. Questi sistemi possono inoltre avere un
bilancio di carbonio negativo: assorbono più CO₂ di quanta ne emettano,
soprattutto quando le operazioni si basano su fonti rinnovabili e filiere
locali.
Da questo punto di vista, la scienza dell’upcycling si sta ben radicando: le
ricerche sono solide e le tecnologie sempre più affidabili. I metodi di
estrazione sostenibile (ultrasuoni, campi elettrici pulsati, anidride carbonica
supercritica), ad esempio, permettono già da tempo di recuperare da vinacce,
bucce o crusche sostanze di grande valore biologico, tra cui fibre, polifenoli e
antiossidanti. Parliamo di procedure che sono arrivate a garantire rendimenti
elevati e un’efficienza energetica competitiva.
> Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto
> ottenuto dai residui del melograno possiede effetti cardiovascolari benefici,
> paragonabili a quelli di un farmaco antipertensivo.
Anche i cosiddetti bioprocessi stanno dimostrando che la fermentazione
selezionata (ad esempio con lieviti, batteri lattici, funghi) aumenta la
biodisponibilità di minerali e vitamine e migliora la digeribilità delle
proteine. Le sperimentazioni condotte in Italia lungo le filiere del vino e del
riso ci dicono che la sinergia tra agricoltura, industria e ricerca può
tracciare percorsi di innovazione sia dal punto di vista tecnico, sia da quello
economico e della sostenibilità ambientale. Inoltre sono sempre più documentati
gli effetti benefici sulla salute. Uno studio condotto dall’Università di Pisa
ha dimostrato che un estratto ottenuto dai residui del melograno possiede
effetti cardiovascolari paragonabili a quelli di un farmaco antipertensivo.
Il panorama dell’upcycling italiano
Una recente ricerca pubblicata sul Journal of Environmental Chemical Engineering
mostra come l’Italia disponga già di un sistema articolato di pratiche e
tecnologie per trasformare scarti agricoli e alimentari in risorse di valore, da
compost e biogas fino a bioplastiche e biocarburanti. Accanto ai processi
industriali più consolidati, come il compostaggio e la digestione anaerobica,
stanno emergendo filiere innovative basate su pirolisi, gassificazione o
fermentazioni biologiche, spesso sviluppate in centri di ricerca del centro e
del sud Italia. Queste nuove soluzioni, ancora in fase pilota, promettono di
ridurre sprechi, emissioni e dipendenza da fonti fossili, ma richiedono molti
investimenti, coordinamento tra territori e un quadro normativo capace di
favorirne la diffusione.
> La transizione alimentare non è solo una questione di tecnologie o ricette
> sostenibili: è, prima di tutto, una questione di fiducia.
Insomma: la tecnologia funziona, ed è a ridotto impatto ambientale, ma il
passaggio a una scala più ampia rimane una sfida per niente scontata. Occorre
garantire flussi continui, tenere sotto controllo le spese energetiche e
integrare in modo coerente tutta la filiera. Per quanto l’upcycling sia pronto a
decollare, senza un’infrastruttura adeguata non potrà crescere.
Fiducia, neofobia e linguaggio
La transizione alimentare non è solo una questione di tecnologie o ricette
sostenibili: è, prima di tutto, una questione di fiducia. Quando si parla di
cibi “rigenerati” le difficoltà non stanno tanto nei costi o nelle norme, ma
nella percezione. Lo mostra chiaramente un’analisi internazionale pubblicata nel
2024 sulla rivista Food Quality and Preference: a frenare l’upcycling alimentare
non sono i regolamenti, ma le persone. O meglio, alcune paure radicate, come la
neofobia alimentare, cioè la diffidenza verso i cibi nuovi o poco familiari, e
la tecnofobia, la paura che dietro certi processi si nascondano manipolazioni
poco naturali.
Eppure, l’interesse c’è. Più di un consumatore su due, soprattutto tra i più
giovani, è curioso di assaggiare prodotti upcycled. Ma la curiosità si traduce
in acquisto solo se il racconto è convincente. Funzionano le etichette chiare, i
dati trasparenti, un linguaggio diretto che spiega come e perché certi
ingredienti vengano recuperati. Al contrario, quando la comunicazione è ambigua
o troppo moralistica, scatta il sospetto.
> Quando il valore degli scarti viene spiegato bene, la gente non lo respinge:
> lo riconosce come una forma di intelligenza collettiva, un modo concreto e
> contemporaneo di pensare al futuro del cibo.
Non è lo “scarto” a spaventare, ma il modo in cui se ne parla. Le persone
reagiscono più all’ambiguità che all’origine del prodotto. Ciò che convince
davvero è la coerenza: sapere da dove arriva il cibo, come è stato trattato,
perché è sicuro. Serve un’esperienza sensoriale credibile e la sensazione che
dietro ci sia un progetto autentico, non una trovata di marketing. E qui entra
in gioco il linguaggio. Raccontare il valore del recupero in modo sobrio, legato
alla concretezza ambientale e alla tradizione del “non sprecare”, colpisce più
di qualsiasi slogan sulla virtù o sul senso di colpa. Quando il valore degli
scarti viene spiegato bene, la gente non lo respinge: lo riconosce come una
forma di intelligenza collettiva, un modo concreto e contemporaneo di pensare al
futuro del cibo.
Il discorso politico
Anche la dimensione politica e il dibattito d’opinione contribuiscono a
modellare le percezioni dei consumatori. Nel contesto italiano, l’innovazione
alimentare è oggi filtrata attraverso una lente marcatamente identitaria. Si
tende a privilegiare il valore simbolico del “cibo vero” e della filiera
nazionale, e si è cauti se non avversi alle forme di innovazione percepite come
“non tradizionali”, dai novel food (cioè alimenti o ingredienti nuovi per il
mercato europeo, non consumati in modo significativo prima del 1997), alla carne
coltivata, fino all’upcycling. Pur senza opposizione esplicita, il rischio è che
i cibi rigenerati vengano relegati a soluzioni tecnologiche estranee alla
cultura del made in Italy, quando in realtà, come abbiamo visto, rappresentano
una continuità con la tradizione del riuso e della frugalità tipica delle
culture locali. Il dibattito attuale riflette ancora una tensione ideologica e
irrisolta tra la necessità di innovare e la volontà di preservare, più che una
reale integrazione tra le due prospettive.
> Il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche
> estranee alla cultura del made in Italy, quando in realtà rappresentano una
> continuità con la tradizione del riuso e della frugalità tipica delle culture
> locali.
Nel complesso, la traiettoria politica e culturale attuale mostra un
rallentamento della spinta trasformativa: la transizione agroalimentare non è
ferma, ma procede in modo più frammentato e difensivo. Soprattutto dopo le
elezioni europee del 2019, quando l’agenda del Green deal, il patto verde che
mira alla neutralità climatica entro il 2050, ha subito un processo di revisione
per cui la Commissione ha spostato l’accento dalla spinta ambientale alla
semplificazione normativa e alla competitività delle imprese agricole,
introducendo margini di flessibilità che rallentano le ambizioni iniziali.
Anche nel dibattito sugli organismi geneticamente modificati e sulle nuove
tecniche genomiche, come l’editing con CRISPR-Cas9 o il prime editing, sono
emersi chiari segnali di ambivalenza. Mentre la Commissione e il Consiglio
europeo hanno aperto, nel 2025, a una regolamentazione più flessibile per le New
genomic techniques (NGT), una parte dell’opinione pubblica e del mondo politico
continua a guardare con sospetto a ogni intervento percepito come “artificiale”.
Cosa dice (e non dice) la legge
Sul piano regolatorio la situazione è ancora più complessa. Per gli alimenti
upcycled non esiste oggi una categoria giuridica specifica né a livello europeo
né nazionale: non c’è una norma che li definisca esplicitamente, né un percorso
autorizzativo dedicato. Questo significa che tali prodotti rientrano nel
perimetro della legislazione alimentare generale (sicurezza, tracciabilità,
etichettatura, igiene) e, quando necessario, nelle regole sui novel food, se gli
ingredienti derivati dal recupero non hanno un uso alimentare documentato prima
del 1997. In altre parole, l’upcycling vive in un terreno di normativa
implicita: tutto ciò che non è vietato è possibile, purché sia sicuro e conforme
ai requisiti esistenti.
> Nei laboratori italiani stanno prendendo forma tecnologie capaci di cambiare
> il destino degli scarti agroalimentari: dalla pirolisi che “cuoce” residui
> agricoli, alle larve di mosca che trasformano rifiuti organici in proteine e
> fertilizzanti.
Parallelamente, però, agiscono cornici concettuali che, pur non avendo valore
giuridico, influenzano la percezione pubblica e le strategie industriali. È il
caso del sistema NOVA, una classificazione sviluppata in ambito accademico per
studiare il rapporto tra grado di processazione e salute, sempre più citata nel
dibattito pubblico. Secondo questo schema molti prodotti upcycled possono essere
assimilati ai cibi ultraprocessati non per la loro qualità nutrizionale o
ambientale, ma per la natura dei processi utilizzati.
Oltre la tecnologia
L’upcycling, più che di nuove tecnologie, ha bisogno di infrastrutture di
conoscenza: osservatori, banche dati, criteri comuni di rendicontazione e
soprattutto informazioni chiare. È qui che si gioca la partita tra
sperimentazione e sistema. L’innovazione, fuori dalle retoriche soluzioniste, è
un processo collettivo che coinvolge saperi, politiche e responsabilità diffuse.
È la capacità di costruire connessioni stabili tra ricerca, impresa e
istituzioni, di trasformare la sperimentazione in infrastruttura e la tecnologia
in cultura.
E in effetti l’innovazione circolare del cibo procede. Nei laboratori e nei
distretti sperimentali italiani stanno prendendo forma tecnologie capaci di
cambiare il destino degli scarti agroalimentari: la pirolisi, che “cuoce”
residui agricoli per ottenere biochar, una sorta di carbone vegetale utile a
restituire carbonio e fertilità ai suoli; le larve della mosca soldato nera, che
trasformano rifiuti organici in proteine e fertilizzanti; e poi ancora i
bioprocessi microbici, le fermentazioni controllate, le estrazioni con CO₂
supercritica. Tutto questo disegna una nuova idea di produzione più circolare e
responsabile.
Ma la transizione non può poggiare solo sull’efficienza tecnica. Ha bisogno di
una strategia condivisa, sostenuta da politiche industriali coerenti, incentivi
mirati e norme capaci di evolvere con l’innovazione, e soprattutto di una
relazione di fiducia con i consumatori. E per costruire questa fiducia serve un
cambio di prospettiva culturale. Vale per l’upcycling come per tutta la
transizione ecologica: senza un nuovo modo di pensare il valore delle risorse,
anche le soluzioni più avanzate rischiano di non uscire dai cassetti dei
laboratori.
L'articolo Non si butta via niente proviene da Il Tascabile.
U n rivolo di sangue sgorga dal muso di una capra. È distesa su un fianco, sul
terreno umido a tratti tappezzato di muschio e ricoperto da una pioggia di
frammenti di legno, metallo e vetro. Un occhio aperto, lo sguardo nel vuoto, la
pelliccia sporca e la pelle squarciata. Poco più lontano è visibile un altro
esemplare, perso tra i detriti, anche lui privo di vita. Intorno a loro c’è neve
e distruzione: finestre rotte, tetti divelti da cui spuntano murature decorate e
totem colorati. Il Feldman Ecopark, uno zoo alla periferia di Charkiv, in
Ucraina, il 2 marzo 2025 è stato colpito durante l’attacco russo di droni
Shahed, armi kamikaze a lungo raggio. I due ungulati uccisi, tra cui una femmina
gravida, erano stati precedentemente salvati da una zona di combattimento e
portati nel parco, con la speranza che potessero sopravvivere.
Gli animali sono spesso considerati vittime di serie B della guerra, che la
società ci insegna a far passare in secondo piano rispetto al dramma umano,
sebbene sopportino una violenza dirompente, spaventosa e per loro
incomprensibile. I conflitti armati possono esasperare l’ambiguità che
caratterizza il nostro rapporto con gli altri animali. Sono una lente impietosa
sugli abissi della nostra morale.
Il massacro di Londra e i gatti di Gaza
Dai primi mesi del conflitto russo-ucraino, i media hanno diffuso immagini di
profughi costretti ad abbandonare casa e affetti. Alcuni sono accompagnati dagli
animali con cui, fino a quel momento, avevano condiviso la propria vita, allo
stesso tempo simbolo e incarnazione di una dimensione familiare. Quelle mostrate
nei telegiornali e sulle piattaforme social sono rappresentazioni accoglienti,
che suscitano empatia e fanno quasi dimenticare il prezzo da sempre pagato dagli
animali da compagnia in zone di guerra, che invece, spesso, sono considerati
oggetti da sacrificare o legami da rompere per disumanizzare il nemico.
> Gli animali sono spesso considerati vittime di serie B della guerra, che la
> società ci insegna a far passare in secondo piano rispetto al dramma umano,
> sebbene sopportino una violenza dirompente, spaventosa e per loro
> incomprensibile.
Era il 3 settembre 1939 quando la BBC annunciò che la Gran Bretagna aveva
dichiarato guerra alla Germania. Siamo agli albori della Seconda guerra
mondiale. Alla cittadinanza venne chiesto di prepararsi ai raid aerei e una
precauzione su tutte probabilmente raggelò il sangue degli inglesi: il governo
li sollecitò a portare i propri animali domestici nelle campagne e, nel caso non
ci fossero stati vicini disponibili a occuparsi di loro, a sopprimerli con
l’aiuto di un veterinario. Senza curarsi dell’opposizione di alcuni gruppi di
protezione animale, circa 400.000 tra gatti, cani, uccelli e conigli vennero
eliminati, come racconta la storica Hilda Kean nel suo libro The Great Cat and
Dog Massacre (2017). Ci fu chi obbedì forse con pochi scrupoli, chi soppresse i
propri compagni non umani per risparmiare loro la sofferenza dei bombardamenti,
chi li graziò e, in qualche modo, ne riconobbe l’individualità e una forma di
agentività, condividendo con loro il cibo, gli spazi, la paura e il dolore.
Quest’ultimo caso ci porta a Gaza, ai giorni nostri. Le immagini che ci sono
giunte mostrano gatti feriti e traumatizzati dallo scoppio delle bombe, dalla
perdita di un rifugio, dalla fame e dalla sete, ma anche salvati da medici e
veterinari, aiutati e accolti dai palestinesi o, ancora, con le loro famiglie
umane mentre vivono insieme piccoli momenti di spensieratezza. Neha Vora,
docente di antropologia nel Dipartimento di Studi internazionali dell’American
University of Sharjah negli Emirati Arabi Uniti ha commentato così queste
storie:
> Quello che i gatti di Gaza ci insegnano è che il trauma della Palestina è un
> trauma multispecie. Non ci insegnano che anche i palestinesi sono umani,
> poiché questa è un’affermazione che continua a definire l’umano contro
> qualcosa che non è, qualcosa che sarà sempre escluso, abietto e quindi
> eliminabile. Credo che i palestinesi e i loro gatti siano così coinvolgenti
> per molti di noi perché sfidano le visioni liberali dell’umanità e le
> smascherano come modi coloniali di definire il mondo, la soggettività e le
> fantasie di libertà. L’“Umanità” non ci condurrà mai a una giustizia e pace
> universali.
Umanità. È una parola che apparentemente si collega allo stesso universo
semantico della compassione e della pietà, ma che in realtà si nutre di una
visione gerarchica del mondo naturale, in cui l’animale è inferiore, e animale
diventa o deve diventare chiunque incarni il nemico da combattere. Una
prospettiva che, in parte e non a caso, ritroviamo nella struttura e nella
gestione degli zoo, in cui le sbarre o altre barriere separano gli esseri umani
dalle altre specie esposte e nei quali siamo sempre noi a poter decidere delle
loro esistenze secondo le nostre necessità
Un’ingannevole arca di Noè
Nel volume World War Zoos. Humans and Other Animals in the Deadliest Conflict of
the Modern Age (2025), lo storico John M. Kinder ricostruisce la vita degli zoo
dal periodo della Grande depressione alla Seconda guerra mondiale, fino ai primi
anni della guerra fredda. Kinder illustra come la visione gerarchica degli
esseri viventi, e in particolare la disumanizzazione di determinati gruppi,
fosse un aspetto centrale dell’ideologia nazista, evidente nel modo in cui
venivano trattati sia gli esseri umani sia gli animali.
> Le metafore legate agli animali sono servite e servono ancora oggi a
> giustificare i delitti commessi e a comprendere e articolare azioni aberranti.
Un esempio emblematico è quello del campo di concentramento di Buchenwald e del
suo giardino zoologico. Il progetto, sostenuto sin dall’inizio da Karl-Otto
Koch, a capo del campo dal 1937 al 1941, era pensato come luogo ricreativo ed
edificante per le SS e le loro famiglie e come una fonte di umiliazione e
tormento per i prigionieri. Lo zoo serviva, infatti, a ricordare loro la
presunta inferiorità rispetto agli animali in gabbia: gli umani reclusi erano
spogliati della dignità, resi sacrificabili per qualsiasi contingenza e
costretti persino a finanziare la struttura con “contributi volontari”. Gli
animali di Buchenwald ricevevano un’alimentazione migliore dei prigionieri,
tanto che molti di loro cercavano di lavorare nello zoo per ottenere una razione
extra. Kinder spiega:
> Il legame retorico tra animali ed Ebrei, l’obiettivo principale della
> Soluzione finale di Hitler, giocò un ruolo importante nel legittimare
> l’Olocausto agli occhi dei suoi esecutori. Esisteva una lunga storia di
> equiparazione degli Ebrei ad animali (maiali, cani) e a malattie, amplificata
> dai propagandisti nazisti.
Le metafore legate agli animali sono servite e servono ancora oggi a
giustificare i delitti commessi e a comprendere e articolare azioni aberranti.
Per descrivere l’uccisione da parte di privati cittadini di civili indifesi
nell’assedio di Sarajevo, durante la guerra in Bosnia ed Erzegovina degli anni
Novanta, si usano termini come “attività venatoria”, “cacciatori”, “prede” e
“safari”. Le notizie parlano di gruppi di cecchini/cacciatori che spendevano
cifre nell’ordine di grandezza di decine di migliaia di euro per sparare a
persone indifese, trasformate in target classificati in base a un tariffario,
esattamente come accade nei safari di caccia in Africa. Se nel vecchio
continente gli obiettivi più costosi sono specie iconiche e minacciate
dall’estinzione, come leoni, elefanti e rinoceronti, nei Balcani sembra che
bambine e bambini fossero in cima al listino. Non più vite, solo trofei da
collezionare.
Allo stesso modo, come evidenziato da Kinder nel suo libro, durante il secondo
conflitto mondiale e anche in seguito, gli zoo offrirono alle persone metafore
per aiutarle a comprendere le esperienze di prigionia, impotenza e degradazione.
In quegli anni le gabbie divennero teatro di orrore, dolore e ideologia. I
destini di gran parte degli esemplari rinchiusi negli zoo furono impietosi.
Alcuni riuscirono a esser trasferiti in luoghi più protetti, mentre molte delle
specie più pericolose, quelle carnivore o velenose, furono uccise per evitare
che costituissero un’ulteriore minaccia in caso di fuga dopo un bombardamento.
La stessa sorte toccò agli animali più costosi da mantenere, tra cui quelli
marini. Molti altri rimasero intrappolati, senza la possibilità di mettersi in
salvo: morirono di fame e di sete tra atroci sofferenze, subirono le esplosioni
riportando ferite, orribili mutilazioni e danni psicologici irreparabili o
divennero oggetto di saccheggio e di improvvisate battute di caccia. Accadde
proprio questo nel 1939, durante l’invasione della Polonia da parte
dell’esercito nazista. Il direttore dello zoo di Berlino, Lutz Heck, dopo aver
messo da parte gli esemplari più pregiati dello zoo di Varsavia, permise ad
alcune SS di usare gli animali ancora in gabbia come bersagli per la notte di
Capodanno.
> Un tempo i giardini zoologici erano perlopiù luoghi di intrattenimento, e una
> dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni
> esemplari provenivano. Oggi gli obiettivi dichiarati sono l’educazione, la
> ricerca e la conservazione.
Ancora oggi gli animali degli zoo sono costretti a spostarsi sotto i
bombardamenti, le loro vite vengono distrutte dalle esplosioni, dalla fame e
dalla sete, o diventano cibo per soldati. Nella prima parte del Ventesimo
secolo, i giardini zoologici erano per lo più luoghi di intrattenimento e una
dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni
esemplari provenivano. Attualmente i tre principali obiettivi di queste
istituzioni sono l’educazione, la ricerca e la conservazione. Quest’ultimo scopo
prevede la tutela di specie a rischio di estinzione attraverso progetti in situ,
in cui gli esemplari sono protetti nei loro habitat, e attività ex situ, che
prevedono la detenzione di individui in cattività per il mantenimento di
popolazioni di animali che potrebbero scomparire in natura. Gli zoo sono,
quindi, una sorta di arca di Noè la cui efficacia, secondo Kinder, è dubbia,
soprattutto in tempi di guerra:
> Se gli zoo vogliono sopravvivere ai conflitti di questo secolo, devono
> abbandonare la metafora dell’arca. Di fronte alla minaccia di catastrofiche
> perturbazioni climatiche, il mondo non ha bisogno di una flotta di scialuppe
> di salvataggio progettate per aiutare specie selezionate ad attraversare
> quaranta giorni e quaranta notti metaforiche di tumulto. Piuttosto, abbiamo
> bisogno di una strategia per sopravvivere a un clima alterato a tempo
> indefinito. Come minimo, dobbiamo porci domande difficili sul fatto che i
> vantaggi degli zoo superino i loro evidenti svantaggi, incluso il disagio
> fisico e mentale sopportato dalle specie in cattività.
La promessa di salvezza degli zoo sembra ancora più debole nelle zone di
conflitto, dove ai danni apportati a queste strutture e ai loro occupanti si
sommano ingenti disastri ambientali.
I pericoli per la fauna selvatica e il reato di ecocidio
Le lotte armate hanno spesso luogo in ecosistemi fragili e hotspot di
biodiversità, producendo conseguenze devastanti su molte specie di animali
selvatici. Nella Repubblica Democratica del Congo, anni di guerra hanno ridotto
significativamente la popolazione di ippopotami: dai circa 30.000 esemplari,
presenti nel 1974, si è passati a meno di 1000 verso la fine della guerra civile
congolese, nel 2005. Gli esemplari sono poi aumentati fino a 2500 nel 2018, per
poi essere nuovamente minacciati dai gruppi di ribelli, che hanno iniziato a
cacciarli di frodo per venderne la carne e finanziare le loro attività. A oggi
la popolazione di questi mammiferi si attesta intorno ai 1200 esemplari, sui
quali incombono nuovi pericoli, come l’avvelenamento da antrace.
In Mozambico la guerra civile, combattuta tra il 1977 e il 1992, ha portato
all’uccisione di circa il 90% degli elefanti, le cui zanne in avorio erano
vendute per sovvenzionare i combattenti. La caccia intensa avrebbe addirittura
favorito la mutazione genetica associata alla mancata formazione delle zanne
nelle femmine. In Iraq, nel 2016, l’ISIL (Islamic State in Iraq and the Levant)
ha attaccato una raffineria di petrolio. Poco meno di venti pozzi esplosi hanno
causato l’innalzamento di una nube tossica e una massiccia fuoriuscita di
petrolio. Il risultato è stato la contaminazione di suolo e acque, un ostacolo
concreto alla sopravvivenza della vicina cittadina di Qayarrah e un gravissimo
danno per la fauna della regione. Le invasioni militari possono persino portare
all’introduzione volontaria o accidentale di specie aliene, in grado di
esercitare impatti negativi sugli ecosistemi delle aree conquistate e sui loro
abitanti.
Oggi sappiamo bene quanto queste azioni possano produrre danni irreparabili
all’ambiente, con un effetto domino che potrebbe estendersi globalmente, eppure
non abbiamo a disposizione strumenti abbastanza efficaci per arginarli. Lo
Statuto di Roma della Corte penale internazionale, nell’articolo 8 (2)(b)(iv)
sui crimini di guerra, prevede che sia considerato reato lanciare attacchi
deliberati nella consapevolezza di produrre “danni diffusi, duraturi e gravi
all’ambiente naturale che siano manifestamente eccessivi rispetto all’insieme
dei concreti e diretti vantaggi militari previsti”. Una norma eccessivamente
generica, una lacuna giuridica che si sta cercando di colmare da decenni
spingendo per il riconoscimento del reato di ecocidio.
> Oggi sappiamo quanto le guerre possano produrre danni irreparabili
> all’ambiente, con effetti di portata globale, eppure non abbiamo a
> disposizione strumenti efficaci per arginarli. Il riconoscimento del reato di
> ecocidio è un passo importante in questa direzione.
Il termine è stato utilizzato per la prima volta dal biologo Arthur Galston,
negli anni Settanta, per descrivere la deforestazione su larga scala causata
dall’uso dell’Agent Orange da parte degli Stati Uniti d’America durante la
guerra del Vietnam. Negli anni Duemila il concetto è stato riproposto
dall’avvocata Polly Higgins e infine, nel 2021, è stata presentata una
definizione legale alla Corte penale internazionale, per cui “‘ecocidio’
significa atti illegali o arbitrari commessi nella consapevolezza di una
sostanziale probabilità di causare un danno grave e diffuso o duraturo
all’ambiente con tali atti”.
Sono crimini non riconosciuti che continuano a essere perpetrati senza la
certezza di un processo e di un’eventuale condanna dei colpevoli: alcuni esempi
recenti sono la distruzione della copertura arborea e dei terreni agricoli di
Gaza, con fattorie e uliveti abbattuti, suolo, falde acquifere, mare e aria
inquinati, e l’impatto sugli ecosistemi e la biodiversità del conflitto in
Ucraina. Gli animali non umani sembrano quasi invisibili in questi scenari,
sebbene la loro esistenza presente e futura venga cancellata attraverso le
uccisioni e la distruzione degli habitat in cui prosperano.
Violenze necessarie: al punto di dissoluzione del Diritto internazionale
umanitario
Non sono solo gli animali da compagnia, quelli degli zoo e la fauna selvatica a
subire gli effetti degli scontri. Gli animali allevati vengono macellati,
rubati, bombardati o lasciati morire di fame. Esistono specie utilizzate
direttamente nei conflitti come mezzi di trasporto, tra i quali ci sono i
cavalli, gli asini, i muli, gli elefanti e i cammelli, mammiferi addestrati a
rilevare esplosivi, quali elefanti, cani e ratti, oppure cetacei preparati per
cercare sottomarini e lasciati esplodere per distruggerli, tra cui i delfini.
Come illustra l’articolo “Animals in War: At the Vanishing Point of
International Humanitarian Law”, pubblicato nel 2022 nell’International Review
of the Red Cross, malgrado la loro vulnerabilità nelle situazioni appena
descritte, gli animali sono ancora ampiamente ignorati dal Diritto
internazionale umanitario (DIU), che rimane prevalentemente antropocentrico.
Essi non godono di uno status legale esplicito, non ne viene riconosciuta la
senzienza, né sono concessi loro diritti, nonostante ci siano alcuni Paesi i cui
ordinamenti giuridici hanno cominciato a considerare la soggettività e la
capacità di provare dolore di questi esseri viventi.
Anne Peters e Jérôme de Hemptinne, autori della pubblicazione, suggeriscono due
strategie principali per affrontare la mancanza di una specifica protezione nel
diritto internazionale umanitario. La prima consisterebbe nell’applicare in modo
più efficace le norme già esistenti, ampliandone l’interpretazione per includere
gli animali nelle categorie protette previste: potrebbero essere assimilati a
combattenti o prigionieri di guerra, a civili, oppure a oggetti. Tale approccio
prevederebbe la rilettura delle disposizioni relative alla difesa dell’ambiente,
del patrimonio culturale e delle aree protette, riconoscendo che gli animali
sono esseri viventi capaci di provare sofferenza e grave disagio (distress).
La seconda strategia contempla l’adozione di un nuovo strumento internazionale
volto a riconoscere specifici diritti agli animali, in particolare il divieto di
utilizzarli come armi. Si tratta di una prospettiva di lungo periodo, ancora
lontana, poiché richiederebbe a molti Stati di superare profonde barriere
concettuali riguardanti la personalità giuridica degli animali non umani e di
accettare eventuali limitazioni nella conduzione dei conflitti armati per
proteggerli. Il tutto in un contesto in cui i precedenti tentativi di varare una
convenzione internazionale sul benessere animale non hanno finora riscontrato
grande successo.
> Malgrado la loro estrema vulnerabilità nei teatri di guerra, gli animali sono
> ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che
> rimane prevalentemente antropocentrico.
Però, come il giurista inglese Hersch Lauterpacht ha scritto in passato, il DIU
è “al punto di dissoluzione del diritto internazionale” e gli autori del paper
sostengono che in questo sia simile al diritto animale, con i debiti
cambiamenti, e che la loro intersezione, seppure foriera di estreme difficoltà,
non dovrebbe fermarci dal voler perseguire un’“utopia realistica” per gli
animali a livello mondiale. È possibile partire dall’attuale situazione
internazionale per poi cercare di ampliare quelli che sono considerati i limiti
della praticabilità politica.
Il DIU e il diritto legato al benessere animale sono entrambi corpi normativi
che non vietano la violenza, ma concedono lo spazio a una violenza ritenuta
“necessaria”, di fatto legittimandola. Sebbene, come sottolinea l’articolo,
questa somiglianza dovrebbe facilitare l’estensione del campo di applicazione
del DIU agli animali non umani, certamente fa emergere quella ambiguità che,
anche in condizioni di pace, esiste nei trattamenti che riserviamo loro. La
percepiamo quando accettiamo le condizioni in cui versano negli allevamenti
intensivi oppure la cattività e la scelta di sopprimere alcuni esemplari negli
zoo per calcolo economico, perché spazio e risorse delle strutture sono
limitate, o per esigenze di conservazione, al fine di mantenere l’equilibrio tra
maschi e femmine di una specie o prevenire il rischio di consanguineità. O
ancora, quando acconsentiamo alla sperimentazione animale.
> I conflitti armati rendono ancora più tangibile l’ambiguità che caratterizza
> il nostro rapporto con gli altri animali, anche e soprattutto in tempo di
> pace.
Il confine tra amore, rispetto per la vita degli animali non umani, violenza e
sopravvivenza può farsi eccezionalmente labile. Lo spiega Kinder, sempre
attingendo dall’esperienza del campo di concentramento di Buchenwald, quando
parla del poema satirico Eine Bären-Jagd im KZ Buchenwald (in italiano Una
caccia all’orso nel campo di concentramento di Buchenwald), scritto e illustrato
dal sopravvissuto al campo Kurt Dittmar nel 1946. L’opera ripercorre la breve
vita di Betti, un’orsa allevata nello zoo del campo, dall’arrivo come cucciolo
alla morte per mano di un comandante. L’orsa è inizialmente servita e riverita
dai detenuti per ordine delle SS, si nutre di buon cibo, gode di spazio
all’interno della sua gabbia ed è per questo oggetto di invidia da parte dei
prigionieri. Con il trascorrere del tempo la milizia nazista aggiunge alla
collezione dello zoo altri animali e Betti, stanca della nuova compagnia,
abbatte il recinto elettrico e fugge nella foresta. I detenuti tentano invano di
catturarla, finché il vicecomandante non la uccide e ne riporta indietro il
corpo come un trofeo. L’illustrazione di Dittmar raffigura alcuni prigionieri
sconvolti davanti alla carcassa dell’orsa, consapevoli di condividere il suo
destino di preda braccata. Costretti ad arrostirne le carni per la festa delle
guardie, non ne assaggiano neanche un boccone, ma continuano a sognare: la
libertà, il cibo e la giustizia contro i loro aguzzini. Nonostante sia ispirato
a eventi reali, il poema non è un resoconto storico, ma conserva in sé una
realtà difficile da accettare.
Scrive l’autore di World War Zoos:
> Ciò che otteniamo invece è qualcosa di più interessante: una riflessione sul
> potere e sui limiti dell’empatia. Nel racconto di Dittmar, i prigionieri umani
> di Buchenwald riconoscono che la vita di Betti è sempre appesa a un filo, che
> lei è preziosa fino al momento in cui le SS decidono diversamente. Pure lei è
> una prigioniera, anche se ha pasti migliori e una gabbia più bella. Ma questo
> non significa che non proveranno a rubarle il cibo o a rosicchiare le sue ossa
> spolpate. Nella Buchenwald di Dittmar, i prigionieri possono sia piangere per
> l’uccisione di Betti sia sbavare affamati sul suo cadavere sfrigolante.
L'articolo Animali in guerra proviene da Il Tascabile.
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di
Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo
greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La
scrittura appare immobile, incapace di adattarsi all’interlocutore come invece
fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie
tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza
generare la memoria e la saggezza che nascono dall’interazione dialettica. È,
infine, un “gioco bellissimo” ma assai distante dalla serietà del processo
dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo
“vera” filosofia, per Platone la scrittura è uno strumento a essa necessario,
così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità
richiamare alla mente un’informazione.
Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla
memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella
intuizione con il concetto di cognitive offloading. Con questa espressione si
indicano tutte le pratiche attraverso cui gli individui delegano a un supporto
esterno parte dei propri processi cognitivi, come ad esempio la funzione di
ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle
proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come
segnare una lista della spesa, annotare un compleanno su un calendario o
ricorrere al proverbiale nodo al fazzoletto.
> Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur
> non essendo “vera” filosofia è uno strumento che le è necessario, così com’è
> necessaria per la capacità di richiamare alla mente un’informazione.
Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un
forte impulso la comparsa e la diffusione della rete, e delle tecnologie
digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le
possibilità di delega della funzione cognitiva del ricordo, ma le loro
pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di
benefici e costi di queste pratiche a favore dei secondi.
I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il
cui lavoro è stato fondamentale per cristallizzare nella nostra cultura
l’immaginario del digitale ‒ funzionano come una vera e propria protesi della
nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui,
appunto, la memoria. In un paper intitolato The benefits and potential costs of
cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G.
Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli
esperimenti più significativi nell’ambito del cognitive offloading.
Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere
un ampio numero di azioni quotidiane, le persone si affidano a due tipi di
memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal
passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere
nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i
tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare
questa funzione a un supporto esterno.
Questo spiega il motivo per cui la maggior parte delle persone intervistate nei
contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di
cognitive offloading per compensare peggioramenti nelle proprie performance
mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di
ferro, sono stato costretto, passati i quaranta e diventato genitore per due
volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare
impegni e scadenze.
> Con l’espressione cognitive offloading si indicano le pratiche attraverso cui
> gli individui delegano a un supporto esterno la funzione di ricordare
> informazioni, trasformando strumenti e tecnologie in estensioni delle proprie
> capacità mnemoniche.
Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di
eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che
ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più
elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei
più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più
specifiche, non ha bisogno di una formazione mirata. Per un adulto con una
percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto
intuitivo e immediato, che non richiede ulteriore carico cognitivo.
La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in
rassegna nello studio mostrano come l’offloading cognitivo generi benefici per
entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare
informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di
informazioni non archiviate tramite meccanismi di associazione mentale: una
persona che ha segnato sulla propria lista della spesa di acquistare un
barattolo di alici ha più probabilità di ricordarsi di acquistare il burro
rispetto a una persona che non lo ha fatto, anche se il burro non è presente
nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di
offloading cognitivo siano d’ausilio alla memoria.
Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.
Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni
“scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso
alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che
l’accesso può esser negato, le performance mnemoniche si dimostrano più
efficaci. Un altro costo è la possibilità di favorire la formazione di falsi
ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono
forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare
elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa.
> Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria.
> Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior
> difficoltà a reperire informazioni quando viene improvvisamente a mancare
> l’accesso all’archivio esterno.
Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e
offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di
cognitive offloading comportano costi e benefici. Da questa prospettiva, la
diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo
strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di
scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle
informazioni, nonché sullo sviluppo del loro pensiero critico.
Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA
aggiungono all’esperienza utente la capacità di processare e presentare le
informazioni, senza doversi confrontare direttamente con le relative fonti.
Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la
domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666
partecipanti di età e percorsi formativi differenti. Questo studio analizza la
relazione tra uso di strumenti di intelligenza artificiale e capacità di
pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di
offloading cognitivo. Per pensiero critico si intende la capacità di analizzare,
valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate,
incluse le abilità di problem solving e di valutazione critica delle situazioni.
Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla
velocità di accesso ai dati alla presentazione semplificata delle risposte ‒
scoraggiano l’impegno nei processi cognitivi più complessi.
> La diffusione dell’intelligenza artificiale sta mettendo in luce come questo
> strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul
> modo in cui le persone si rapportano alle informazioni e sviluppano pensiero
> critico.
Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un
lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la
necessità, per questi professionisti, di esercitare analisi critica. Una
dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la
tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo
contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo
processo, sollevando ulteriori interrogativi sul possibile declino delle
capacità di ritenzione perché, anche in questo caso, la loro capacità di
sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un
confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle
affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una
conversazione umana
Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti
digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la
frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze
anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma
rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o
opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli
utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in
ambito militare, dove lo sviluppo di sistemi automatizzati di comando e
controllo pone dubbi di natura etica, politica e psicologica.
I test effettuati confermano che l’uso intensivo di strumenti basati su IA
favorisce pratiche di cognitive offloading che, pur alleggerendo il carico
cognitivo e liberando risorse mentali, si associano a un declino della capacità
di pensiero critico, in particolare nelle fasce più giovani. Questo declino
viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking
Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva
Diane F. Halpert e misura le abilità di pensiero critico (come valutazione
della probabilità e dell’incertezza, problem solving decisionale, capacità di
trarre conclusioni basate su prove), grazie a un set di domande aperte e a
risposta multipla applicate a uno scenario di vita quotidiana.
> L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive
> offloading che, pur alleggerendo il carico cognitivo, si associano a un
> declino della capacità di pensiero critico, in particolare nelle fasce più
> giovani.
Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai
processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia
difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti,
producono i loro benefici quando attivano la mente delle persone che le
utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una
delle tecniche di gestione della conoscenza più conosciute.
Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento,
lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura
di testi non fiction e rafforzare la memoria delle proprie letture, che prevede
di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione
scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega
Sonke Ahrens in How to take smart notes, uno dei principali testi di
divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo.
Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al
ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento
produce perciò un beneficio proprio perché impegna chi lo esegue sia a
confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante
l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò
introdurre in quest’ultima attività una componente di frizione e di impegno, che
sono la base della sua efficacia.
> Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del
> tempo necessario affinché un’informazione si depositi nella nostra memoria
> fino a diventare un pensiero originale.
A differenza della maggior parte delle interfacce attraverso cui interagiamo con
le tecnologie, in particolare con quelle digitali e di intelligenza artificiale,
il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che
stimola la nostra mente, la attiva e produce benefici sulle nostre capacità
cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il
contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web
e l’interazione uomo-computer.
Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che
lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è
proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza
artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi
stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la
scrittura che un metodo come lo Zettelkasten prescrive come base per la sua
efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare
in costi i benefici che esse possono apportare alla nostra capacità di ricordare
e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo
necessario affinché un’informazione si depositi nella nostra memoria fino a
diventare un pensiero originale.
Prendere atto di questa contraddizione significa spostare l’attenzione dalla
dimensione neurologica a quella culturale e sociale. Perché è vero che invocare
interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o
elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili
e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma
senza porsi il problema dell’accesso al capitale culturale necessario per un uso
consapevole e critico delle tecnologie, tali soluzioni rischiano di restare
lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il
capitale culturale ed economico per permettersi di limitare il proprio l’accesso
alla tecnologia e chi, al contrario, finisce per subire in modo passivo le
scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano
star costruendo l’immaginario dei loro strumenti di intelligenza artificiale.
> Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi
> capaci di potenziare creatività e pensiero critico, quanto scorciatoie per
> aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta.
Per come vengono presentati nella comunicazione corporate, gli strumenti di
intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare
la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti
più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di
presentazione degli strumenti di scrittura “smart” della sedicesima iterazione
dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato
protagonista dello spot, li usa proprio per dare un tono professionale al testo
dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire
lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia
working class è in realtà una visione in cui l’automazione non ha liberato
l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non
essere costretto a pensare prima di agire.
Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione
politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una
questione che andrebbe rimessa al centro del dibattito sull’intelligenza
artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e
integrati che ancora sembra dominarlo.
L'articolo Ricordare per procura proviene da Il Tascabile.
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo
che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational
Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo,
redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si
manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la
motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato
Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in
un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente
una parodia, fu preso sul serio da numerosi media, che lo diffusero come una
scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu
costretto a svelare lo scherzo poche ore dopo la pubblicazione.
Il caso del MoDeD divenne un esempio emblematico di come la definizione di
malattia possa essere facilmente ampliata o manipolata, trasformando aspetti
della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e
anticipava molte delle discussioni successive sulla costruzione mediatica e
sociale della malattia. Possiamo spiegare il successo della notizia con la
tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di
salute ciò che prima consideravamo semplici varianti naturali della
configurazione corporea. Questo processo è noto come medicalizzazione, ed è
particolarmente evidente nell’ambito della medicina estetica.
La patologizzazione della bruttezza
Una piega palpebrale assente, un naso prominente, denti non perfettamente
allineati, una pelle dalla texture irregolare. Nella medicina contemporanea
molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma
radicale: da semplici variazioni non desiderabili, da accettare passivamente,
sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non
solo perché si applicano competenze e strumenti propri di questa disciplina, ma
anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la
patologia è rappresentata da compromissioni funzionali, in altri casi essa
coincide con il disagio psicologico e sociale che, anche in assenza di
disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni
estetici dominanti. In queste circostanze si interviene dunque sul corpo per
guarire una “malattia dell’anima”.
> Per medicalizzazione si intende la tendenza a trattare come problemi medici
> alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti
> normali.
Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James
Aquino identifica come patologizzazione della bruttezza, si nutre di un
meccanismo duplice. Da un lato, la medicina si è appropriata di una
sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle
uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere
percepito simultaneamente come in salute, virtuoso, giovane e attraente; al
contrario, caratteristiche che deviano dagli standard vengono lette come
limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono
strategie attive per inquadrare la chirurgia estetica non come pratica
migliorativa, ma come intervento terapeutico.
In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui
la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni
della malattia.
Malattia come danno, disfunzione e deviazione
La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici
giustificavano le correzioni dei tratti corporei che causavano disagio
psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si
è spostata sul modello della disabilità, considerando la bruttezza come uno
svantaggio invalidante che può limitare le opportunità socioeconomiche. In
entrambi i casi emerge una concezione normativista della malattia, che fonda il
concetto di salute sul vissuto personale e su valori socialmente condivisi.
Questa visione si intreccia con i meccanismi sociali di riconoscimento e
valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita
vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce
qualità positive agli individui fisicamente attraenti. In virtù di questi
pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile
in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali
e professionali tangibili, tra cui migliori risultati scolastici, lavori di
status più elevato e maggiori probabilità di successo nelle relazioni.
> Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi
> economici, sociali e professionali tangibili, tra cui migliori risultati
> scolastici, lavori di status più elevato e maggiori probabilità di successo
> nelle relazioni.
La seconda accezione si basa sul concetto di disfunzione: la bruttezza
ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale,
entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma
naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto
ai normali processi biologici di un organismo, indipendentemente da percezioni
soggettive o valori culturali.
La terza accezione si basa sul concetto di deviazione: la caratterizzazione
patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a
una norma statistica o un canone numerico. Un esempio è il rapporto aureo,
utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una
caratteristica si colloca oltre i limiti di questa norma, si parla di
“deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione
biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma
statistica è spesso uno strumento per naturalizzare standard culturali,
mascherandoli da criteri biologici universali.
La crescente patologizzazione della bruttezza mette in crisi la distinzione
tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i
criteri di legittimità dell’intervento chirurgico: ciò che un tempo era
giustificato solo dal ripristino di una funzione corporea mancante o danneggiata
oggi può essere autorizzato anche dalla richiesta di colmare un presunto
svantaggio biologico o sociale.
Quello che sta accadendo con la medicina estetica è considerato da molti un
esempio evidente di disease mongering, concetto spesso reso in italiano come
“mercificazione della malattia”: si espande il dominio del patologico e quindi
il raggio d’azione della medicina, spesso con l’obiettivo di allargare il
mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e
ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò
induce nel pubblico una certa percezione di rischio e deficit, aumentando le
possibilità del mercato di identificare target di pazienti-clienti a cui
proporre prodotti sanitari come integratori, test diagnostici, programmi di
benessere e trattamenti.
> Siamo di fronte a un esempio evidente di disease mongering, o mercificazione
> della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti,
> più diventa facile creare a tavolino nuove patologie.
La ridefinizione concettuale dei confini tra salute e malattia non è però
esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la
medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di
incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella
crescente espansione dei codici ICD (International Classification of Diseases),
la Classificazione internazionale delle malattie dell’OMS (Organizzazione
Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli
anni Settanta.
L’osteoporosi e altre zone grigie
Un caso particolarmente dibattuto nella letteratura scientifica è quello
relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica
legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con
l’introduzione di criteri diagnostici basati su soglie di densità minerale
ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha
comportato la classificazione di milioni di donne in menopausa come malate o a
rischio, dal momento che i loro valori si discostavano dalla “norma statistica”,
nonostante il rischio concreto di frattura fosse molto basso nella maggior parte
dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla
necessità di ridurre l’impatto economico-sociale delle fratture sul sistema
sanitario, ha alimentato la commercializzazione di nuovi farmaci.
Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella
promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che
insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da
metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento
in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto
di soluzioni farmacologiche anziché all’adozione di strategie preventive più
semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare
esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni
proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome
dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome
metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche
analoghe, per citare solo qualche esempio.
> Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto
> la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni
> farmacologiche anziché l’adozione di strategie preventive più semplici ed
> efficaci.
Alcuni teorici ritengono che al disease mongering abbiano contribuito i
progressi nel campo della biochimica, in particolare la scoperta di indicatori
biologici (geni, molecole, cellule, parametri come la pressione o la frequenza
cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare
determinate patologie. In un recente contributo pubblicato su Frontiers in
Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica
stia sempre più influenzando le definizioni di malattia, proponendo di
diagnosticare condizioni come l’Alzheimer o il Parkinson in individui
completamente asintomatici, solo sulla base della presenza di biomarcatori nel
sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti
poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra
bisogni reali dei pazienti e interessi commerciali.
La riflessione di Reddy non riguarda solo le malattie neurologiche: in
oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale
circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici
che potrebbero non progredire mai verso una malattia sintomatica. In
psichiatria, test ematici per marker infiammatori legati alla depressione
potrebbero patologizzare risposte emotive normali. Nel caso del diabete,
biomarcatori avanzati per la resistenza insulinica potrebbero classificare
individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi
farmaci.
L’era della subsalute
L’espansione del perimetro della medicina ha profondamente trasformato il
rapporto degli individui con il proprio corpo e la propria salute. Sempre più
spesso, la prevenzione non si limita a promuovere comportamenti sani o a
monitorare situazioni ad alto rischio, ma diventa una strategia di
ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea.
Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale”
impegnato in screening, check-up, test genetici, autovalutazioni e consulti per
scoprire e correggere il più piccolo scostamento dalla normalità.
La promozione della salute, così, non si configura più solo come tutela dal
rischio, ma come dovere di perseguire un ideale di benessere ottimale e
durevole, da certificare e monitorare costantemente attraverso dispositivi,
tecnologie, esami strumentali e consulenze mediche. Il risultato è che
l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni
segnale di inefficienza, vulnerabilità o affaticamento.
> Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su
> ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un
> “paziente potenziale” impegnato in check-up, test e consulti per scoprire e
> correggere il più piccolo scostamento dalla normalità.
È all’interno di questo scenario che ha preso corpo il costrutto di salute
subottimale, concepito come un vero e proprio spazio liminale tra salute piena e
malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma
persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà
di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le
percezioni di disagio psicofisico di una crescente fetta della popolazione,
soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i
criteri clinici, riportano un generale senso di salute incompleta o precaria,
accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng,
studiosa di sociologia della salute all’Università di Sheffield, ha esplorato
l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo
sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di
“sospensione biografica” all’interno delle routine della vita quotidiana.
La subsalute risulta particolarmente appetibile dal punto di vista commerciale,
poiché non si basa su parametri oggettivi e misurabili ma su un vissuto
soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti,
tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è
generalmente concepita come una fase reversibile, a patto di intervenire sullo
stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa
rappresenta una vera e propria “zona di transizione”, dove l’individuo si
configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai
ripari e rivedere le proprie abitudini prima che possano evolvere in malattie
conclamate.
Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza
sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza
malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano
allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e
incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di
risposte sociali, cliniche e commerciali.
Il potere del discorso
Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile
senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità
dei concetti di salute e malattia per costruire legittimità e consenso attorno a
nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni
veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi
istituzionali sono in grado di conferire consistenza scientifica apparente a
concetti privi di un sostegno empirico robusto.
> Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al
> pubblico, a volte vengono costruite, negoziate e legittimate attraverso
> pratiche linguistiche, narrative e mediatiche che possono prescindere dalla
> solidità delle evidenze.
Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato
lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma
non universalmente riconosciuta come disturbo autonomo e spesso descritta come
variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth
Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli
lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio,
basato su articoli e contenuti online, mostra come l’uso di termini tecnici,
sigle, casi-studio concreti, dati numerici e citazioni di esperti dia
l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati,
ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da
MoDeD, fornendo così un dato quantitativo che rende la portata della malattia
più fondata e tangibile.
Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa
ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla
comprensione precedente (“per tutta la vita hai creduto di essere pigro; in
realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere
sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la
medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e
discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi
comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso
pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere
dalla solidità delle evidenze.
Se persino una malattia inventata può risultare verosimile, quali strumenti
abbiamo per distinguere ciò che è fondato scientificamente da una patologia
costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare
la consapevolezza che salute e malattia sono sempre, anche, categorie
discorsive, sociali, politiche e commerciali. Riconoscere questa
multidimensionalità significa smettere di cercare confini immutabili e oggettivi
e interrogarsi invece su chi ha il potere di tracciare quei confini, e a
vantaggio di chi.
L'articolo Il malato immaginato proviene da Il Tascabile.
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo
che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational
Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo,
redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si
manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la
motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato
Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in
un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente
una parodia, fu preso sul serio da numerosi media, che lo diffusero come una
scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu
costretto a svelare lo scherzo poche ore dopo la pubblicazione.
Il caso del MoDeD divenne un esempio emblematico di come la definizione di
malattia possa essere facilmente ampliata o manipolata, trasformando aspetti
della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e
anticipava molte delle discussioni successive sulla costruzione mediatica e
sociale della malattia. Possiamo spiegare il successo della notizia con la
tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di
salute ciò che prima consideravamo semplici varianti naturali della
configurazione corporea. Questo processo è noto come medicalizzazione, ed è
particolarmente evidente nell’ambito della medicina estetica.
La patologizzazione della bruttezza
Una piega palpebrale assente, un naso prominente, denti non perfettamente
allineati, una pelle dalla texture irregolare. Nella medicina contemporanea
molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma
radicale: da semplici variazioni non desiderabili, da accettare passivamente,
sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non
solo perché si applicano competenze e strumenti propri di questa disciplina, ma
anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la
patologia è rappresentata da compromissioni funzionali, in altri casi essa
coincide con il disagio psicologico e sociale che, anche in assenza di
disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni
estetici dominanti. In queste circostanze si interviene dunque sul corpo per
guarire una “malattia dell’anima”.
> Per medicalizzazione si intende la tendenza a trattare come problemi medici
> alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti
> normali.
Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James
Aquino identifica come patologizzazione della bruttezza, si nutre di un
meccanismo duplice. Da un lato, la medicina si è appropriata di una
sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle
uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere
percepito simultaneamente come in salute, virtuoso, giovane e attraente; al
contrario, caratteristiche che deviano dagli standard vengono lette come
limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono
strategie attive per inquadrare la chirurgia estetica non come pratica
migliorativa, ma come intervento terapeutico.
In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui
la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni
della malattia.
Malattia come danno, disfunzione e deviazione
La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici
giustificavano le correzioni dei tratti corporei che causavano disagio
psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si
è spostata sul modello della disabilità, considerando la bruttezza come uno
svantaggio invalidante che può limitare le opportunità socioeconomiche. In
entrambi i casi emerge una concezione normativista della malattia, che fonda il
concetto di salute sul vissuto personale e su valori socialmente condivisi.
Questa visione si intreccia con i meccanismi sociali di riconoscimento e
valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita
vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce
qualità positive agli individui fisicamente attraenti. In virtù di questi
pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile
in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali
e professionali tangibili, tra cui migliori risultati scolastici, lavori di
status più elevato e maggiori probabilità di successo nelle relazioni.
> Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi
> economici, sociali e professionali tangibili, tra cui migliori risultati
> scolastici, lavori di status più elevato e maggiori probabilità di successo
> nelle relazioni.
La seconda accezione si basa sul concetto di disfunzione: la bruttezza
ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale,
entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma
naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto
ai normali processi biologici di un organismo, indipendentemente da percezioni
soggettive o valori culturali.
La terza accezione si basa sul concetto di deviazione: la caratterizzazione
patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a
una norma statistica o un canone numerico. Un esempio è il rapporto aureo,
utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una
caratteristica si colloca oltre i limiti di questa norma, si parla di
“deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione
biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma
statistica è spesso uno strumento per naturalizzare standard culturali,
mascherandoli da criteri biologici universali.
La crescente patologizzazione della bruttezza mette in crisi la distinzione
tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i
criteri di legittimità dell’intervento chirurgico: ciò che un tempo era
giustificato solo dal ripristino di una funzione corporea mancante o danneggiata
oggi può essere autorizzato anche dalla richiesta di colmare un presunto
svantaggio biologico o sociale.
Quello che sta accadendo con la medicina estetica è considerato da molti un
esempio evidente di disease mongering, concetto spesso reso in italiano come
“mercificazione della malattia”: si espande il dominio del patologico e quindi
il raggio d’azione della medicina, spesso con l’obiettivo di allargare il
mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e
ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò
induce nel pubblico una certa percezione di rischio e deficit, aumentando le
possibilità del mercato di identificare target di pazienti-clienti a cui
proporre prodotti sanitari come integratori, test diagnostici, programmi di
benessere e trattamenti.
> Siamo di fronte a un esempio evidente di disease mongering, o mercificazione
> della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti,
> più diventa facile creare a tavolino nuove patologie.
La ridefinizione concettuale dei confini tra salute e malattia non è però
esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la
medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di
incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella
crescente espansione dei codici ICD (International Classification of Diseases),
la Classificazione internazionale delle malattie dell’OMS (Organizzazione
Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli
anni Settanta.
L’osteoporosi e altre zone grigie
Un caso particolarmente dibattuto nella letteratura scientifica è quello
relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica
legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con
l’introduzione di criteri diagnostici basati su soglie di densità minerale
ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha
comportato la classificazione di milioni di donne in menopausa come malate o a
rischio, dal momento che i loro valori si discostavano dalla “norma statistica”,
nonostante il rischio concreto di frattura fosse molto basso nella maggior parte
dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla
necessità di ridurre l’impatto economico-sociale delle fratture sul sistema
sanitario, ha alimentato la commercializzazione di nuovi farmaci.
Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella
promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che
insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da
metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento
in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto
di soluzioni farmacologiche anziché all’adozione di strategie preventive più
semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare
esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni
proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome
dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome
metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche
analoghe, per citare solo qualche esempio.
> Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto
> la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni
> farmacologiche anziché l’adozione di strategie preventive più semplici ed
> efficaci.
Alcuni teorici ritengono che al disease mongering abbiano contribuito i
progressi nel campo della biochimica, in particolare la scoperta di indicatori
biologici (geni, molecole, cellule, parametri come la pressione o la frequenza
cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare
determinate patologie. In un recente contributo pubblicato su Frontiers in
Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica
stia sempre più influenzando le definizioni di malattia, proponendo di
diagnosticare condizioni come l’Alzheimer o il Parkinson in individui
completamente asintomatici, solo sulla base della presenza di biomarcatori nel
sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti
poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra
bisogni reali dei pazienti e interessi commerciali.
La riflessione di Reddy non riguarda solo le malattie neurologiche: in
oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale
circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici
che potrebbero non progredire mai verso una malattia sintomatica. In
psichiatria, test ematici per marker infiammatori legati alla depressione
potrebbero patologizzare risposte emotive normali. Nel caso del diabete,
biomarcatori avanzati per la resistenza insulinica potrebbero classificare
individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi
farmaci.
L’era della subsalute
L’espansione del perimetro della medicina ha profondamente trasformato il
rapporto degli individui con il proprio corpo e la propria salute. Sempre più
spesso, la prevenzione non si limita a promuovere comportamenti sani o a
monitorare situazioni ad alto rischio, ma diventa una strategia di
ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea.
Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale”
impegnato in screening, check-up, test genetici, autovalutazioni e consulti per
scoprire e correggere il più piccolo scostamento dalla normalità.
La promozione della salute, così, non si configura più solo come tutela dal
rischio, ma come dovere di perseguire un ideale di benessere ottimale e
durevole, da certificare e monitorare costantemente attraverso dispositivi,
tecnologie, esami strumentali e consulenze mediche. Il risultato è che
l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni
segnale di inefficienza, vulnerabilità o affaticamento.
> Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su
> ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un
> “paziente potenziale” impegnato in check-up, test e consulti per scoprire e
> correggere il più piccolo scostamento dalla normalità.
È all’interno di questo scenario che ha preso corpo il costrutto di salute
subottimale, concepito come un vero e proprio spazio liminale tra salute piena e
malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma
persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà
di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le
percezioni di disagio psicofisico di una crescente fetta della popolazione,
soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i
criteri clinici, riportano un generale senso di salute incompleta o precaria,
accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng,
studiosa di sociologia della salute all’Università di Sheffield, ha esplorato
l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo
sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di
“sospensione biografica” all’interno delle routine della vita quotidiana.
La subsalute risulta particolarmente appetibile dal punto di vista commerciale,
poiché non si basa su parametri oggettivi e misurabili ma su un vissuto
soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti,
tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è
generalmente concepita come una fase reversibile, a patto di intervenire sullo
stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa
rappresenta una vera e propria “zona di transizione”, dove l’individuo si
configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai
ripari e rivedere le proprie abitudini prima che possano evolvere in malattie
conclamate.
Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza
sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza
malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano
allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e
incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di
risposte sociali, cliniche e commerciali.
Il potere del discorso
Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile
senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità
dei concetti di salute e malattia per costruire legittimità e consenso attorno a
nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni
veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi
istituzionali sono in grado di conferire consistenza scientifica apparente a
concetti privi di un sostegno empirico robusto.
> Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al
> pubblico, a volte vengono costruite, negoziate e legittimate attraverso
> pratiche linguistiche, narrative e mediatiche che possono prescindere dalla
> solidità delle evidenze.
Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato
lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma
non universalmente riconosciuta come disturbo autonomo e spesso descritta come
variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth
Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli
lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio,
basato su articoli e contenuti online, mostra come l’uso di termini tecnici,
sigle, casi-studio concreti, dati numerici e citazioni di esperti dia
l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati,
ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da
MoDeD, fornendo così un dato quantitativo che rende la portata della malattia
più fondata e tangibile.
Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa
ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla
comprensione precedente (“per tutta la vita hai creduto di essere pigro; in
realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere
sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la
medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e
discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi
comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso
pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere
dalla solidità delle evidenze.
Se persino una malattia inventata può risultare verosimile, quali strumenti
abbiamo per distinguere ciò che è fondato scientificamente da una patologia
costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare
la consapevolezza che salute e malattia sono sempre, anche, categorie
discorsive, sociali, politiche e commerciali. Riconoscere questa
multidimensionalità significa smettere di cercare confini immutabili e oggettivi
e interrogarsi invece su chi ha il potere di tracciare quei confini, e a
vantaggio di chi.
L'articolo Il malato immaginato proviene da Il Tascabile.
D a secoli filosofi, teologi e scienziati si chiedono come abbia avuto origine
la vita sulla Terra. La questione è tutt’altro che semplice, e oggi una
moltitudine di laboratori in giro per il mondo dedica la propria ricerca a
trovare una risposta capace di soddisfare ogni dubbio. Si trovano ad andare
indietro nel tempo, sino a quando la Terra doveva ancora compiere il suo primo
miliardo di anni, quando gli oceani ribollivano per l’attività vulcanica e
l’aria era percossa da fulmini. È lì che idrogeno e anidride carbonica hanno
alterato la storia del nostro pianeta, dando vita a molecole organiche. Ed è da
queste basi chimiche ‒ attraverso fasi intermedie ‒ che riteniamo si
svilupparono gli acidi nucleici. Un punto di svolta dev’essere stato la comparsa
degli aminoacidi e la loro incorporazione nel codice genetico come lo conosciamo
oggi, con le sequenze di DNA e RNA che custodiscono l’informazione e i ribosomi
che la traducono in proteine, ossia catene di aminoacidi che rappresentano i
mattoni fondamentali per la vita.
Ma per affrontare la questione, bisogna innanzitutto stabilire cosa si intenda
con “vita”, e in secondo luogo perché alcune delle molecole indispensabili siano
apparse ben prima che esistessero le prime cellule.
L’essere umano prova a replicare le condizioni per la nascita della vita almeno
dal 1953, quando gli scienziati Harold Urey e Stanley Miller progettarono un
apparato di vetro per simulare le condizioni della Terra primordiale. I due
crearono un sistema chiuso; riscaldarono acqua con idrogeno, metano e ammonio, e
simularono l’effetto dei fulmini con scariche elettriche. Lasciarono che il
miscuglio gassoso si condensasse e cadesse di nuovo in acqua come pioggia. Nel
giro di una settimana, il finto oceano che avevano creato era diventato marrone
per le biomolecole e gli aminoacidi che si erano formati.
Oggi, oltre settant’anni dopo l’esperimento, il risultato principale rimane
valido: nelle condizioni simulate dai ricercatori, la materia abiotica – ovvero
non vivente – può dare origine a molecole organiche. Tuttavia, sappiamo che
probabilmente la composizione atmosferica della Terra primordiale era differente
da quella considerata da Urey-Miller. Per esempio, i due non inclusero
nell’esperimento lo zolfo, elemento che oggi sappiamo essere stato fondamentale
al tempo della nascita delle prime forme di vita. L’esclusione dello zolfo rende
impossibile la formazione della metionina, un aminoacido che invece, stando al
lavoro di Sawsan Wehbi e colleghi, sarebbe una delle prime molecole a essere
incorporate nel codice genetico.
> L’essere umano prova a replicare le condizioni per la comparsa della vita
> almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller
> progettarono un apparato di vetro per simulare le condizioni della Terra
> primordiale.
Un’altra teoria ipotizza che la vita abbia avuto origine nelle sorgenti
idrotermali di profondità marine, ferite sul fondale degli oceani da cui
fuoriesce acqua calda e ricca di minerali. Qui, il ferro minerale reagisce con
l’acqua per produrre idrogeno che, a sua volta, potrebbe reagire con l’anidride
carbonica per produrre formiato, acetato e piruvato – molecole organiche
fondamentali per il metabolismo di una cellula. Tuttavia, anche su questo
rimangono aperti vari punti: secondo alcuni studiosi non è possibile che la vita
primordiale potesse tollerare temperature tanto alte, e ricerche recenti
esplorano anche le sorgenti termali terrestri come possibile culla della vita.
In uno studio del 2024, pubblicato su Nature Communications, i ricercatori hanno
sintetizzato solfuri di ferro in scala nanometrica, incluse forme pure e
versioni arricchite con elementi come manganese, nichel, titanio e cobalto.
Hanno esposto questi campioni all’idrogeno gassoso e all’anidride carbonica in
condizioni che simulavano quelle delle sorgenti calde, con temperature comprese
tra 80 e 120 gradi Celsius. Così facendo sono riusciti a produrre metanolo da
solfuri di ferro con manganese. Sembra inoltre che anche luce e vapore acqueo
ricoprano un ruolo cruciale: la luce UV nello spettro del visibile può
facilitare le reazioni, abbassando l’energia di attivazione; la presenza di
vapore acqueo, pur in alcuni casi ostacolante a basse temperature, può favorire
la sintesi alle temperature più alte.
Una volta formatesi le molecole organiche, ci troviamo di fronte a un dilemma
spesso paragonato a quello dell’uovo e della gallina: è venuto prima il
materiale genetico o le proteine? Per lungo tempo, si è guardato all’RNA come
candidato favorevole, poiché oltre a essere una molecola codificante è in grado
di catalizzare reazioni chimiche, come fanno le proteine. Tuttavia, bisogna
capire se una struttura fragile come quella dell’RNA possa essere sorta nelle
dure condizioni del brodo primordiale e, sinora, nessuno è riuscito a ottenerlo
in condizioni ambientali che simulassero quelle del mondo prebiotico.
Ma esiste un’altra possibilità, esplorata di recente, secondo cui sarebbero
invece le proteine ad aver visto la luce per prime. Fra i promotori di questa
teoria c’è Andrew Pohorille, direttore del Center for Computational Astrobiology
and Fundamental Biology della NASA, scomparso nel 2024. Le proteine sono
molecole più semplici da produrre rispetto agli acidi nucleici, il problema è
che le catene amminoacidiche non sono in grado di replicarsi da sole. L’ipotesi
di Pohorille prevede che esse siano diventate nel tempo un sistema di
conservazione delle informazioni, non replicabile e meno complesso di quello
odierno basato sugli acidi nucleici, e che la loro presenza abbia favorito la
comparsa dell’RNA. Quest’ultimo avrebbe poi preso il sopravvento.
Un indizio su questo fronte arriva da uno studio congiunto della Stony Brook
University e del Lawrence Berkeley National Laboratory. È possibile che sulla
Terra primordiale avvenisse la sintesi di corti polimeri, ovvero molecole
formate da più unità, dette monomeri, a formare sequenze casuali. Non è chiaro,
tuttavia, come possa essere avvenuto il salto a catene più lunghe con sequenze
particolari in grado di autocatalizzarsi, ovvero di aumentare la propria
concentrazione nell’ambiente.
I ricercatori Elizaveta Guseva, Ronald Zuckermann e Ken Dill hanno investigato i
processi fisici e chimici alla base di questo passaggio, basandosi su un modello
di ripiegamento di polimeri che Dill aveva sviluppato in precedenza. Hanno
scoperto che alcune piccole catene possono collassare a formare strutture
compatte in acqua. La maggior parte delle molecole si ripiega in modo da esporre
solo le parti idrofile, ma alcune si comportano diversamente: espongono parti
idrofobe che attraggono le parti simili di altri polimeri. Di qui può avvenire
la formazione di molecole più complesse, che si ripiegano e possono anche
diventare catalizzatori. Per quanto rare, queste molecole tenderebbero a
crescere nel brodo prebiotico e potrebbero avere un ruolo nella nascita della
vita.
> Le proteine potrebbero essere emerse come prime molecole organiche, fornendo
> un sistema di conservazione delle informazioni, non replicabile e meno
> complesso di quello basato sugli acidi nucleici, e la loro presenza potrebbe
> aver favorito la comparsa dell’RNA.
La questione, quindi, è duplice: dapprima è necessario comprendere che aspetto
avesse il mondo primordiale e poi si può investigare quali delle molecole
disponibili si rivelarono essenziali per lo sviluppo delle prime forme di vita.
Uno studio del 2000 provò a stabilire in quale ordine siano apparsi i venti
aminoacidi odierni. Ben nove dei dieci trovati con l’esperimento di Urey-Miller
erano in cima alla lista; ciò fu considerato una riprova dell’importanza
dell’esperimento, e del fatto che questo non si limitava a dimostrare che la
sintesi abiotica degli aminoacidi fosse possibile. Edward N. Trifonov, autore
dello studio, partiva dal presupposto che gli aminoacidi più diffusi prima
dell’origine della vita fossero stati i primi a essere incorporati nel codice
genetico. Ma, osservando le antiche sequenze, questo si rivela non essere del
tutto vero.
Uno studio recente, condotto presso l’Università dell’Arizona, ha messo in
discussione l’idea che il codice genetico sia nato seguendo l’ordine di
reclutamento degli aminoacidi comunemente accettato. Supponendo che le sequenze
più antiche siano più ricche di quegli aminoacidi che sono stati incorporati per
primi, e non per forza degli aminoacidi che erano presenti in maggior quantità 4
miliardi di anni fa, si trovano risposte diverse. Ci sono aminoacidi che non
erano abbondanti, ma che le antiche forme di vita sono riuscite a utilizzare
comunque, probabilmente perché hanno funzioni uniche e importanti. “Siamo
partiti da un assunto: che l’antica Terra poteva produrre tanti aminoacidi, ma
non tutti venivano necessariamente utilizzati dalle forme di vita primitive”, mi
racconta Sawsan Wehbi, tra gli autori dello studio. “Non eravamo soddisfatti
degli studi precedenti. Volevamo riaprire la domanda sull’ordine di reclutamento
degli aminoacidi, che fino a oggi è stato considerato come un assioma”.
> Secondo alcune stime, il nostro ultimo antenato comune universale (LUCA),
> risalirebbe a 4,2 miliardi di anni fa, il che implicherebbe che la sua
> comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto
> all’origine della Terra.
L’idea del gruppo di ricerca era viaggiare indietro nel tempo fino al momento in
cui il codice genetico stava prendendo vita. Parliamo del periodo in cui è
apparso LUCA (acronimo di Last Universal Common Ancestor), una cellula da cui si
ipotizza siano derivate tutte le forme di vita odierne. Recentemente, si è
stimato che LUCA sia vissuto 4,2 miliardi di anni fa e quindi che la sua
comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto
all’origine della Terra. Tracce di come doveva essere questo organismo
primordiale vivono dentro ognuno di noi, dentro gli alberi, i funghi e i
batteri. La cellula si è duplicata, poi le sue figlie si sono duplicate e loro
figlie hanno fatto lo stesso, e nel tempo le mutazioni e la selezione naturale
hanno guidato la differenziazione degli organismi.
Studiare LUCA è complicato perché il nostro antenato non esisteva in un mondo
vuoto. Aveva dei predecessori, la cui storia evolutiva non ci è ancora chiara, e
appare come un caotico e incessante trasferimento di geni. Oltretutto, non è
detto che LUCA fosse un solo organismo. Potrebbe anche essere stato una comunità
di organismi che condividevano geni e caratteristiche utili alla sopravvivenza.
In questa lettura, più che un singolo ente biologico, LUCA rappresenterebbe un
periodo di tempo.
Wehbi e colleghi hanno deciso di guardare non agli aminoacidi che esistevano
nell’ambiente, ma solo a quelli che le prime sequenze biotiche scelsero di
incorporare. Dunque, hanno considerato come evento spartiacque proprio la
nascita del codice genetico, e hanno paragonato sequenze che risalgono a poco
prima con sequenze che risalgono a poco dopo. Possiamo supporre che le catene
più antiche che incontriamo siano ricche di quegli aminoacidi che il codice
genetico scelse per primi, e povere di quelli che furono scelti per ultimi. E
non è tutto: dentro un’antica sequenza di aminoacidi Sawsan Wehbi e i suoi
colleghi hanno trovato segmenti che si sono duplicati varie volte e si sono
conservati. Questo significa che esistono sequenze così antiche che appartengono
a un tempo in cui le proteine venivano tradotte in altri modi. È un dato
cruciale, perché presuppone l’esistenza di codici genetici più antichi degli
acidi nucleici, e viene a cadere l’idea che il corrente sistema di trascrizione
e traduzione dell’informazione genetica sia l’unica possibilità.
Lo studio ha rivelato anche che la vita primordiale preferiva aminoacidi più
piccoli, mentre gli aminoacidi che contengono atomi di metallo sono stati
incorporati molto prima di quanto si pensasse in precedenza. “Sapere quali
aminoacidi furono usati al principio della vita sulla Terra è importante perché
ci permette di sapere che tipo di mondo biotico c’era. Ci sono tanti tipi
diversi di aminoacidi che il pianeta può produrre, ma questo non significa che
la vita li utilizzerà”, spiega Wehbi. “La cosa che mi ha stupito di più è stata
scoprire che quello che studiamo ha implicazioni in tantissime aree della
scienza. Questa ricerca è stata utilizzata in diversi ambiti di ricerca, non
solo nella biologia, ma si è rivelata utile anche per come concepiamo la vita
nello spazio, per le missioni della NASA, per la ricerca di molecole organiche
lontano dal suolo terrestre. Abbiamo cambiato il paradigma”.
> L’esistenza di proteine antecedenti all’RNA presuppone l’esistenza di codici
> genetici più antichi degli acidi nucleici, e mette in discussione l’idea che
> il corrente sistema di trascrizione e traduzione dell’informazione genetica
> sia l’unica possibilità.
Tutto questo è possibile perché gli studiosi oggi sono in grado di ripercorrere
le tracce di LUCA e analizzare le sequenze del periodo in cui il codice genetico
era in costruzione. Lo si fa attraverso un lavoro di ricerca nei database e di
sequenziamento proteico per ricostruire la storia evolutiva delle sequenze – di
fatto, si guarda alla radice dell’albero filogenetico di una sequenza e si cerca
di capire a quando risale. Nel caso di questo studio, i ricercatori hanno scelto
di focalizzarsi sui domini proteici, che sono generalmente più antichi delle
proteine che compongono.
LUCA probabilmente aveva altre forme di vita intorno a sé, ma non sono
sopravvissute e non ci hanno lasciato indizi. Retrocedendo nel tempo, le domande
si fanno più intricate e le risposte più nebulose. Chi è comparso per primo,
l’RNA, il DNA o le proteine? E com’è arrivato il DNA a diventare il ricettario
favorito dalle forme di vita? Ancora più indietro nel tempo, rimane da capire
come arrivarono le prime molecole organiche a polimerizzare, a formare DNA, RNA
e aminoacidi, e di lì come fecero le sequenze a duplicarsi o tradursi in
proteine. Le macromolecole hanno bisogno di allungarsi e ripiegarsi per
funzionare e l’ambiente precoce avrebbe impedito la formazione di stringhe così
lunghe. Non a caso, la vita prese piede quando comparvero le membrane, che si
richiusero intorno alle macromolecole e le protessero dall’ambiente esterno. E
dunque come, e quando, comparvero le membrane? Come fu la prima duplicazione di
una cellula? Avvenne in un unico luogo geologico, o in molti posti
simultaneamente? “La cosa più bella”, commenta Sawsan Wehbi, “è che per ognuna
di queste domande esiste almeno un laboratorio nel mondo dedicato interamente a
studiarla”.
L'articolo La vita prima della vita proviene da Il Tascabile.
N el racconto Funes el memorioso, pubblicato da Jorge Luis Borges nel 1942, un
giovane contadino cade da cavallo e perde la capacità di dimenticare. Da quel
momento, ogni dettaglio della realtà si imprime nella sua mente con una
precisione assoluta e implacabile: ogni foglia, ogni crepa del muro, ogni
riflesso di luce sul vetro. Funes ricorda tutto, ma non riesce più a pensare.
Non può più astrarre, generalizzare, selezionare. Il mondo lo invade. E con
esso, la sua memoria. “Ho più ricordi io da solo di quanti ne avranno avuti
tutti gli uomini”, dice. Alla vita di Funes non è più concesso il sonno:
“Dormire è distrarsi dal mondo”, aggiunge. “I miei sogni sono come la vostra
veglia”.
Oggi, a distanza di ottant’anni, la scienza ci ha dimostrato che Borges aveva
colto qualcosa di sostanziale: ricordare tutto è una condanna. La memoria umana
funziona come un archivio flessibile e dinamico, che organizza, modifica e
talvolta – per fortuna ‒ sopprime. E in questa riscrittura continua, il sonno
gioca un ruolo decisivo.
Il cervello che lavora al buio
Mentre dormiamo, il cervello compie un lavoro di editing straordinario. Da una
parte, consolida i ricordi, fissandoli nella memoria a lungo termine;
dall’altra, quando il sonno è sufficiente e non frammentato, ne modula
l’intensità emotiva. Questi processi riguardano la memoria in generale e, in
media, possono ridurre anche la frequenza dei ricordi intrusivi, ovvero immagini
ricorrenti e frammenti di esperienze dolorose che riemergono senza preavviso
quando la mente è sotto pressione, spesso legati a traumi o a situazioni di
forte stress.
> Mentre dormiamo, il cervello compie un lavoro di editing straordinario. Da una
> parte consolida i ricordi, fissandoli nella memoria a lungo termine;
> dall’altra, quando il sonno è sufficiente e non frammentato, ne modula
> l’intensità emotiva.
Già alla fine degli anni Novanta, alcuni neuroscienziati iniziarono a osservare
che le diverse fasi del sonno non si equivalgono. Il sonno profondo, ricco di
onde lente, rafforza soprattutto i ricordi dichiarativi: fatti, parole,
concetti. La fase REM, più tarda e associata all’attività onirica, è implicata
invece nell’apprendimento motorio e, soprattutto, nella regolazione delle
emozioni. Nel 2008, uno studio dimostrò che il cervello tende a memorizzare con
priorità i dettagli emotivamente rilevanti rispetto a quelli neutri. Come se il
sonno operasse una selezione affettiva: trattiene ciò che conta davvero, lascia
sbiadire il superfluo. Al contrario, quando non dormiamo ‒ o dormiamo male ‒ il
sistema emotivo si squilibra. Importanti studi di neuroimaging hanno mostrato
che dopo trentasei ore di veglia si amplifica la reattività dell’amigdala, la
centralina cerebrale delle emozioni, e si riduce il collegamento con le aree
frontali deputate al controllo. Il risultato: emozioni più intense, meno
governabili.
A conferma di questo meccanismo, uno studio del 2011 ha rilevato che dopo una
notte di sonno fisiologico, la risposta emotiva dell’amigdala si attenua di
fronte agli stessi stimoli che il giorno prima avevano generato turbamento. Come
se la fase REM avesse addolcito il ricordo, riducendone la carica affettiva
senza alterarne il contenuto. Matthew Walker, neuroscienziato e direttore del
Center for Human sleep science a Berkeley, ha dedicato vent’anni a studiare
questi meccanismi. Nel suo libro Perché dormiamo (2019), spiega come il sonno
REM agisca come una sorta di terapia notturna: durante questa fase, il cervello
è quasi privo di noradrenalina ‒ l’equivalente cerebrale dell’adrenalina, un
neurotrasmettitore associato all’ansia ‒ e questo permette ai centri emotivi di
rielaborare i ricordi carichi di emozione senza esserne sopraffatti. Il sonno,
insomma, è un laboratorio attivo e selettivo, in cui le esperienze vengono
rielaborate, scolpite nella memoria e smussate nel loro impatto emotivo. Una
forma invisibile, ma potentissima, di protezione.
Il sonno REM e il controllo sui ricordi intrusivi
Nel gennaio del 2025, un gruppo interistituzionale di neuroscienziati, guidati
dalle università di York e dell’East Anglia, ha pubblicato uno studio che mette
in relazione in modo esplicito due ambiti di ricerca finora paralleli: il
controllo volontario dei ricordi indesiderati e il ruolo del sonno, in
particolare REM, nel ripristinare i meccanismi neurali che lo sostengono.
> Il sonno è un laboratorio attivo e selettivo, in cui le esperienze vengono
> rielaborate, scolpite nella memoria e smussate nel loro impatto emotivo. Una
> forma invisibile, ma potentissima, di protezione.
La nostra capacità di non pensare volontariamente a qualcosa, da svegli, viene
testata in laboratorio con un protocollo chiamato Think/No-Think: ai
partecipanti si chiede di imparare una serie di associazioni ‒ per esempio una
parola collegata a un’immagine ‒ e poi di evitare deliberatamente di pensarci.
Quando il controllo funziona, il ricordo resta sotto la soglia della coscienza.
La fase REM facilita questa forma di inibizione. L’esperimento ha coinvolto un
gruppo molto consistente di volontari, 85 in totale, divisi in due gruppi: una
parte ha dormito normalmente, l’altra è rimasta sveglia tutta la notte. Chi
aveva dormito, e specialmente chi aveva trascorso più tempo nella fase REM,
riusciva meglio a impedire che certi ricordi riemergessero. L’attività della
corteccia prefrontale, che regola i processi esecutivi, aumentava; quella
dell’ippocampo, sede della memoria episodica, si riduceva. Al contrario, nei
soggetti deprivati di sonno, questo circuito si indeboliva, e i ricordi da
evitare tornavano più facilmente alla coscienza.
È il primo studio a mostrare che tra qualità del sonno e controllo cognitivo
esiste un nesso diretto, perché suggerisce che la capacità di “non pensare a
qualcosa”, un’abilità centrale per il benessere mentale, non dipende solo dalla
forza di volontà. Dipende anche da quanto e da come abbiamo dormito.
Un’intuizione di lunga data, messa alla prova
L’idea che durante il sonno la mente lavori attivamente sui contenuti emotivi
non è una scoperta recente. Già per Sigmund Freud il sogno era uno spazio in cui
l’apparato psichico lavora il materiale inconscio trasformandolo in immagini
simboliche che possiamo permetterci di guardare da vicino: “Il sogno è la via
regia che porta all’inconscio”, scrive in L’interpretazione dei sogni. Carl
Gustav Jung ne ampliò la portata, definendo il sogno come funzione
compensatoria, cioè un’attività della psiche che cerca di ristabilire un
equilibrio rispetto agli atteggiamenti unilaterali della coscienza.
A partire dagli anni Cinquanta, questa illuminazione cominciò a trovare
riscontri nella fisiologia del sonno. Nel 1953, gli scienziati Eugene Aserinsky
e Nathaniel Kleitman scoprirono l’esistenza di una fase notturna caratterizzata
da rapid eye movements, rapidi movimenti oculari che si manifestano sotto le
palpebre, tracciabili tramite elettrooculogramma. La definirono “REM sleep”: una
condizione in cui il cervello mostra un’attività elettrica molto vivace, simile
alla veglia, mentre il corpo ‒ con l’eccezione di sporadiche scariche muscolari
involontarie ‒ si trova in uno stato di atonia quasi totale.
Studiando la stessa fase in modo indipendente, il neuroscienziato francese
Michel Jouvet la battezzò sommeil paradoxal (sonno paradosso), mettendo
l’accento proprio su questa natura contraddittoria. Jouvet sarà tra i primi a
ipotizzare che proprio in questa fase si concentrino le dinamiche più complesse
della rielaborazione mentale. Negli anni successivi, William Dement, neurologo e
pioniere della medicina del sonno, coniò il termine polisonnografia, per
indicare lo strumento che ancora oggi consente di monitorare le fasi del sonno,
contribuendo al suo successo in ambito diagnostico e di ricerca.
> I nostri ricordi non sono mai oggettivi: si piegano alla memoria emotiva e
> vengono riscritti ogni volta che li rievochiamo. Durante il giorno li
> rielaboriamo razionalmente. Di notte quella razionalità si ritira.
Tra gli anni Ottanta e Novanta, la clinica dei sogni trova un’articolazione
terapeutica nel lavoro di Rosalind Cartwright. Nelle sue ricerche su depressione
e trauma, la neuroscienziata, fondatrice, direttrice e ricercatrice presso lo
Sleep disorders service and Research center, osservò che nel tempo i contenuti
onirici si modificano con l’elaborazione emotiva. In questa prospettiva, il
sogno svolge una funzione essenziale di regolazione: contribuisce a smorzare gli
stati affettivi negativi mettendo in relazione le esperienze disturbanti recenti
con ricordi pregressi, favorendo una fusione narrativa che integra anche i
vissuti più dolorosi dentro una rappresentazione del sé più coerente e
sostenibile.
Sappiamo che i ricordi non sono mai oggettivi: si piegano alla memoria emotiva,
cambiano con il tempo, si ricostruiscono ogni volta che li rievochiamo. Durante
il giorno li rielaboriamo razionalmente, cercando di dare loro un ordine. Di
notte quella razionalità si ritira. Nel sogno emergono liberamente paure,
desideri, fantasie, colpe, tutto ciò che da svegli teniamo sotto controllo. Il
sonno ci protegge proprio perché questa rielaborazione avviene al di fuori della
nostra volontà, senza resistenze né censure.
Sognare sapendo di sognare
Ma cosa succederebbe se potessimo trasformare questa protezione automatica e
passiva in un intervento consapevole? La domanda è al centro di un filone di
ricerca che negli ultimi anni sta ridefinendo i confini tra veglia e sonno:
quello dedicato allo studio del sogno lucido, uno stato ibrido in cui la
coscienza vigile del sognatore incontra la plasticità della fase REM, aprendo la
possibilità di intervenire attivamente sul contenuto onirico.
> Nel sogno lucido il cervello sembra lavorare su due registri
> contemporaneamente: da una parte mantiene la plasticità del sogno, in cui le
> emozioni vengono naturalmente elaborate; dall’altra recupera capacità
> cognitive tipiche della veglia.
Con Waking Life, film d’animazione del 2001, Richard Linklater immerge il
protagonista in un flusso onirico ininterrotto, un labirinto di dialoghi e
visioni in cui i confini tra realtà percepita e immaginazione si dissolvono
continuamente, lasciando attori e spettatori in una condizione di perpetua
ambiguità. In una delle conversazioni più intense del film, quella con il poeta
Timothy “Speed” Levitch, emerge un paradosso che suona quasi come un’istruzione
per aspiranti sognatori lucidi. Levitch invita a fare qualcosa di
controintuitivo: prima di addormentarsi, non lasciarsi andare: “Il che vuol
dire: ricorda. Perché ricordare è un’attività decisamente più psicotica del
dimenticare”. Mentre il sonno tradizionalmente invita a cedere il controllo, qui
si suggerisce di fare l’opposto: mantenere la consapevolezza, ricordarsi di
ricordare.
Nel sogno ordinario, richiamare volontariamente un ricordo traumatico può essere
rischioso, perché significa riportare in superficie contenuti che la mente vuole
tenere a bada. Nel sogno lucido, però, la coscienza rimane vigile, e questo
permette di usare il ricordo come leva terapeutica: è possibile elaborare il
trauma mentre il cervello svolge naturalmente il suo lavoro di regolazione
emotiva.
Quest’area di confine è al centro di numerosi studi recenti. Nel 2019, una
review ha analizzato i dati di neuroimaging disponibili, arrivando a una
conclusione preliminare ma significativa: durante un sogno lucido si attivano
aree associate a funzioni cognitive superiori come il controllo esecutivo,
l’attenzione e la meta-coscienza, che nel sonno REM ordinario tendono a restare
poco attive. È come se il cervello riuscisse a lavorare su due registri
contemporaneamente: da una parte mantiene la plasticità del sogno,
quell’ambiente in cui le emozioni vengono naturalmente elaborate; dall’altra
recupera capacità cognitive tipiche della veglia.
Il sogno interattivo
Nel 2021, quattro team di ricerca indipendenti – in Francia, Germania, Paesi
Bassi e Stati Uniti – hanno pubblicato su Current Biology uno studio che
dimostra come sia possibile stabilire una comunicazione con i cosiddetti lucid
dreamers nel momento del sonno. I partecipanti, durante episodi di sogno lucido
in fase REM monitorata con polisonnografia, sono stati in grado di ricevere
domande dall’esterno, come semplici problemi aritmetici o quesiti sì/no, e di
rispondere in tempo reale attraverso sequenze prestabilite di movimenti oculari
o contrazioni facciali.
Il risultato, replicato in quattro laboratori con metodologie leggermente
diverse, suggerisce che nel sogno lucido restano attive alcune funzioni
cognitive complesse, come la memoria di lavoro e la capacità di comprendere
istruzioni verbali, una condizione fino a poco tempo fa ritenuta esclusiva dello
stato di veglia. I ricercatori hanno definito questo fenomeno “sogno
interattivo”: una comunicazione bidirezionale con la mente addormentata che, pur
con limiti tecnici e cognitivi, si dimostra replicabile, funzionale e
indipendente dal metodo di induzione onirica. Se la coscienza e il controllo
cognitivo possono sopravvivere al sonno, anche solo in forma parziale, si apre
la possibilità di osservare dall’interno l’attività mentale notturna, di
interrogarla nel suo stesso linguaggio e, forse, un giorno, di influenzarne il
corso.
> In alcuni esperimenti i sognatori lucidi sono stati in grado di ricevere
> domande dall’esterno, come semplici problemi aritmetici o quesiti sì/no, e di
> rispondere in tempo reale attraverso sequenze prestabilite di movimenti
> oculari o contrazioni facciali.
La fascinazione per il tema ha spinto questa frontiera ancora oltre, aprendo
scenari che sconfinano nella fiction. Nel 2024 la startup californiana REMspace
ha annunciato di aver ottenuto la prima comunicazione tra due persone in sogno
lucido. Secondo quanto riportato dall’azienda, l’esperimento avrebbe coinvolto
due sognatori lucidi in case separate, monitorati da remoto durante il sonno
tramite sensori elettromiografici. Utilizzando un sistema di codifica
semplificata, un partecipante avrebbe ricevuto una parola casuale e l’avrebbe
“trasmessa” al secondo, che avrebbe poi confermato il messaggio al risveglio.
Al momento, però, mancano pubblicazioni scientifiche sottoposte a revisione
paritaria: le uniche fonti sono il sito e i comunicati dell’azienda, ripresi
dalla stampa generalista. A complicare il quadro sono alcuni dettagli sul
fondatore di REMspace, figura controversa nota anche per esperimenti personali
estremi, tra cui un tentativo autogestito di impianto cerebrale nel 2023.
Tra cura e controllo
Tra le applicazioni cliniche del sogno lucido, la più esplorata riguarda il
trattamento degli incubi ricorrenti e, in parte, dei sintomi legati al trauma.
Una revisione sistematica del 2023 ha evidenziato risultati promettenti della
lucid dreaming therapy (LDT), capace in alcuni casi di ridurre la frequenza e
l’intensità degli incubi, sebbene i dati provengano ancora da studi pilota
condotti su campioni ridotti. Una seconda review, apparsa su BMC Psychiatry,
inserisce la LDT tra gli approcci psicosociali emergenti, ma ne segnala al
contempo la variabilità metodologica e la necessità di standardizzazione.
Nel biennio 2024-2025, uno studio preliminare ha adattato la terapia
cognitivo-comportamentale per gli incubi ai pazienti con narcolessia,
affiancandola a un metodo sperimentale volto a stimolare la consapevolezza
onirica nei momenti chiave del sonno. I risultati iniziali segnalano una
possibile riduzione della gravità degli incubi e un miglioramento del senso di
controllo. In questo contesto, la narcolessia rappresenta un terreno di indagine
particolarmente fertile: numerosi studi riportano una maggiore incidenza di
sogni lucidi tra chi ne è affetto rispetto alla popolazione generale, suggerendo
uno spazio di intervento ancora poco esplorato.
Il dibattito sul potenziale terapeutico di queste tecniche resta tuttavia
aperto: la lucidità onirica spontanea è rara, i metodi per indurla variano in
efficacia e l’esperienza può talvolta essere disturbante o interferire con
l’equilibrio fisiologico del sonno REM, specie se si tenta di forzare un
controllo eccessivo all’interno dell’esperienza.
> C’è chi sta studiando le possibili applicazioni cliniche del sogno lucido. Ma
> questo impone una questione: fino a che punto è auspicabile intervenire
> volontariamente nella sfera onirica, che per sua natura dovrebbe restare
> libera, ambigua e rielaborativa?
In questa direzione, alcuni esperti propongono un approccio più sobrio:
piuttosto che puntare al pieno dominio del sogno, si possono integrare elementi
di mindfulness, consapevolezza corporea e accettazione nei trattamenti per gli
incubi. Strategie meno invasive, ma capaci ‒ almeno in via preliminare ‒ di
migliorare la regolazione emotiva notturna, attenuare il peso dei ricordi
traumatici e preservare l’integrità dei processi neurofisiologici del sonno.
C’è poi un nodo più filosofico che riguarda il confine tra trattamento e
illusione di controllo: fino a che punto è auspicabile intervenire
volontariamente nella sfera onirica, che per sua natura dovrebbe restare libera,
ambigua e rielaborativa? Esplorare il sogno lucido significa spingersi ai
margini della coscienza, là dove si incrociano memoria, trauma e identità.
L’utilità clinica di queste tecniche apre possibilità terapeutiche non
trascurabili. Ma il sogno resta anche uno spazio indocile, dove la mente lavora
secondo logiche che sfuggono al controllo volontario.
Funes, nel racconto di Borges, aveva perso il sonno perché ricordava tutto. E il
sonno ci protegge per la ragione opposta: perché permette ai ricordi di
trasformarsi senza sorveglianza. Dormire, oltre a “distrarci dal mondo”, è
quindi anche un momento per lasciarsi attraversare da ciò che non possiamo
dirigere. Ed è forse nella resa, più che nel dominio, che il sogno si fa cura.
L'articolo Dormire per dimenticare proviene da Il Tascabile.
T oc. È il suono dello zoccolo di Hans: il cavallo capace di contare,
riconoscere le carte da gioco e persino leggere nel pensiero. Ha appena poggiato
la zampa su un cartellino con il numero “quattro” disegnato in superficie, il
risultato corretto di una sottrazione. Siamo nei primi anni del Novecento e una
commissione di scienziati è riunita a casa di Wilhelm von Osten, insegnante di
matematica in pensione di Berlino, per verificare che le prodigiose abilità di
Hans, il suo cavallo, non siano una frode. E tali non sembrano: sa risolvere
calcoli, riconoscere forme geometriche e indovinare a quale numero sta pensando
un umano di fronte a lui. Eppure il biologo e psicologo Oskar Pfungst non è
convinto e ripropone all’animale i test, questa volta con alcune modifiche: gli
sperimentatori non dovranno conoscere le risposte ai quesiti posti o non
dovranno essere visibili al cavallo. Hans non risponde più e Pfungst, in questo
modo, scopre che l’equino non sarà un bravo matematico, ma è un eccellente
osservatore: riesce a leggere i piccoli segnali del volto e del resto del corpo
di von Osten e dei membri della commissione che in qualche modo indicano che sta
toccando o sta per toccare il numero corretto. Nasce così l’effetto Clever Hans,
che indica il rischio da parte degli esseri umani di dare al soggetto testato un
suggerimento involontario sul comportamento desiderato.
> Nel corso della storia i cavalli sono stati cibo, mezzi di trasporto, forza
> agricola, armi da guerra, campioni sportivi, status symbol, compagni e
> mediatori terapeutici. Solo negli ultimi anni abbiamo iniziato a studiare i
> loro reali bisogni, il modo in cui percepiscono il mondo e perfino alcuni
> aspetti della loro vita interiore.
Nel teatro delle civiltà umane, i cavalli sono stati costretti a recitare
innumerevoli ruoli. Se per il vecchio maestro in pensione doveva essere lo
sbalorditivo esemplare a cui aveva insegnato a comportarsi come un umano, in
generale, nella storia delle nostre società, questi animali sono stati cibo,
mezzi di locomozione, strumenti agricoli, armi da guerra, campioni sportivi,
status symbol, compagni di vita e mediatori terapeutici. Uno di loro stava
persino per essere nominato console dall’imperatore Caligola, almeno così
scriveva Svetonio.
Solo negli ultimi anni la ricerca sul comportamento animale sta iniziando a
restituirci un’immagine più autentica dei cavalli, svelando i loro reali
bisogni, il modo in cui percepiscono il mondo e perfino alcuni aspetti della
loro vita interiore, al di là delle nostre proiezioni e stereotipi.
Umani e cavalli: due destini che si uniscono
La storia degli Equidae, la famiglia a cui appartengono i cavalli, inizia circa
55 milioni di anni fa, in America. Nell’Eocene apparve il primo antenato del
cavallo, l’Hyracotherium, i cui resti fossili ritrovati in America
Settentrionale ed Europa rivelavano le sembianze di un mammifero molto diverso
dal fiero destriero a cui noi tutti siamo abituati: aveva dimensioni simili a
quelle di un cane di taglia medio-piccola, cranio tozzo e zampe sottili. Persino
i paleontologi fecero fatica a ricollegarlo ai cavalli prima del ritrovamento
dei resti di altri antenati, ultimo il Pliohippus, da cui si è evoluto il genere
Equus circa 4-4,5 milioni di anni fa, durante il Pliocene. Nel corso di poche
decine di milioni di anni l’evoluzione apportò numerosi cambiamenti, tra cui
l’aumento di dimensioni, la riduzione del numero di dita, la modifica della
morfologia dei denti affinché fossero adatti al pascolo, l’allungamento del muso
e l’incremento del volume e della complessità del cervello.
> Il controllo della riproduzione dei cavalli moderni è emerso intorno al 2200
> a.C. nelle steppe pontico-caspiche, attraverso l’accoppiamento tra
> consanguinei stretti per selezionare le caratteristiche più utili.
Fu alla fine del Pleistocene che il destino dei cavalli cambiò drasticamente. Se
in America Settentrionale scomparvero intorno a 10.000 anni fa, nel Vecchio
mondo vissero abbastanza a lungo da incontrare l’essere umano ed essere
domesticati. Le pareti dipinte delle grotte di Lascaux, Altamira e Pech-Merle
testimoniano l’attrazione che il cavallo aveva iniziato a esercitare sui nostri
progenitori nel Paleolitico, con le loro rappresentazioni accurate, forse
propiziatorie o dettate dal senso di libertà che la loro corsa probabilmente
evocava. I primi tentativi di domesticazione, però, avvennero molto tempo dopo:
le prime tracce risalgono soltanto a circa 5.500 anni fa e appartengono ad
alcuni antichi insediamenti semisedentari localizzati nell’attuale Kazakistan
settentrionale. Nei pressi del sito archeologico di Botaï sono stati rinvenuti
resti ossei, appartenenti a centinaia di cavalli, che mostrano l’uso di briglie,
di recinzioni, e altri ritrovamenti che costituiscono indizi sulla loro
mungitura per ricavarne latte da bere, pratica diffusa ancora oggi in Mongolia.
Per molto tempo si è creduto che i nostri cavalli fossero i diretti discendenti
di quelli di Botaï, ma recenti analisi genetiche hanno smentito questa ipotesi.
Gli equidi del Kazakistan non vennero selezionati e utilizzati per il trasporto
su larga scala. Questo sarebbe accaduto solo verso la fine del terzo millennio
a.C. Uno studio pubblicato su Nature nel 2024 ha rivelato che il controllo della
riproduzione della linea dei cavalli moderni è emerso intorno al 2200 a.C. nelle
steppe pontico-caspiche, attraverso l’accoppiamento tra consanguinei stretti per
selezionare le caratteristiche più utili. Il controllo riproduttivo ha coinciso
con una rapida espansione dei nuovi cavalli in tutta l’Eurasia, che ha portato
alla sostituzione di quasi tutte le linee locali. Iniziava così la storia umana
della mobilità su vasta scala. Le date ottenute dalle analisi genetiche e
dall’esame dei reperti archeologici sono di particolare importanza anche perché
contraddicono una delle narrazioni più diffuse sullo sviluppo delle culture
umane, secondo cui grandi mandrie di cavalli avrebbero accompagnato la massiccia
migrazione dei popoli delle steppe che diffusero le lingue indoeuropee
attraverso l’Europa intorno al 3000 a.C. A quell’epoca non avevamo ancora domato
il DNA dei cavalli selvatici.
La domesticazione del cavallo rivoluzionò il modo di viaggiare e per migliaia di
anni fu questa specie a segnare i confini del trasporto via terra, finché il
treno, nel Diciannovesimo secolo, aprì una nuova era. Solo con l’avvento
dell’automobile, nel secolo successivo, i cavalli persero definitivamente il
loro ruolo centrale nei trasporti. Il retaggio di questo passato, però, è ancora
ben visibile: molte strade ricalcano antichi percorsi tracciati per i cavalli e
la potenza dei motori continua a misurarsi proprio in “cavalli”. Lasciarono
un’impronta profonda anche nelle guerre e vennero usati fino al primo conflitto
mondiale, in cui furono indispensabili poiché trainavano rifornimenti,
munizioni, artiglieria e feriti.
Un animale, tanti ruoli
Il poderoso e imponente percheron, originario del Nord della Francia, plasmato
per le battaglie, per i trasporti e i lavori agricoli; il pony delle Highlands,
nativo delle isole scozzesi, compatto e piccolo e allevato per l’equitazione di
campagna e di maneggio; l’elegante e selvaggio mustang, discendente dei cavalli
che gli spagnoli portarono nel Nuovo mondo, in seguito rinselvatichiti. Queste
sono solo alcune delle centinaia di razze che l’essere umano ha modellato con la
selezione artificiale per adattarle alle proprie necessità, inizialmente
incrociando individui con le caratteristiche desiderate, fino ad arrivare
all’utilizzo di tecniche di editing genetico come CRISPR (Clustered Regularly
Interspaced Short Palindromic Repeats).
I cavalli sono i nostri campioni in discipline sportive, tra cui il polo e
l’equitazione, continuano a svolgere i loro compiti tradizionali nei Paesi in
via di sviluppo, dove forniscono trasporto e forza lavoro per l’aratura, sono
protagonisti di celebrazioni folkloristiche e tradizionali in tutto il mondo,
con rituali che frequentemente sfidano la concezione di benessere animale e
persino il buonsenso. Ne sono un esempio la conduzione di mezzi a trazione in
piena estate a Roma (le cosiddette botticelle), e Las Luminarias, celebrazione
durante la quale si festeggia Sant’Antonio, protettore degli animali, facendo
attraversare agli equidi le fiamme dei falò accesi nei vicoli di San Bartolomé
de Pinares, in Spagna. I cavalli sono anche considerati cibo: secondo i dati
della FAO (Food and Agriculture Organization) sugli allevamenti mondiali, nel
2023 si contavano circa 57 milioni di cavalli e 4,71 milioni macellati.
> Sono centinaia le razze che l’essere umano ha modellato con la selezione
> artificiale per adattarle alle proprie necessità, inizialmente incrociando
> individui con le caratteristiche desiderate, fino ad arrivare all’utilizzo di
> tecniche di editing genetico.
Equus ferus caballus è sempre stato anche un compagno per noi umani. Già nel
mondo antico, e ancora di più nel Medioevo e nel mondo islamico, era considerato
dai cavalieri un amico, con un suo nome e una sua personalità. È indimenticabile
l’incontro tra Alessandro Magno e il cavallo Bucefalo, descritto da Plutarco
nella Vita di Alessandro: il figlio di Filippo II di Macedonia comprende le
paure dell’animale e riesce in questo modo a cavalcarlo. Il loro rapporto è
stretto e intenso, rafforzato da viaggi e battaglie e suggellato dalla morte
dell’animale sull’Idaspe, in India, dove il condottiero fonderà una città in
onore del destriero.
Secoli di vicinanza non trascorrono senza lasciare traccia e i cavalli hanno
imparato a starci accanto, a capirci così bene da poter addirittura essere un
supporto negli interventi assistiti con gli animali, progetti che si basano
sull’interazione con loro per mantenere o migliorare il nostro benessere fisico,
psicologico e sociale.
Essere cavalli
Tra la fine dell’Ottocento e gli inizi del Novecento incominciarono a essere
diffusi spettacoli in cui cavalli e nuotatori si tuffavano da strutture alte
circa venti metri: il cavallo saliva su rampe strette, solo il vuoto intorno a
lui; poi, in cima, un fantino gli saltava in groppa ed entrambi scivolavano su
una piattaforma inclinata, fino a cadere per diversi metri, a testa in giù, in
una piscina. Non sorprende che esperienze di questo tipo lasciassero spesso
segni profondi, sia fisici sia emotivi, tanto sugli esseri umani quanto sui
cavalli. L’esistenza di queste performance è proseguita fin quasi ai giorni
nostri ‒ negli anni Duemila un esemplare ha continuato a tuffarsi in un parco
divertimenti vicino a New York ‒ e in rete è ancora possibile guardare i video
di queste imprese. Tra i commenti c’è chi suggerisce che questi animali si
divertano nel tuffarsi: “Se lo fanno, è perché gli piace”. Un argomento sterile,
come afferma Léa Lansade in Nel mondo del cavallo – Pensieri, emozioni,
comportamenti di un meraviglioso animale (2025).
> Contrariamente a quanto generalmente si pensa, i cavalli sono animali sociali
> e vivono in gruppi familiari composti da 3-5 femmine, uno stallone e i puledri
> con esso generati. Famiglie che si spostano, mangiano, dormono, galoppano e
> giocano insieme.
Lansade, introdotta all’equitazione da giovanissima, è oggi un’etologa
specializzata nel campo delle emozioni e delle capacità cognitive degli animali.
Nel libro, la ricercatrice supera gli spazi angusti di credenze e folklore,
salta le staccionate delle conoscenze non dimostrate sui cavalli e presenta un
animale sconosciuto a una buona parte del pubblico, anche di quello esperto,
raccontando i risultati di anni di ricerche etologiche.
I cavalli sono animali sociali e vivono in gruppi familiari composti da 3-5
femmine (le giumente), uno stallone e i puledri con esso generati. Tra le
giumente si instaurano amicizie che durano a lungo, anche un’intera esistenza, e
quando formano una nuova famiglia, esse cercano di rimanere vicine a quella di
origine, isolandosi solo nella stagione riproduttiva. I puledri, molto uniti
alle madri fino alla maturità sessuale, che arriva intorno ai 2-3 anni, imparano
le regole del gruppo tramite il gioco, di cui si occupa soprattutto lo stallone.
Le famiglie si spostano, mangiano, dormono, galoppano e giocano insieme. Quando
un membro scompare, il resto del gruppo lo chiama e lo cerca: i cavalli sono in
grado di riconoscersi e sanno instaurare relazioni solide tra loro.
Non sono territoriali e diversi gruppi possono convivere in uno stesso spazio,
in cui trovano tutto ciò di cui necessitano, come acqua, cibo e un riparo
naturale, quando possibile. Il fatto che il cavallo sia un erbivoro influisce
profondamente sulla distribuzione delle attività a cui si dedica nelle 24 ore.
Poiché le piante forniscono poca energia rispetto al fabbisogno di un animale
che può pesare centinaia di chilogrammi, il cavallo occupa in media 15-16 ore al
giorno a nutrirsi. Durante il pascolo non rimane fermo, ma si muove lentamente
con la testa a terra, scegliendo le piante più adatte. Il benessere del cavallo
è anche questo: essere libero di trascorrere una giornata a camminare mentre
mangia.
I sensi dei cavalli nascondono regni a noi sconosciuti. Il loro campo visivo,
diversamente dal nostro, è panoramico: possono arrivare a vedere quasi dietro la
propria schiena, grazie alla posizione laterale degli occhi, uno per ogni parte
della testa. Si ritiene che l’evoluzione abbia favorito questa particolare
disposizione per avvistare i predatori da qualsiasi direzione, una
caratteristica che rappresenta un enorme vantaggio per un animale che vive in
branco. L’olfatto molto sviluppato permette loro di esplorare l’ambiente che li
circonda e svolge un ruolo importante nell’interazione sociale e nella gestione
di stati di allerta. Ad esempio, subito dopo la nascita, la madre riconosce il
proprio puledro grazie al suo odore; quando due cavalli si incontrano, si
annusano per identificarsi; gli stalloni, invece, usano l’olfatto anche per
marcare il territorio, esaminando gli escrementi di altri maschi per capire chi
è passato prima di loro, quale fosse il suo status, e depositandoci sopra i
propri.
> Mentre questi animali per necessità hanno imparato a leggere i nostri
> comportamenti, ad attribuirci una reputazione, a riconoscere i nostri volti e
> persino le nostre emozioni, noi non siamo altrettanto preparati sul loro mondo
> interiore e sulla loro intelligenza.
Il senso che forse più sorprende è il tatto: ci sono cavalli che riescono a
percepire in alcune zone del proprio corpo una pressione paragonabile a quella
dell’estremità di un capello umano, che noi non siamo in grado di sentire sulla
punta delle nostre dita. Con il loro udito sanno captare gli ultrasuoni e
riescono a cogliere l’intera gamma di frequenze che emettiamo quando parliamo,
mentre il loro gusto li porta a nutrirsi di un ampio assortimento di erbe,
piante, frutti, foglie e rami, quando vivono in natura.
Emozioni equine
La storia di Hans e i racconti sui cavalli tuffatori dimostrano che, mentre
questi animali per necessità hanno imparato a leggere i nostri comportamenti, ad
attribuirci una reputazione, a riconoscere i nostri volti e persino le nostre
emozioni, noi non siamo così preparati sul loro mondo interiore, sulla loro
intelligenza e sul loro stato psicologico.
Ce lo spiega ancora una volta Léa Lansade: riconosciamo bene i segnali di paura,
che può diventare patologica se trascurata, ma sappiamo poco su frustrazione,
rabbia e tristezza. Di certo i cavalli provano piacere, ad esempio quando
spazzolati nei punti giusti, e cercano di farcelo capire con le loro posture, il
comportamento e le espressioni facciali. Anche la gioia fa parte delle loro
emozioni, seppur difficile da delineare con certezza. E poi c’è il dolore,
fondamentale da riconoscere per garantire il benessere di questi animali: sono
stati sviluppati protocolli per la sua identificazione, in base alle espressioni
facciali, da due gruppi di ricerca, uno italiano e l’altro svedese.
I cavalli possono dare l’impressione di comprenderci e questo induce a chiedersi
se siano davvero in grado di cogliere gli stati mentali propri e altrui e, in
base a questi, capire e prevedere un comportamento, cioè se possiedano una forma
di teoria della mente. Alcuni studi rivelano indizi sulla capacità dei cavalli
di conoscere che cosa sappia e che cosa non sappia un umano. Nei test gli
sperimentatori che avrebbero dovuto dar loro il cibo, in alcune occasioni non lo
facevano. Questo avveniva manifestando la chiara intenzione di non fornire cibo
oppure mostrando di esserne impossibilitati a causa della presenza di una
barriera o di una certa goffaggine da parte dell’operatore. I cavalli
rinunciavano più facilmente quando c’era una evidente volontà di non offrire
loro cibo, mentre erano più propensi a insistere davanti alla goffaggine dello
sperimentatore. Ciò suggerirebbe che essi possano tener conto non solo delle
azioni, ma anche delle intenzioni umane, che in qualche modo sarebbero capaci di
leggere. Un risultato simile a quanto osservato nei primati.
> I cavalli possono dare l’impressione di comprenderci e questo induce a
> chiedersi se siano davvero in grado di cogliere gli stati mentali propri e
> altrui, cioè se possiedano una forma di teoria della mente.
Oltre a comprendere gli altri, i cavalli stupiscono anche per la loro memoria a
lungo termine: in molte storie e rappresentazioni, come quelle che appartengono
all’immaginario dei racconti western, l’animale ritrova da solo la strada di
casa, a conferma della capacità di memorizzare percorsi e luoghi. È un’abilità
che supporta questi animali nella loro vita, durante la quale, come afferma
Lansade, “Per trovare il cibo, vivere in gruppo, riprodursi o evitare il
pericolo, il cavallo ha bisogno di ricordare i suoi simili, i luoghi che ha
visitato e le situazioni che ha incontrato, ma anche di associare gli eventi e
reagire in modo adeguato”.
Ripensare la nostra relazione con il cavallo
Le scoperte scientifiche sull’etologia dei cavalli dovrebbero porci davanti a
interrogativi urgenti sul modo in cui ci rapportiamo con loro. Non possiamo più
continuare a credere che certi metodi di allenamento, alcune attività e persino
i luoghi in cui li lasciamo vivere siano ancora adatti. I cavalli hanno
trascorso le loro esistenze quasi esclusivamente in gruppo e all’aperto fino
alla fine del Medioevo, momento in cui si iniziò a detenerli in stalle chiuse,
con uno spazio minimo per ciascun esemplare. Era un sistema nato per proteggerli
dal freddo, ma che oggi, nonostante possiamo garantire loro riparo e cura in
modalità differenti, continuiamo ad adoperare. L’autrice di Nel mondo del
cavallo racconta come lei stessa sia stata vittima dell’abitudine e della
mancanza di conoscenza:
> Imitando le persone che mi circondavano, pensai che per il mio cavallo
> sportivo sarebbe stato meglio vivere in un box, possibilmente su un letto di
> trucioli, come avevo visto fare nelle grandi scuderie. Ero convinta che questa
> vita gli si addicesse e fosse perfetta per lui. Mi divertiva quando faceva
> risuonare continuamente i denti sul metallo della porta del box, come se
> stesse suonando un’armonica. In realtà, soffriva di stereotipia, ma all’epoca
> non me ne rendevo conto. Il mio cavallo visse così per alcuni anni, finché,
> con l’aiuto di alcuni studi, mi resi conto di quanto fosse deleteria per lui
> la vita da rinchiuso e di quanto potesse influire sulla sua salute fisica e
> psicologica.
Il cavallo tornò nella precedente sistemazione, un grande prato con ampi box
comunicanti, in cui poteva andare a piacimento.
Equus ferus caballus è stato al nostro fianco, nelle vittorie e nelle sconfitte.
È stato sfruttato per necessità, ludibrio, intrattenimento. Ne abbiamo fatto
un’icona, uno status symbol, il protagonista di tradizioni identitarie, ha
incarnato il riflesso della nostra grandezza e la sua sensibilità lo ha eretto a
supporto emotivo, sempre nel nostro interesse. Per lungo tempo non abbiamo
considerato la sua essenza, i suoi bisogni, le sue emozioni. Ora il lavoro di
ricercatrici e ricercatori ci sta suggerendo un futuro diverso, un nuovo
sentiero da percorrere sradicando l’ignoranza.
L'articolo La versione del cavallo proviene da Il Tascabile.
N ella prefazione al libro di Monica Gagliano, Così parlò la pianta (2022),
testo di riferimento per gli studi sulle modalità attraverso cui le piante
sentono e comunicano tra di loro, Suzanne Simard, professoressa di forest
ecology presso la University of British Columbia (Vancouver, Canada), annota uno
spunto illuminante su cui è opportuno soffermarsi. Simard mette in relazione le
recenti scoperte scientifiche sulla sensibilità e sull’intelligenza vegetale ‒
rese note da Gagliano, Stefano Mancuso, Daniel Chamovitz, Eduardo Kohn, Anthony
Trewavas, ma anche Paco Calvo ed Emanuele Coccia ‒ con la saggezza degli
aborigeni del Nord America, depositari dei segreti della vita delle piante e
delle foreste. Prima di qualsiasi brevetto scientifico occidentale, è stato il
sapere delle comunità indigene a rivelare la dimensione relazionale della vita
vegetale, il profondo legame tra uomo e piante, individuando nella vita e nel
comportamento delle piante quegli aspetti che oggi riscopriamo attraverso gli
occhi della scienza, della filosofia e della biologia vegetale, e soprattutto
mostrando la necessità di preservare l’interdipendenza tra ambiente naturale ed
esseri viventi.
Autrice di un importante contributo dell’ecologismo mondiale e oggi direttrice
del The Mother Tree Project, Simard lavora al tentativo di ristabilire la
connessione rigenerativa tra l’uomo e le foreste, cioè con la natura, in un
periodo in cui i cambiamenti climatici segnano un profondo mutamento
dell’ambiente naturale. Partendo dal concetto di collaborazione delle piante,
Simard suggerisce di compiere una vera e propria reimmersione nel mondo vegetale
e nelle sue interrelazioni. L’intelligenza e la saggezza della foresta che
Simard svela nel suo libro è data dalla relazionalità e dallo scambio di
informazioni che la vita sotterranea indica, e che l’autrice ha brillantemente
individuato nelle reti micorriziche, sistemi fungini sotterranei che collegano
gli alberi e consentono lo scambio di informazioni e sostanze nutritive. Sulla
base di queste comunicazioni vegetali, la tesi centrale di Simard intende
mostrare che queste reti invisibili rivelano come la cooperazione, e non la
competizione, costituisca il cuore dell’evoluzione e della vita naturale.
> Prima di qualsiasi brevetto scientifico occidentale, è stato il sapere delle
> comunità indigene a rivelare la dimensione relazionale della vita vegetale, il
> profondo legame tra uomo e piante.
La tesi di Simard, tuttavia, affonda le sue radici in un sapere che supera la
tradizione scientifica occidentale a cui fa riferimento. Si tratta, infatti,
della saggezza indigena dei nativi americani, che aveva già individuato nella
collaborazione tra corpi il sistema della natura. Se questo aspetto sfugge, in
qualche modo, alla storia della cultura europea, e se questi spunti sono assenti
nei curricula accademici e scolastici dei nostri Paesi, sono invece le
tradizioni non europee a rivelarne l’importanza. Questo nesso è stato esplorato
da Robin Wall Kimmerer nel suo: La meravigliosa trama del tutto (2022). E su
questo aspetto meno diffuso tra i lettori vorrei focalizzare l’attenzione.
Direttrice del Center for native peoples and the environment, Wall Kimmerer nel
suo libro rivela un magnifico intreccio tra il sapere scientifico,
l’insegnamento accademico che ha ricevuto come studiosa di botanica da un lato,
e la saggezza indigena dei nativi americani che ha ereditato e acquisito
nell’incontro con i membri della sua famiglia, mostrando come queste due vie non
siano alternative ma possano coesistere e completarsi. La prima ci permette di
conoscere le piante e la natura, in una precisa divisione tra classi e generi, e
nello studio oggettivo di come funziona la vita delle piante. Ma agli occhi
dell’autrice questo sapere riduce le piante a oggetti separati, distinti dalla
vita umana, veri e propri oggetti pronti all’uso. Il rischio concreto è di
ridurre coerentemente questo approccio allo sfruttamento della vita vegetale.
In modo diverso, la saggezza indigena svela l’importanza della relazione degli
esseri umani con la natura e le piante al fine di conoscerne la bellezza, una
relazione che non si limita a un metodo di conoscenza, ma pervade tutte le
nostre modalità di comprensione ‒ nel comprendere, infatti, la nostra conoscenza
diventa relazione. La radice ecologica risiede nella capacità di individuare e
valorizzare questa relazione, ma vi è qualcosa di più, proprio perché questa
relazionalità può collegarsi alla scienza della natura. Come sottolineato da
Gregory Cajete, nel libro Look to the Mountain: An Ecology of Indigenous
Education (1994), questa prospettiva di conoscenza integrale deve coinvolgere le
quattro modalità della nostra esistenza, il cervello, il corpo, le emozioni e lo
spirito, e se l’aspetto scientifico privilegia due di queste vie va integrato a
una sapienza che metta in risalto la relazione con la natura.
In questo orizzonte, Wall Kimmerer colloca la riflessione sulla vita delle
piante, alla luce della relazione profonda che la natura instaura tra i diversi
corpi. Nella visione indigena, il mondo naturale non è una scala di esseri,
nella tirannia del più forte secondo la logica individualista della separazione,
ma è una democrazia di specie, quasi come se fosse una circolarità naturale. Al
di là della logica dell’economia di mercato, regolata dallo sfruttamento e dalla
separazione dei beni, il modello che si sviluppa a partire dalla relazione con
il mondo vegetale si fonda sulla cura, sullo scambio e l’incontro, in un
abbraccio che segue la logica del dono e della reciprocità: coltivare la natura
o raccogliere un frutto non è, quindi, una mera appropriazione, anche se quel
frutto poi verrà mangiato dal suo raccoglitore, e non lo è nella misura in cui
si stabilisce una rete relazionale profonda e uno scambio mutuale, sostiene Wall
Kimmerer.
> Nella visione indigena, il mondo naturale non è una scala di esseri, nella
> tirannia del più forte secondo la logica individualista della separazione, ma
> è una democrazia di specie, quasi come se fosse una circolarità naturale.
Se la scienza occidentale ha piuttosto distinto e isolato l’altro, l’autrice
mostra un ulteriore intreccio con l’insegnamento delle piante, che svela come
funziona l’interrelazione vitale tra i diversi corpi. La coordinazione che, per
esempio, si nota tra la fruttificazione e la raccolta di frutti compiuta da
alcune specie animali, denota secondo l’autrice una sincronicità che va oltre la
mera relazione ambientale, e sembra piuttosto confermare l’attività comune e la
capacità di dialogo tra i diversi corpi naturali. Un insegnamento che si
acquisisce dalla natura, e che quindi abbiamo sotto gli occhi tutti i giorni, ma
che è stato codificato in modo efficace della sapienza tradizionale indigena.
Tra gli esempi, vi è quello di un’erborista Navajo che sostiene vi siano legami
duraturi tra determinate piante, così rivelando una sorta di simbiosi e di
scambio comunicativo in una relazione sostenibile con l’ecosistema. Da ultimo,
questo insegnamento trova conferma negli studi sulla simbiosi con i funghi –
sono infatti i lavori di Simard ad aver mostrato l’importanza delle reti
micorriziche nel costruire una catena di interrelazioni e reciprocità mediante
cui le piante comunicano tra di loro e stabiliscono una connessione vitale
fondamentale per l’intero ecosistema.
Che cosa altro ci dice questo aspetto? Secondo Wall Kimmerer, la vita delle
piante indica la possibilità di ripensare la natura non come oggetto da
sfruttare, ma come relazione. C’è di più: l’autrice definisce questa relazione
come un dono, la cui caratteristica centrale è lo scambio reciproco e
l’attenzione e la cura dell’altro (di chi coltiva la pianta, ma anche della
pianta stessa verso chi la abita). In tal senso, questa relazione apre
implicitamente l’orizzonte a un sistema economico e sociopolitico fondato sullo
scambio e sulla cooperazione, e quindi contrapposto a certe, numerose derive
dell’economia di mercato e della globalizzazione, come ad esempio le pratiche di
sfruttamento delle risorse naturali, che sono alla base della crisi ecologica
attuale. In alternativa a queste relazioni negative tra uomo e ambiente,
sviluppatesi nella cultura occidentale, Wall Kimmerer riporta una serie di
storie della tradizione orale indigena americana, al fine di mostrare le
possibilità di una relazione positiva con l’ambiente, che non è utile solo a
preservare la natura ma serve, in qualche modo, anche agli esseri umani: la
ricerca della felicità, per esempio, trova la propria realizzazione in una
relazione sostenibile con l’ecosistema naturale, in una reciprocità ultima che
l’autrice ha sperimentato raccogliendo fagioli.
A tutt’altra latitudine, un percorso analogo si ritrova nella cultura indiana ed
emerge nel lavoro di Sumana Roy, Come sono diventata un albero. Una canzone
d’amore (2022). Anche in questo caso, non si tratta di una semplice relazione
affettuosa con le piante, ed è ben più che l’abbandono della propria condizione
umana e ben più che un rapporto ristretto all’uso delle piante come abbellimento
casalingo. Le piante non si rivelano semplicemente come altro rispetto agli
esseri umani, ma mostrano un’alternativa che non è privazione. Come in altri
casi, Roy combina la frustrazione per la caoticità della vita umana con
l’incontro con l’alternativa delle piante, il cui silenzio è il suono della
resistenza e dell’economicità, cioè di una ribellione, di un’attività, non di
una mera passività. Il mondo vegetale, infatti, non è un mero ricettore, non un
mero oggetto, ma un attore nel mondo.
> Se è vero che le analogie tra piante e animali, e la metamorfosi del corpo
> umano in pianta hanno popolato la cultura occidentale fin dalle origini,
> Sumana Roy segue una linea più profonda e radicale, in cui la pianta non è un
> essere umano dimezzato, ma rivela una superiorità vitale importante.
Come nel caso di Wall Kimmerer, Roy combina l’esperienza personale alla propria
tradizione culturale, unendo filosofia, storia letteraria e botanica. Partendo
dalla filosofia di Deleuze e Guattari, Roy si immerge nella prospettiva di
diventare una pianta, traslando le proprie esperienze e adattandole al mondo
vegetale. Così, l’autrice non vede solamente la vita delle piante attraverso le
lenti umane, ma mostra il tentativo di trasformare il proprio sguardo e le
proprie relazioni accordandole al sistema vegetale. Fuor di metafora, l’autrice
intende cambiare tutti gli aspetti della sua vita, adeguandosi a quello che è lo
stile delle piante, di cui ricostruisce le caratteristiche nel corso del libro
e, in tal senso, intende diventare pianta.
Questo percorso si sviluppa dall’elaborazione di un modo nuovo di guardare la
natura vivente: se è vero che le analogie tra piante e animali,
l’immedesimazione e la metamorfosi del corpo umano in pianta hanno popolato la
cultura occidentale fin dalle origini ‒ si pensi all’opera di Orazio o ad
Apuleio, alla pena dell’inferno dantesco, o alla dendolatria, la venerazione
degli alberi che emerge nella pervasività della metafora arborea, ma anche
all’albero della vita (l’albero Tuba del Corano, il Yggdrasil della tradizione
normanna, l’albero Mahabodhi, e l’albero della vita di Klimt, per nominare
alcuni casi) ‒ Roy segue una linea più profonda e radicale, in cui la pianta non
è un essere umano dimezzato, ma rivela una superiorità vitale importante.
Diversamente da ogni tentativo di antropomorfizzare la natura, Roy percorre un
percorso di ascesa alla condizione vegetale, riconoscendo alle piante le
capacità fondamentali di resistenza, parsimonia e armonia con l’ambiente
naturale. Per esempio, si suggerisce di abbandonare la temporalità degli orologi
per seguire il tempo ciclico e lento dell’albero – definito tree time –
immedesimandosi in una dimensione alternativa in cui ripensare i ritmi della
vita e rimodellandola secondo un sistema diverso.
In questo senso, il libro non mostra solamente una modalità di acquisire
serenità muovendosi all’interno di un bosco o su una collina, lontano dal caos
cittadino, ma una possibilità di rigenerazione profonda. Roy, infatti, non
intende distruggere sé stessa né perdersi nella foresta, ma vuole ridare a sé
quella parte vegetale che ha perduto ‒ e che in un qualche modo tutti noi
abbiamo perduto ‒ cioè liberare la vita della foresta secondo l’insegnamento
della tradizione indiana. Non si intende perdersi nella foresta in un ritorno
alle origini, che pure appartiene a una certa tradizione occidentale, ma è un
vero e proprio rigenerarsi. Allo stesso tempo, non è solo amore per le piante,
per l’albero di fronte a casa o per il fiore sulla tavola, è lo sforzo di andare
alla sorgente (o, opportunamente, alla radice) della vita stessa.
> Sumana Roy non ricerca una via per trasformare le piante in esseri umani, ma
> una via per vegetalizzare l’uomo, un percorso al cui culmine c’è lo
> svuotamento di ogni violenza dell’umano e la possibilità di realizzare una
> società diversa.
Nel corso del libro, i numerosi riferimenti letterari rivelano la ricchezza
della sapienza indiana in questo ambito, dai lavori di Rabindranath Tagore, le
cui poesie celebrano la relazione tra uomini e piante, così come il percorso a
ritroso verso la natura o verso la foresta, al lavoro del botanico Jagaish
Chandra Bose, che ha studiato i movimenti automatici e la crescita delle piante,
rischiarando le ombre sulla vita segreta delle piante. In Tagore, infatti, la
conversione dell’essere umano in pianta rivela una fluidità tra specie, mentre
Bose esalta la spontaneità della vita vegetale. La stessa fluidità e spontaneità
emerge dalla riflessione di Roy sulle funzioni umane trasposte nella vita
vegetale, dall’esperienza sessuale al matrimonio con un albero, attraverso
l’immagine del matrimonio nel regno delle piante di Kahlil Gibran o nel poema di
A.K. Ramanujan. La complessità del comportamento delle piante rende plausibile
l’esistenza di un linguaggio vegetale che non sia antropomorfizzato, e al tempo
stesso rivela la possibilità di acquisire le dinamiche vegetali per ordinare
certi estremi della vita umana.
In tal senso, Roy non ricerca una via per trasformare le piante in esseri umani,
ma una via per vegetalizzare l’uomo, un percorso al cui culmine c’è lo
svuotamento di ogni violenza dell’umano e la possibilità di realizzare una
società diversa, fondata sull’assunto per cui la vita delle piante favorisce e
supporta la vita di tutti, fuori da ogni conflitto, in una mutualità e
collettività che deve necessariamente farci riconsiderare l’ordine della natura.
Questo è l’insegnamento che Roy intende portare a compimento, nel percorso di
“trasformazione” in albero. A tutti gli effetti, è la via di Buddha, la cui vita
spirituale è inestricabilmente legata alla venerazione dell’albero. Sulla scia
di questa lunga e ricca tradizione, il libro è un tentativo di vivere la vita
degli alberi: adeguando i propri desideri ai bisogni naturali, vivendo il tempo
delle piante, rigettando velocità, eccessi, caos e confusione, indicando una via
per cambiare sé stessi e la propria società.
In conclusione, le opere di Wall Kimmerer e di Roy, pur nate in contesti
culturali distanti, convergono nel riconoscere un valore paradigmatico alla vita
delle piante per dare voce e contenuto a un nuovo umanesimo. Non si tratta di un
ritorno nostalgico alla natura, alla Rousseau, per intenderci, ma di una
rigenerazione, che parte dalla vita vegetale e dalla conoscenza scientifica del
comportamento delle piante. Infatti, le scoperte preziose della scienza
occidentale, che oggi rivela l’importanza e la complessità della vita e del
comportamento vegetale, rischiano di essere confinate agli interessi degli
studiosi e possono apparire distanti dalla vita quotidiana. Integrare queste
scoperte con la saggezza delle tradizioni non europee ne rivela l’importanza e
mostra un modo diverso di vivere la relazione con la natura. Seguendo la
reciprocità e mutualità delle piante, non si tratta di perdere la nostra
umanità, ma al contrario di portarla a compimento, aprendo a quegli aspetti che
caratterizzano la vita vegetale e che permettono di realizzare una società più
giusta e sostenibile, adatta alle sfide del futuro.
L'articolo Cosa hanno da insegnarci le piante proviene da Il Tascabile.