Tag - Scienze

Sembra IA
T ra i miei messaggi privati, in una chat che condivido con una persona a me cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche. Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo. Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche, compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video generati, in particolare, è investita da una mutazione rapidissima, un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A guardare i social media, si ha l’impressione di stare scivolando da un livello di simulazione a un altro più profondo. Dopo tre anni di entusiasmo, disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA è esattamente questo: le persone hanno la sensazione di essere in balia di qualcosa che sfugge senza controllo, come se proprio la realtà stesse deragliando da sotto i piedi. Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa, improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli futuri era già evidente, ma la produzione di video da parte degli utenti restava per lo più motivo di burla e sperimentazione estetica. > Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi > a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole > incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche > complesse non immediatamente evidenti. Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche complesse non immediatamente evidenti. Video familiari, agenti atmosferici bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che impastano la massa lievitata del pane: una categoria di video dal ricercato mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante. Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto da correggere o interpretare, ma una caratteristica anestetica sfruttata nella propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o porsi domande. Simulazioni. Pseudoeventi. Narrazioni Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa dignità. Nel suo libro America (1986), racconta una visita al museo delle cere di Buena Park, in California, dove vede esposte fianco a fianco le repliche di Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono identico trattamento: cura nei dettagli, realismo espressivo, attenzione scenografica. Le due figure sembrano appartenere allo stesso registro ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard, accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le questioni dell’aderenza al reale o dell’autenticità non sono prese in considerazione. Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni, dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili, appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica: la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA generative hanno esasperato questa abilità con una potenza esponenziale, rimescolando liberamente database di miliardi di dati visivi per reiterarne altri identici. È il simulacro perfetto. > Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora > dovremmo scandalizzarci all’idea di interagire apertamente con contenuti > artificiali? La velocità sequenziale nella stimolazione visuale, lo scroll, non consente costitutivamente la distinzione critica del vero dal falso. Esporsi a questo carosello senza confini e linee di separazione, vuol dire “perdere la coscienza storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede identico valore e statuto, il rischio è di smarrire la traccia di quanto realmente accaduto ‒ o  sta ancora accadendo. Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota come a una parte della popolazione preoccupata dall’incapacità di riconoscere i video generati con IA, risponde un pubblico altrettanto numeroso che invece non si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa adesione immediata ai video generati nell’ecosistema digitale? Molto prima dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo scandalizzarci all’idea di interagire apertamente con contenuti artificiali? La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità, un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque? Nello studio “How do users perceive AI? A dual-process perspective on enhancement and replacement” i ricercatori hanno indagato il valore percepito dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti percepiscono l’IA attraverso due processi cognitivi distinti: uno più immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati mostrano come la percezione immediata (sistema 1) prevale nella fruizione sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica. Inondati dai video generati, la soglia critica si riduce, ciò che importa è l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura volutamente naive, ma destinata a diventare quella prevalente nella fruizione dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento, non ciò che è. Il reale si riduce a un’interfaccia adattativa. > L’origine dei video non è più una condizione per stabilirne la veridicità: > accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo > già appartenere alle cose del mondo. In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione. Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore implicito al momento della lettura, un soggetto che sta “dietro” al testo, con le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra utenti, piattaforme, algoritmi e sistemi di prompt automatici. C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro origine ‒ non è più un a priori, una condizione per stabilirne la veridicità: accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo più in sintonia con le nostre aspettative. I video generati servono proprio a continuare a mostrarci ciò che siamo pronti a vedere. Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito chiuso, interviste falsificate con deepfake tra politici e celebrità, sono contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come “pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America. Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o provocati, per avvenire in un preciso momento e luogo, generalmente con l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e falsi nel panorama mediatico. L’assuefazione alla proliferazione degli pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali. Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto estetico ideale diventa un atto manipolatorio: il valore della testimonianza, nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà viene letta come cinema ‒ o respinta come una messinscena, anche quando autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee Nicole Good in Minnesota). La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata, mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia (1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso. Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal senso abbondano: dal turismo che ha riconfigurato le location scelte per la serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi non usa il mattarello come in quel video?”. La realtà è un effetto narrativo. > È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà > che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che > potrebbe accadere di lì a poco. Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è ingovernabile. È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che potrebbe accadere di lì a poco. Una questione di verosimiglianza Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and analysis of a recurring conflation” (2025) esplora il concetto di verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di vista della filosofia della scienza, e sottolinea come alcune teorie, pur false, risultino più verosimili di altre. In quest’ottica, anche un video generato può essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla nostra verità di quanto lo fosse la realtà precedente. Il problema, naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle nostre attese. Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non conta più la corrispondenza con un mondo esterno, quanto la relazione informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile” se è integrato nel flusso informativo che abitiamo. La soglia della verità ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒ come se lo fosse. Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media, soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di Baudrillard. Perniola intendeva il simulacro come una forma ludica dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto imitazione del reale, ma perché obbedisce a una propria logica di esistenza estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri immaginari e schemi percettivi. In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di queste tecnologie è in mano alle “corporation dell’imagineering”, le quali “hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia: l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale, con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo avviene attraverso la saturazione degli spazi di immaginazione, con una “produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si può immaginare. Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2 di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo che appare reale per frequenza e familiarità. In quel suo “funzionare” il sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale. > Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in > cui lo guardiamo – o da cui siamo guardati. La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma ‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta reale tanto quanto la realtà irreale nella quale viviamo. In questa superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli, interpretazioni, significati, immagini e dati, facendola sparire dietro a una foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il tempo di assimilarli. “Sembra IA”. La svolta percettiva I video generati da IA rappresentano l’emersione di un nuovo paradigma di simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo, l’infosfera agisce direttamente sul sistema nervoso della società, non si limita più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo materiale. Questo scenario impone di ripensare il concetto di “post-verità” estendendolo alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui siamo guardati. Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich identificava l’emergere del “realismo sintetico” come una cesura fondamentale, citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della transizione dal cinema fotografico al cinema digitale. La settima arte cambiava identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è solo una delle possibilità” annotava Manovich. Il cinema diventava un sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più la realtà, ma la riscriveva, inaugurando una nuova condizione visiva. Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio “True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996), introducendo il concetto di perceptual realism per descrivere come le immagini digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella nuova ondata di effetti speciali generati al computer. Prince cita la creatura acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito, “diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può comprendere sia immagini irreali che immagini referenzialmente realistiche. […] Le immagini irreali possono essere referenzialmente fittizie ma percettivamente realistiche”. Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio “Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma piuttosto attraverso l’“impressione di realtà”: un effetto costruito, intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia ontologica dell’indice (l’immagine fotografica considerata come traccia diretta del mondo) alla capacità delle immagini di simulare la percezione del reale. Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua efficacia percettiva. > Software come Sora non registrano, piuttosto restituiscono idee in forma di > immagine, spostando il baricentro dal filmato alla ricostruzione digitale > totale, senza alcuna mediazione umana. Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di generare un intero film. Software come Sora non registrano, piuttosto restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il film è ora nello sguardo di tutti. Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto, quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande macchina informatica o il robot umanoide, anche la più modesta estensione dello strumento quotidiano è stata integrata nella forma‑vita umana, trasformando abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale volume di informazioni e campi di competenza differenti, da svelare la loro natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di adottarle in ogni ambito della vita quotidiana, professionale, persino affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e mediazione. > Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le > intelligenze artificiali sono riconoscibili come non-umane non per via dei > loro limiti, ma in quanto troppo capaci. Mentre Manovich, Prince e Gunning riflettono sulla materialità e la percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I media, la memoria, il cinema (2008), si concentra sull’epistemologia dello sguardo: il ruolo del cinema nella costruzione della memoria e della testimonianza, e il rapporto tra evento e trasposizione mediatica. Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo: dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un film!” davanti alla realtà mediatizzata, culminata con la trasmissione televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale, l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si limita a ridurre la distanza tra significante e significato: diventa lente attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa per essere compresa, allora la distinzione tra reale e immaginario sembra essere esplosa del tutto. Dal passaggio iniziale del “Sembra vero” (cinema → sospensione dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt – a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con l’interpretazione di categorie e riferimenti astratti, più che in relazione con il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice soddisfacimento delle sue categorie. Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra IA”, dove non si indica la simulazione, ma nuove forme di autenticità e riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi, cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti. Go and touch grass Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà, tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa. È plausibile che il pubblico, davanti ai video generati con IA, semplicemente, smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile resistenza, se non addirittura un atteggiamento reazionario. > La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe > presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile > resistenza, se non addirittura un atteggiamento reazionario. Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato. Il capitale della nostra attenzione viene cooptato da un contenuto generato all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa che finalmente “qualcosa accada davvero” si sposta da un video a quello successivo, lasciandoci davanti allo schermo come consumatori, tragici, speranzosi, assopiti. Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma perché tale confusione è parte integrante del suo raccontarsi. Lo stesso Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e simulazioni non avessero azzerato la Storia: la produzione delle immagini non riesce ancora a nascondere e contenere la materialità viscerale del mondo. Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la rappresentazione della guerra e della violenza attraverso la fotografia e i media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che non può essere ridotta alla relazione spettacolo/spettatore, e della quale dobbiamo farci carico. Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze artificiali come a un destino ineluttabile. Le intelligenze artificiali non saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono sostituirci, vogliono tutta la nostra attenzione. Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera conflittuale, produrre scarti, glitch, narrazioni che espongano il programma sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla simulazione onnisciente. Una forma di détournement digitale, atti di deviazione e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle piattaforme e spostare altrove il potere simbolico. Infine, possiamo provare a contrapporre alla simulazione generativa un altro tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni. Martha Nussbaum, in libri come  Love’s Knowledge (1990) e Poetic Justice (1995), parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui, di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente. Parafrasandola, possiamo chiamare questo processo mentale come “simulazione morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui continuiamo a esercitare la nostra capacità morale. Una controsimulazione che non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali siano le sue condizioni. A patto che l’altro esista. L'articolo Sembra IA proviene da Il Tascabile.
Intelligenza Artificiale
Scienze
Non si butta via niente
O gni anno, in Europa, quasi 60 milioni di tonnellate di cibo finiscono nella spazzatura: oltre 130 chili per persona. Una parte consistente si accumula lungo la filiera, dalla produzione alla distribuzione, mentre l’altra metà si trasforma in scarto nelle nostre case, nei ristoranti, nelle mense. In Italia, ad esempio, l’industria del pomodoro genera ogni estate migliaia di tonnellate di bucce e semi che non per forza devono diventare semplici rifiuti. Oggi, grazie a nuove tecniche di estrazione sostenibile, da quei residui si possono infatti ottenere composti ad alto potere antiossidante, riutilizzati in alimenti, cosmetici o integratori: è la scienza dell’upcycling. Numerosi studi ne evidenziano da anni la solidità e le analisi del ciclo di vita, nella maggior parte dei casi, segnalano un impatto ambientale positivo. Ma il cosiddetto upcycling alimentare, ovvero i cibi “rigenerati”, prodotti nati dal recupero di scarti o eccedenze alimentari, può essere una risposta efficace alla riduzione degli sprechi solo se si riesce a garantire sostenibilità dei processi, sicurezza del prodotto, misurazione dei risultati e opportune economie di scala. In tutto questo, come vedremo nel corso dell’articolo, la fiducia di chi consuma è un ingrediente decisivo. Non basta che un alimento sia sostenibile: deve anche apparire tale, e ispirare sicurezza. Superare queste resistenze richiede una comunicazione chiara e coerente: servono dati condivisi, confrontabili, raccontati in modo comprensibile, e un linguaggio capace di costruire fiducia più che distanza, spiegando come e perché certi ingredienti vengono recuperati, e quale valore aggiunto porta questa scelta. Genealogia della circolarità In ambito agroalimentare, il concetto di economia circolare non è certamente nuovo. Esistono da millenni pratiche agronomiche e di trasformazione alimentare orientate alla circolarità, anche a livello domestico: tradizionalmente si è sempre cercato di riutilizzare tutto, limitando lo spreco di prodotti non più salubri. Esistono molti esempi, nella storia dell’alimentazione umana, che si basano su un uso oculato delle risorse e dei cosiddetti prodotti di scarto alimentare: basti pensare alla ricotta, ottenuta dal siero residuo della lavorazione del formaggio; ma anche al riuso delle vinacce, cioè le bucce e i residui solidi dell’uva, che venivano e vengono ancora riutilizzate per produrre distillati o come combustibile. Si tratta, in tutti i casi, di forme di economia circolare ante litteram, che tendono a un principio di equilibrio tra ciò che si produce, si consuma e si restituisce al ciclo naturale. > Oggi circa la metà della superficie abitabile del pianeta è destinata > all’agricoltura, e tra il 2000 e il 2022 la produzione di colture primarie è > più che raddoppiata, generando una quantità crescente di residui e scarti > lungo la filiera. Oggi, questo pensiero secolare riemerge nel panorama della bioeconomia, portando con sé l’urgenza della scarsità di risorse in un mondo di oltre otto miliardi di persone, e segnalandoci che ciò che chiamiamo “scarto” è spesso una miniera di composti bioattivi che la scienza ha imparato a estrarre, stabilizzare e trasformare, per incorporarli in prodotti con maggiori benefici per la salute. Da secoli, il modello economico dominante si fonda sul principio del take-make-dispose, traducibile in italiano come preleva, produci, consuma e getta. È un paradigma che ha plasmato l’agricoltura e l’industria alimentare, e che oggi mostra tutti i suoi limiti. Con una popolazione mondiale destinata a superare i nove miliardi di persone entro il 2050, non è più sostenibile continuare a utilizzare risorse naturali come se fossero infinite. Oggi circa la metà della superficie abitabile del pianeta è destinata all’agricoltura, per un totale di 48 milioni di chilometri quadrati di suolo, e tra il 2000 e il 2022 la produzione di colture primarie è più che raddoppiata, generando una quantità crescente di residui e scarti lungo la filiera. L’upcycling alimentare, come altre tecniche di bioeconomia, nasce dal bisogno di rivedere il rapporto fra produzione e consumo, in un’era in cui un terzo del cibo prodotto diventa scarto contribuendo al 58% delle emissioni di metano nell’atmosfera. > Nel panorama alimentare l’upcycling non è sinonimo di riciclo. Se riciclare > implica il recupero di materia per usi differenti, l’upcycling la restituisce > al cibo, reintroducendola nella filiera con un valore nutrizionale o > funzionale più elevato. Secondo la definizione della Upcycled Food Association, nata nel 2019 come rete di poche aziende pionieristiche, con l’obiettivo di dare una definizione condivisa a ciò che fino ad allora era solo una pratica frammentaria, si considerano upcycled foods quei prodotti che utilizzano ingredienti altrimenti destinati a non essere consumati dall’uomo, provenienti da filiere tracciabili e verificabili, e che generano un impatto ambientale positivo. Nel panorama alimentare, l’upcycling non è quindi, come si potrebbe pensare, sinonimo di riciclo. Perché se riciclare implica il recupero di materia per usi differenti, l’upcycling la restituisce al cibo, reintroducendola nella filiera con un valore nutrizionale o funzionale più elevato. Proviamo quindi a capire come funziona un ciclo di processo completo. Come funziona un ciclo completo Valorizzare uno scarto, in ambito agroalimentare, significa prima di tutto conoscerlo: analizzarne la composizione nutrizionale per capire quali componenti possano essere recuperati e riutilizzati. Da qui parte un processo che unisce ricerca scientifica, tecnologie sostenibili e controllo della qualità. L’estrazione dei componenti utili avviene oggi attraverso tecniche che si stanno muovendo verso un sempre minore impatto ambientale, come l’uso di solventi green o processi biotecnologici basati su enzimi e fermentazioni controllate. È così che, per citare uno dei tanti casi di ricerca italiani, residui oggi poco sfruttati, come quelli della coltivazione delle giovani piantine di ortaggi (microgreen) raccolte pochi giorni dopo la germinazione, vengono trasformati in ingredienti funzionali per alimenti come pane o yogurt, o in molecole bioattive per nuovi prodotti. > L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi > globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo > e rallentare il cambiamento climatico. Una delle sfide maggiori è stata negli anni di rendere sempre più sostenibili le tecniche di estrazione. Ad esempio, il settore sa bene che la produzione dei derivati industriali del pomodoro genera elevate quantità di scarti – quali bucce, semi e residui di polpa – che rappresentano circa il  2-5% della materia prima. Tuttavia, per ottenere questi composti si utilizzano ancora processi che fanno uso di sostanze chimiche non propriamente sostenibili. Per cui, al fine di ridurre l’impatto, vengono impiegate diverse tecniche di estrazione alternative e con minori ricadute ambientali. Tra queste, è stato valutato l’utilizzo di anidride carbonica (CO2) per il recupero degli scarti di pomodoro. Gli estratti ottenuti da bucce, semi e cascami interi sono stati analizzati per valutare il quantitativo di carotenoidi. I risultati hanno evidenziato che gli estratti ottenuti mediante l’utilizzo della CO2 avevano un elevato potere antiossidante, con rese elevate. Le buone ragioni dell’upcycling L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo e rallentare il cambiamento climatico. Questi sistemi possono inoltre avere un bilancio di carbonio negativo: assorbono più CO₂ di quanta ne emettano, soprattutto quando le operazioni si basano su fonti rinnovabili e filiere locali. Da questo punto di vista, la scienza dell’upcycling si sta ben radicando: le ricerche sono solide e le tecnologie sempre più affidabili. I metodi di estrazione sostenibile (ultrasuoni, campi elettrici pulsati, anidride carbonica supercritica), ad esempio, permettono già da tempo di recuperare da vinacce, bucce o crusche sostanze di grande valore biologico, tra cui fibre, polifenoli e antiossidanti. Parliamo di procedure che sono arrivate a garantire rendimenti elevati e un’efficienza energetica competitiva. > Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto > ottenuto dai residui del melograno possiede effetti cardiovascolari benefici, > paragonabili a quelli di un farmaco antipertensivo. Anche i cosiddetti bioprocessi stanno dimostrando che la fermentazione selezionata (ad esempio con lieviti, batteri lattici, funghi) aumenta la biodisponibilità di minerali e vitamine e migliora la digeribilità delle proteine. Le sperimentazioni condotte in Italia lungo le filiere del vino e del riso ci dicono che la sinergia tra agricoltura, industria e ricerca può tracciare percorsi di innovazione sia dal punto di vista tecnico, sia da quello economico e della sostenibilità ambientale. Inoltre sono sempre più documentati gli effetti benefici sulla salute. Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto ottenuto dai residui del melograno possiede effetti cardiovascolari paragonabili a quelli di un farmaco antipertensivo. Il panorama dell’upcycling italiano Una recente ricerca pubblicata sul Journal of Environmental Chemical Engineering mostra come l’Italia disponga già di un sistema articolato di pratiche e tecnologie per trasformare scarti agricoli e alimentari in risorse di valore, da compost e biogas fino a bioplastiche e biocarburanti. Accanto ai processi industriali più consolidati, come il compostaggio e la digestione anaerobica, stanno emergendo filiere innovative basate su pirolisi, gassificazione o fermentazioni biologiche, spesso sviluppate in centri di ricerca del centro e del sud Italia. Queste nuove soluzioni, ancora in fase pilota, promettono di ridurre sprechi, emissioni e dipendenza da fonti fossili, ma richiedono molti investimenti, coordinamento tra territori e un quadro normativo capace di favorirne la diffusione. > La transizione alimentare non è solo una questione di tecnologie o ricette > sostenibili: è, prima di tutto, una questione di fiducia. Insomma: la tecnologia funziona, ed è a ridotto impatto ambientale, ma il passaggio a una scala più ampia rimane una sfida per niente scontata. Occorre garantire flussi continui, tenere sotto controllo le spese energetiche e integrare in modo coerente tutta la filiera. Per quanto l’upcycling sia pronto a decollare, senza un’infrastruttura adeguata non potrà crescere. Fiducia, neofobia e linguaggio La transizione alimentare non è solo una questione di tecnologie o ricette sostenibili: è, prima di tutto, una questione di fiducia. Quando si parla di cibi “rigenerati” le difficoltà non stanno tanto nei costi o nelle norme, ma nella percezione. Lo mostra chiaramente un’analisi internazionale pubblicata nel 2024 sulla rivista Food Quality and Preference: a frenare l’upcycling alimentare non sono i regolamenti, ma le persone. O meglio, alcune paure radicate, come la neofobia alimentare, cioè la diffidenza verso i cibi nuovi o poco familiari, e la tecnofobia, la paura che dietro certi processi si nascondano manipolazioni poco naturali. Eppure, l’interesse c’è. Più di un consumatore su due, soprattutto tra i più giovani, è curioso di assaggiare prodotti upcycled. Ma la curiosità si traduce in acquisto solo se il racconto è convincente. Funzionano le etichette chiare, i dati trasparenti, un linguaggio diretto che spiega come e perché certi ingredienti vengano recuperati. Al contrario, quando la comunicazione è ambigua o troppo moralistica, scatta il sospetto. > Quando il valore degli scarti viene spiegato bene, la gente non lo respinge: > lo riconosce come una forma di intelligenza collettiva, un modo concreto e > contemporaneo di pensare al futuro del cibo. Non è lo “scarto” a spaventare, ma il modo in cui se ne parla. Le persone reagiscono più all’ambiguità che all’origine del prodotto. Ciò che convince davvero è la coerenza: sapere da dove arriva il cibo, come è stato trattato, perché è sicuro. Serve un’esperienza sensoriale credibile e la sensazione che dietro ci sia un progetto autentico, non una trovata di marketing. E qui entra in gioco il linguaggio. Raccontare il valore del recupero in modo sobrio, legato alla concretezza ambientale e alla tradizione del “non sprecare”, colpisce più di qualsiasi slogan sulla virtù o sul senso di colpa. Quando il valore degli scarti viene spiegato bene, la gente non lo respinge: lo riconosce come una forma di intelligenza collettiva, un modo concreto e contemporaneo di pensare al futuro del cibo. Il discorso politico Anche la dimensione politica e il dibattito d’opinione contribuiscono a modellare le percezioni dei consumatori. Nel contesto italiano, l’innovazione alimentare è oggi filtrata attraverso una lente marcatamente identitaria. Si tende a privilegiare il valore simbolico del “cibo vero” e della filiera nazionale, e si è cauti se non avversi alle forme di innovazione percepite come “non tradizionali”, dai novel food (cioè alimenti o ingredienti nuovi per il mercato europeo, non consumati in modo significativo prima del 1997), alla carne coltivata, fino all’upcycling. Pur senza opposizione esplicita, il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche estranee alla cultura del made in Italy, quando in realtà, come abbiamo visto, rappresentano una continuità con la tradizione del riuso e della frugalità tipica delle culture locali. Il dibattito attuale riflette ancora una tensione ideologica e irrisolta tra la necessità di innovare e la volontà di preservare, più che una reale integrazione tra le due prospettive. > Il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche > estranee alla cultura del made in Italy, quando in realtà rappresentano una > continuità con la tradizione del riuso e della frugalità tipica delle culture > locali. Nel complesso, la traiettoria politica e culturale attuale mostra un rallentamento della spinta trasformativa: la transizione agroalimentare non è ferma, ma procede in modo più frammentato e difensivo.  Soprattutto dopo le elezioni europee del 2019, quando l’agenda del Green deal, il patto verde che mira alla neutralità climatica entro il 2050, ha subito un processo di revisione per cui la Commissione ha spostato l’accento dalla spinta ambientale alla semplificazione normativa e alla competitività delle imprese agricole, introducendo margini di flessibilità che rallentano le ambizioni iniziali. Anche nel dibattito sugli organismi geneticamente modificati e sulle nuove tecniche genomiche, come l’editing con CRISPR-Cas9 o il prime editing, sono emersi chiari segnali di ambivalenza. Mentre la Commissione e il Consiglio europeo hanno aperto, nel 2025, a una regolamentazione più flessibile per le New genomic techniques (NGT), una parte dell’opinione pubblica e del mondo politico continua a guardare con sospetto a ogni intervento percepito come “artificiale”. Cosa dice (e non dice) la legge Sul piano regolatorio la situazione è ancora più complessa. Per gli alimenti upcycled non esiste oggi una categoria giuridica specifica né a livello europeo né nazionale: non c’è una norma che li definisca esplicitamente, né un percorso autorizzativo dedicato. Questo significa che tali prodotti rientrano nel perimetro della legislazione alimentare generale (sicurezza, tracciabilità, etichettatura, igiene) e, quando necessario, nelle regole sui novel food, se gli ingredienti derivati dal recupero non hanno un uso alimentare documentato prima del 1997. In altre parole, l’upcycling vive in un terreno di normativa implicita: tutto ciò che non è vietato è possibile, purché sia sicuro e conforme ai requisiti esistenti. > Nei laboratori italiani stanno prendendo forma tecnologie capaci di cambiare > il destino degli scarti agroalimentari: dalla pirolisi che “cuoce” residui > agricoli, alle larve di mosca che trasformano rifiuti organici in proteine e > fertilizzanti. Parallelamente, però, agiscono cornici concettuali che, pur non avendo valore giuridico, influenzano la percezione pubblica e le strategie industriali. È il caso del sistema NOVA, una classificazione sviluppata in ambito accademico per studiare il rapporto tra grado di processazione e salute, sempre più citata nel dibattito pubblico. Secondo questo schema molti prodotti upcycled possono essere assimilati ai cibi ultraprocessati non per la loro qualità nutrizionale o ambientale, ma per la natura dei processi utilizzati. Oltre la tecnologia L’upcycling, più che di nuove tecnologie, ha bisogno di infrastrutture di conoscenza: osservatori, banche dati, criteri comuni di rendicontazione e soprattutto informazioni chiare. È qui che si gioca la partita tra sperimentazione e sistema. L’innovazione, fuori dalle retoriche soluzioniste, è un processo collettivo che coinvolge saperi, politiche e responsabilità diffuse. È la capacità di costruire connessioni stabili tra ricerca, impresa e istituzioni, di trasformare la sperimentazione in infrastruttura e la tecnologia in cultura. E in effetti l’innovazione circolare del cibo procede. Nei laboratori e nei distretti sperimentali italiani stanno prendendo forma tecnologie capaci di cambiare il destino degli scarti agroalimentari: la pirolisi, che “cuoce” residui agricoli per ottenere biochar, una sorta di carbone vegetale utile a restituire carbonio e fertilità ai suoli; le larve della mosca soldato nera, che trasformano rifiuti organici in proteine e fertilizzanti; e poi ancora i bioprocessi microbici, le fermentazioni controllate, le estrazioni con CO₂ supercritica. Tutto questo disegna una nuova idea di produzione più circolare e responsabile. Ma la transizione non può poggiare solo sull’efficienza tecnica. Ha bisogno di una strategia condivisa, sostenuta da politiche industriali coerenti, incentivi mirati e norme capaci di evolvere con l’innovazione, e soprattutto di una relazione di fiducia con i consumatori. E per costruire questa fiducia serve un cambio di prospettiva culturale. Vale per l’upcycling come per tutta la transizione ecologica: senza un nuovo modo di pensare il valore delle risorse, anche le soluzioni più avanzate rischiano di non uscire dai cassetti dei laboratori. L'articolo Non si butta via niente proviene da Il Tascabile.
Scienze
cibo
sostenibilità
economia circolare
upcycling
Animali in guerra
U n rivolo di sangue sgorga dal muso di una capra. È distesa su un fianco, sul terreno umido a tratti tappezzato di muschio e ricoperto da una pioggia di frammenti di legno, metallo e vetro. Un occhio aperto, lo sguardo nel vuoto, la pelliccia sporca e la pelle squarciata. Poco più lontano è visibile un altro esemplare, perso tra i detriti, anche lui privo di vita. Intorno a loro c’è neve e distruzione: finestre rotte, tetti divelti da cui spuntano murature decorate e totem colorati. Il Feldman Ecopark, uno zoo alla periferia di Charkiv, in Ucraina, il 2 marzo 2025 è stato colpito durante l’attacco russo di droni Shahed, armi kamikaze a lungo raggio. I due ungulati uccisi, tra cui una femmina gravida, erano stati precedentemente salvati da una zona di combattimento e portati nel parco, con la speranza che potessero sopravvivere. Gli animali sono spesso considerati vittime di serie B della guerra, che la società ci insegna a far passare in secondo piano rispetto al dramma umano, sebbene sopportino una violenza dirompente, spaventosa e per loro incomprensibile. I conflitti armati possono esasperare l’ambiguità che caratterizza il nostro rapporto con gli altri animali. Sono una lente impietosa sugli abissi della nostra morale. Il massacro di Londra e i gatti di Gaza Dai primi mesi del conflitto russo-ucraino, i media hanno diffuso immagini di profughi costretti ad abbandonare casa e affetti. Alcuni sono accompagnati dagli animali con cui, fino a quel momento, avevano condiviso la propria vita, allo stesso tempo simbolo e incarnazione di una dimensione familiare. Quelle mostrate nei telegiornali e sulle piattaforme social sono rappresentazioni accoglienti, che suscitano empatia e fanno quasi dimenticare il prezzo da sempre pagato dagli animali da compagnia in zone di guerra, che invece, spesso, sono considerati oggetti da sacrificare o legami da rompere per disumanizzare il nemico. > Gli animali sono spesso considerati vittime di serie B della guerra, che la > società ci insegna a far passare in secondo piano rispetto al dramma umano, > sebbene sopportino una violenza dirompente, spaventosa e per loro > incomprensibile. Era il 3 settembre 1939 quando la BBC annunciò che la Gran Bretagna aveva dichiarato guerra alla Germania. Siamo agli albori della Seconda guerra mondiale. Alla cittadinanza venne chiesto di prepararsi ai raid aerei e una precauzione su tutte probabilmente raggelò il sangue degli inglesi: il governo li sollecitò a portare i propri animali domestici nelle campagne e, nel caso non ci fossero stati vicini disponibili a occuparsi di loro, a sopprimerli con l’aiuto di un veterinario. Senza curarsi dell’opposizione di alcuni gruppi di protezione animale, circa 400.000 tra gatti, cani, uccelli e conigli vennero eliminati, come racconta la storica Hilda Kean nel suo libro The Great Cat and Dog Massacre (2017). Ci fu chi obbedì forse con pochi scrupoli, chi soppresse i propri compagni non umani per risparmiare loro la sofferenza dei bombardamenti, chi li graziò e, in qualche modo, ne riconobbe l’individualità e una forma di agentività, condividendo con loro il cibo, gli spazi, la paura e il dolore. Quest’ultimo caso ci porta a Gaza, ai giorni nostri. Le immagini che ci sono giunte mostrano gatti feriti e traumatizzati dallo scoppio delle bombe, dalla perdita di un rifugio, dalla fame e dalla sete, ma anche salvati da medici e veterinari, aiutati e accolti dai palestinesi o, ancora, con le loro famiglie umane mentre vivono insieme piccoli momenti di spensieratezza. Neha Vora, docente di antropologia nel Dipartimento di Studi internazionali dell’American University of Sharjah negli Emirati Arabi Uniti ha commentato così queste storie: > Quello che i gatti di Gaza ci insegnano è che il trauma della Palestina è un > trauma multispecie. Non ci insegnano che anche i palestinesi sono umani, > poiché questa è un’affermazione che continua a definire l’umano contro > qualcosa che non è, qualcosa che sarà sempre escluso, abietto e quindi > eliminabile. Credo che i palestinesi e i loro gatti siano così coinvolgenti > per molti di noi perché sfidano le visioni liberali dell’umanità e le > smascherano come modi coloniali di definire il mondo, la soggettività e le > fantasie di libertà. L’“Umanità” non ci condurrà mai a una giustizia e pace > universali. Umanità. È una parola che apparentemente si collega allo stesso universo semantico della compassione e della pietà, ma che in realtà si nutre di una visione gerarchica del mondo naturale, in cui l’animale è inferiore, e animale diventa o deve diventare chiunque incarni il nemico da combattere. Una prospettiva che, in parte e non a caso, ritroviamo nella struttura e nella gestione degli zoo, in cui le sbarre o altre barriere separano gli esseri umani dalle altre specie esposte e nei quali siamo sempre noi a poter decidere delle loro esistenze secondo le nostre necessità Un’ingannevole arca di Noè Nel volume World War Zoos. Humans and Other Animals in the Deadliest Conflict of the Modern Age (2025), lo storico John M. Kinder ricostruisce la vita degli zoo dal periodo della Grande depressione alla Seconda guerra mondiale, fino ai primi anni della guerra fredda. Kinder illustra come la visione gerarchica degli esseri viventi, e in particolare la disumanizzazione di determinati gruppi, fosse un aspetto centrale dell’ideologia nazista, evidente nel modo in cui venivano trattati sia gli esseri umani sia gli animali. > Le metafore legate agli animali sono servite e servono ancora oggi a > giustificare i delitti commessi e a comprendere e articolare azioni aberranti. Un esempio emblematico è quello del campo di concentramento di Buchenwald e del suo giardino zoologico. Il progetto, sostenuto sin dall’inizio da Karl-Otto Koch, a capo del campo dal 1937 al 1941, era pensato come luogo ricreativo ed edificante per le SS e le loro famiglie e come una fonte di umiliazione e tormento per i prigionieri. Lo zoo serviva, infatti, a ricordare loro la presunta inferiorità rispetto agli animali in gabbia: gli umani reclusi erano spogliati della dignità, resi sacrificabili per qualsiasi contingenza e costretti persino a finanziare la struttura con “contributi volontari”. Gli animali di Buchenwald ricevevano un’alimentazione migliore dei prigionieri, tanto che molti di loro cercavano di lavorare nello zoo per ottenere una razione extra. Kinder spiega: > Il legame retorico tra animali ed Ebrei, l’obiettivo principale della > Soluzione finale di Hitler, giocò un ruolo importante nel legittimare > l’Olocausto agli occhi dei suoi esecutori. Esisteva una lunga storia di > equiparazione degli Ebrei ad animali (maiali, cani) e a malattie, amplificata > dai propagandisti nazisti. Le metafore legate agli animali sono servite e servono ancora oggi a giustificare i delitti commessi e a comprendere e articolare azioni aberranti. Per descrivere l’uccisione da parte di privati cittadini di civili indifesi nell’assedio di Sarajevo, durante la guerra in Bosnia ed Erzegovina degli anni Novanta, si usano termini come “attività venatoria”, “cacciatori”, “prede” e “safari”. Le notizie parlano di gruppi di cecchini/cacciatori che spendevano cifre nell’ordine di grandezza di decine di migliaia di euro per sparare a persone indifese, trasformate in target classificati in base a un tariffario, esattamente come accade nei safari di caccia in Africa. Se nel vecchio continente gli obiettivi più costosi sono specie iconiche e minacciate dall’estinzione, come leoni, elefanti e rinoceronti, nei Balcani sembra che bambine e bambini fossero in cima al listino. Non più vite, solo trofei da collezionare. Allo stesso modo, come evidenziato da Kinder nel suo libro, durante il secondo conflitto mondiale e anche in seguito, gli zoo offrirono alle persone metafore per aiutarle a comprendere le esperienze di prigionia, impotenza e degradazione. In quegli anni le gabbie divennero teatro di orrore, dolore e ideologia. I destini di gran parte degli esemplari rinchiusi negli zoo furono impietosi. Alcuni riuscirono a esser trasferiti in luoghi più protetti, mentre molte delle specie più pericolose, quelle carnivore o velenose, furono uccise per evitare che costituissero un’ulteriore minaccia in caso di fuga dopo un bombardamento. La stessa sorte toccò agli animali più costosi da mantenere, tra cui quelli marini. Molti altri rimasero intrappolati, senza la possibilità di mettersi in salvo: morirono di fame e di sete tra atroci sofferenze, subirono le esplosioni riportando ferite, orribili mutilazioni e danni psicologici irreparabili o divennero oggetto di saccheggio e di improvvisate battute di caccia. Accadde proprio questo nel 1939, durante l’invasione della Polonia da parte dell’esercito nazista. Il direttore dello zoo di Berlino, Lutz Heck, dopo aver messo da parte gli esemplari più pregiati dello zoo di Varsavia, permise ad alcune SS di usare gli animali ancora in gabbia come bersagli per la notte di Capodanno. > Un tempo i giardini zoologici erano perlopiù luoghi di intrattenimento, e una > dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni > esemplari provenivano. Oggi gli obiettivi dichiarati sono l’educazione, la > ricerca e la conservazione. Ancora oggi gli animali degli zoo sono costretti a spostarsi sotto i bombardamenti, le loro vite vengono distrutte dalle esplosioni, dalla fame e dalla sete, o diventano cibo per soldati. Nella prima parte del Ventesimo secolo, i giardini zoologici erano per lo più luoghi di intrattenimento e una dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni esemplari provenivano. Attualmente i tre principali obiettivi di queste istituzioni sono l’educazione, la ricerca e la conservazione. Quest’ultimo scopo prevede la tutela di specie a rischio di estinzione attraverso progetti in situ, in cui gli esemplari sono protetti nei loro habitat, e attività ex situ, che prevedono la detenzione di individui in cattività per il mantenimento di popolazioni di animali che potrebbero scomparire in natura. Gli zoo sono, quindi, una sorta di arca di Noè la cui efficacia, secondo Kinder, è dubbia, soprattutto in tempi di guerra: > Se gli zoo vogliono sopravvivere ai conflitti di questo secolo, devono > abbandonare la metafora dell’arca. Di fronte alla minaccia di catastrofiche > perturbazioni climatiche, il mondo non ha bisogno di una flotta di scialuppe > di salvataggio progettate per aiutare specie selezionate ad attraversare > quaranta giorni e quaranta notti metaforiche di tumulto. Piuttosto, abbiamo > bisogno di una strategia per sopravvivere a un clima alterato a tempo > indefinito. Come minimo, dobbiamo porci domande difficili sul fatto che i > vantaggi degli zoo superino i loro evidenti svantaggi, incluso il disagio > fisico e mentale sopportato dalle specie in cattività. La promessa di salvezza degli zoo sembra ancora più debole nelle zone di conflitto, dove ai danni apportati a queste strutture e ai loro occupanti si sommano ingenti disastri ambientali. I pericoli per la fauna selvatica e il reato di ecocidio Le lotte armate hanno spesso luogo in ecosistemi fragili e hotspot di biodiversità, producendo conseguenze devastanti su molte specie di animali selvatici. Nella Repubblica Democratica del Congo, anni di guerra hanno ridotto significativamente la popolazione di ippopotami: dai circa 30.000 esemplari, presenti nel 1974, si è passati a meno di 1000 verso la fine della guerra civile congolese, nel 2005. Gli esemplari sono poi aumentati fino a 2500 nel 2018, per poi essere nuovamente minacciati dai gruppi di ribelli, che hanno iniziato a cacciarli di frodo per venderne la carne e finanziare le loro attività. A oggi la popolazione di questi mammiferi si attesta intorno ai 1200 esemplari, sui quali incombono nuovi pericoli, come l’avvelenamento da antrace. In Mozambico la guerra civile, combattuta tra il 1977 e il 1992, ha portato all’uccisione di circa il 90% degli elefanti, le cui zanne in avorio erano vendute per sovvenzionare i combattenti. La caccia intensa avrebbe addirittura favorito la mutazione genetica associata alla mancata formazione delle zanne nelle femmine. In Iraq, nel 2016, l’ISIL (Islamic State in Iraq and the Levant) ha attaccato una raffineria di petrolio. Poco meno di venti pozzi esplosi hanno causato l’innalzamento di una nube tossica e una massiccia fuoriuscita di petrolio. Il risultato è stato la contaminazione di suolo e acque, un ostacolo concreto alla sopravvivenza della vicina cittadina di Qayarrah e un gravissimo danno per la fauna della regione. Le invasioni militari possono persino portare all’introduzione volontaria o accidentale di specie aliene, in grado di esercitare impatti negativi sugli ecosistemi delle aree conquistate e sui loro abitanti. Oggi sappiamo bene quanto queste azioni possano produrre danni irreparabili all’ambiente, con un effetto domino che potrebbe estendersi globalmente, eppure non abbiamo a disposizione strumenti abbastanza efficaci per arginarli. Lo Statuto di Roma della Corte penale internazionale, nell’articolo 8 (2)(b)(iv) sui crimini di guerra, prevede che sia considerato reato lanciare attacchi deliberati nella consapevolezza di produrre “danni diffusi, duraturi e gravi all’ambiente naturale che siano manifestamente eccessivi rispetto all’insieme dei concreti e diretti vantaggi militari previsti”. Una norma eccessivamente generica, una lacuna giuridica che si sta cercando di colmare da decenni spingendo per il riconoscimento del reato di ecocidio. > Oggi sappiamo quanto le guerre possano produrre danni irreparabili > all’ambiente, con effetti di portata globale, eppure non abbiamo a > disposizione strumenti efficaci per arginarli. Il riconoscimento del reato di > ecocidio è un passo importante in questa direzione. Il termine è stato utilizzato per la prima volta dal biologo Arthur Galston, negli anni Settanta, per descrivere la deforestazione su larga scala causata dall’uso dell’Agent Orange da parte degli Stati Uniti d’America durante la guerra del Vietnam. Negli anni Duemila il concetto è stato riproposto dall’avvocata Polly Higgins e infine, nel 2021, è stata presentata una definizione legale alla Corte penale internazionale, per cui “‘ecocidio’ significa atti illegali o arbitrari commessi nella consapevolezza di una sostanziale probabilità di causare un danno grave e diffuso o duraturo all’ambiente con tali atti”. Sono crimini non riconosciuti che continuano a essere perpetrati senza la certezza di un processo e di un’eventuale condanna dei colpevoli: alcuni esempi recenti sono la distruzione della copertura arborea e dei terreni agricoli di Gaza, con fattorie e uliveti abbattuti, suolo, falde acquifere, mare e aria inquinati, e l’impatto sugli ecosistemi e la biodiversità del conflitto in Ucraina. Gli animali non umani sembrano quasi invisibili in questi scenari, sebbene la loro esistenza presente e futura venga cancellata attraverso le uccisioni e la distruzione degli habitat in cui prosperano. Violenze necessarie: al punto di dissoluzione del Diritto internazionale umanitario Non sono solo gli animali da compagnia, quelli degli zoo e la fauna selvatica a subire gli effetti degli scontri. Gli animali allevati vengono macellati, rubati, bombardati o lasciati morire di fame. Esistono specie utilizzate direttamente nei conflitti come mezzi di trasporto, tra i quali ci sono i cavalli, gli asini, i muli, gli elefanti e i cammelli, mammiferi addestrati a rilevare esplosivi, quali elefanti, cani e ratti, oppure cetacei preparati per cercare sottomarini e lasciati esplodere per distruggerli, tra cui i delfini. Come illustra l’articolo “Animals in War: At the Vanishing Point of International Humanitarian Law”, pubblicato nel 2022 nell’International Review of the Red Cross, malgrado la loro vulnerabilità nelle situazioni appena descritte, gli animali sono ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che rimane prevalentemente antropocentrico. Essi non godono di uno status legale esplicito, non ne viene riconosciuta la senzienza, né sono concessi loro diritti, nonostante ci siano alcuni Paesi i cui ordinamenti giuridici hanno cominciato a considerare la soggettività e la capacità di provare dolore di questi esseri viventi. Anne Peters e Jérôme de Hemptinne, autori della pubblicazione, suggeriscono due strategie principali per affrontare la mancanza di una specifica protezione nel diritto internazionale umanitario. La prima consisterebbe nell’applicare in modo più efficace le norme già esistenti, ampliandone l’interpretazione per includere gli animali nelle categorie protette previste: potrebbero essere assimilati a combattenti o prigionieri di guerra, a civili, oppure a oggetti. Tale approccio prevederebbe la rilettura delle disposizioni relative alla difesa dell’ambiente, del patrimonio culturale e delle aree protette, riconoscendo che gli animali sono esseri viventi capaci di provare sofferenza e grave disagio (distress). La seconda strategia contempla l’adozione di un nuovo strumento internazionale volto a riconoscere specifici diritti agli animali, in particolare il divieto di utilizzarli come armi. Si tratta di una prospettiva di lungo periodo, ancora lontana, poiché richiederebbe a molti Stati di superare profonde barriere concettuali riguardanti la personalità giuridica degli animali non umani e di accettare eventuali limitazioni nella conduzione dei conflitti armati per proteggerli. Il tutto in un contesto in cui i precedenti tentativi di varare una convenzione internazionale sul benessere animale non hanno finora riscontrato grande successo. > Malgrado la loro estrema vulnerabilità nei teatri di guerra, gli animali sono > ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che > rimane prevalentemente antropocentrico. Però, come il giurista inglese Hersch Lauterpacht ha scritto in passato, il DIU è “al punto di dissoluzione del diritto internazionale” e gli autori del paper sostengono che in questo sia simile al diritto animale, con i debiti cambiamenti, e che la loro intersezione, seppure foriera di estreme difficoltà, non dovrebbe fermarci dal voler perseguire un’“utopia realistica” per gli animali a livello mondiale. È possibile partire dall’attuale situazione internazionale per poi cercare di ampliare quelli che sono considerati i limiti della praticabilità politica. Il DIU e il diritto legato al benessere animale sono entrambi corpi normativi che non vietano la violenza, ma concedono lo spazio a una violenza ritenuta “necessaria”, di fatto legittimandola. Sebbene, come sottolinea l’articolo, questa somiglianza dovrebbe facilitare l’estensione del campo di applicazione del DIU agli animali non umani, certamente fa emergere quella ambiguità che, anche in condizioni di pace, esiste nei trattamenti che riserviamo loro. La percepiamo quando accettiamo le condizioni in cui versano negli allevamenti intensivi oppure  la cattività e la scelta di sopprimere alcuni esemplari negli zoo per calcolo economico, perché spazio e risorse delle strutture sono limitate, o per esigenze di conservazione, al fine di mantenere l’equilibrio tra maschi e femmine di una specie o prevenire il rischio di consanguineità. O ancora, quando acconsentiamo alla sperimentazione animale. > I conflitti armati rendono ancora più tangibile l’ambiguità che caratterizza > il nostro rapporto con gli altri animali, anche e soprattutto in tempo di > pace. Il confine tra amore, rispetto per la vita degli animali non umani, violenza e sopravvivenza può farsi eccezionalmente labile. Lo spiega Kinder, sempre attingendo dall’esperienza del campo di concentramento di Buchenwald, quando parla del poema satirico Eine Bären-Jagd im KZ Buchenwald (in italiano Una caccia all’orso nel campo di concentramento di Buchenwald), scritto e illustrato dal sopravvissuto al campo Kurt Dittmar nel 1946. L’opera ripercorre la breve vita di Betti, un’orsa allevata nello zoo del campo, dall’arrivo come cucciolo alla morte per mano di un comandante. L’orsa è inizialmente servita e riverita dai detenuti per ordine delle SS, si nutre di buon cibo, gode di spazio all’interno della sua gabbia ed è per questo oggetto di invidia da parte dei prigionieri. Con il trascorrere del tempo la milizia nazista aggiunge alla collezione dello zoo altri animali e Betti, stanca della nuova compagnia, abbatte il recinto elettrico e fugge nella foresta. I detenuti tentano invano di catturarla, finché il vicecomandante non la uccide e ne riporta indietro il corpo come un trofeo. L’illustrazione di Dittmar raffigura alcuni prigionieri sconvolti davanti alla carcassa dell’orsa, consapevoli di condividere il suo destino di preda braccata. Costretti ad arrostirne le carni per la festa delle guardie, non ne assaggiano neanche un boccone, ma continuano a sognare: la libertà, il cibo e la giustizia contro i loro aguzzini. Nonostante sia ispirato a eventi reali, il poema non è un resoconto storico, ma conserva in sé una realtà difficile da accettare. Scrive l’autore di World War Zoos: > Ciò che otteniamo invece è qualcosa di più interessante: una riflessione sul > potere e sui limiti dell’empatia. Nel racconto di Dittmar, i prigionieri umani > di Buchenwald riconoscono che la vita di Betti è sempre appesa a un filo, che > lei è preziosa fino al momento in cui le SS decidono diversamente. Pure lei è > una prigioniera, anche se ha pasti migliori e una gabbia più bella. Ma questo > non significa che non proveranno a rubarle il cibo o a rosicchiare le sue ossa > spolpate. Nella Buchenwald di Dittmar, i prigionieri possono sia piangere per > l’uccisione di Betti sia sbavare affamati sul suo cadavere sfrigolante. L'articolo Animali in guerra proviene da Il Tascabile.
guerra
Scienze
animali
ecocidio
Ricordare per procura
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La scrittura appare immobile, incapace di adattarsi all’interlocutore come invece fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza generare la memoria e la saggezza che nascono dall’interazione dialettica. È, infine, un “gioco bellissimo” ma assai distante dalla serietà del processo dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo “vera” filosofia, per Platone la scrittura è uno strumento a essa necessario, così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità richiamare alla mente un’informazione. Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella intuizione con il concetto di cognitive offloading. Con questa espressione si indicano tutte le pratiche attraverso cui gli individui delegano a un supporto esterno parte dei propri processi cognitivi, come ad esempio la funzione di ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come segnare una lista della spesa, annotare un compleanno su un calendario o ricorrere al proverbiale nodo al fazzoletto. > Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur > non essendo “vera” filosofia è uno strumento che le è necessario, così com’è > necessaria per la capacità di richiamare alla mente un’informazione. Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un forte impulso la comparsa e la diffusione della rete, e delle tecnologie digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le possibilità di delega della funzione cognitiva del ricordo, ma le loro pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di benefici e costi di queste pratiche a favore dei secondi. I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il cui lavoro è stato fondamentale per cristallizzare nella nostra cultura l’immaginario del digitale ‒ funzionano come una vera e propria protesi della nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui, appunto, la memoria. In un paper intitolato The benefits and potential costs of cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G. Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli esperimenti più significativi nell’ambito del cognitive offloading. Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere un ampio numero di azioni quotidiane, le persone si affidano a due tipi di memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare questa funzione a un supporto esterno. Questo spiega il motivo per cui la maggior parte delle persone intervistate nei contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di cognitive offloading per compensare peggioramenti nelle proprie performance mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di ferro, sono stato costretto, passati i quaranta e diventato genitore per due volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare impegni e scadenze. > Con l’espressione cognitive offloading si indicano le pratiche attraverso cui > gli individui delegano a un supporto esterno la funzione di ricordare > informazioni, trasformando strumenti e tecnologie in estensioni delle proprie > capacità mnemoniche. Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più specifiche, non ha bisogno di una formazione mirata. Per un adulto con una percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto intuitivo e immediato, che non richiede ulteriore carico cognitivo. La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in rassegna nello studio mostrano come l’offloading cognitivo generi benefici per entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di informazioni non archiviate tramite meccanismi di associazione mentale: una persona che ha segnato sulla propria lista della spesa di acquistare un barattolo di alici ha più probabilità di ricordarsi di acquistare il burro rispetto a una persona che non lo ha fatto, anche se il burro non è presente nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di offloading cognitivo siano d’ausilio alla memoria. Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.  Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni “scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che l’accesso può esser negato, le performance mnemoniche si dimostrano più efficaci. Un altro costo è la possibilità di favorire la formazione di falsi ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa. > Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria. > Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior > difficoltà a reperire informazioni quando viene improvvisamente a mancare > l’accesso all’archivio esterno. Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di cognitive offloading comportano costi e benefici. Da questa prospettiva, la diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle informazioni, nonché sullo sviluppo del loro pensiero critico. Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA aggiungono all’esperienza utente la capacità di processare e presentare le informazioni, senza doversi confrontare direttamente con le relative fonti. Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666 partecipanti di età e percorsi formativi differenti. Questo studio analizza la relazione tra uso di strumenti di intelligenza artificiale e capacità di pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di offloading cognitivo. Per pensiero critico si intende la capacità di analizzare, valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate, incluse le abilità di problem solving e di valutazione critica delle situazioni. Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla velocità di accesso ai dati alla presentazione semplificata delle risposte ‒ scoraggiano l’impegno nei processi cognitivi più complessi. > La diffusione dell’intelligenza artificiale sta mettendo in luce come questo > strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul > modo in cui le persone si rapportano alle informazioni e sviluppano pensiero > critico. Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la necessità, per questi professionisti, di esercitare analisi critica. Una dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo processo, sollevando ulteriori interrogativi sul possibile declino delle capacità di ritenzione perché, anche in questo caso, la loro capacità di sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una conversazione umana Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in ambito militare, dove lo sviluppo di sistemi automatizzati di comando e controllo pone dubbi di natura etica, politica e psicologica. I test effettuati confermano che l’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive offloading che, pur alleggerendo il carico cognitivo e liberando risorse mentali, si associano a un declino della capacità di pensiero critico, in particolare nelle fasce più giovani. Questo declino viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva Diane F. Halpert e misura le abilità di pensiero critico (come  valutazione della probabilità e dell’incertezza,  problem solving decisionale,  capacità di trarre conclusioni basate su prove), grazie a un set di domande aperte e a risposta multipla applicate a uno scenario di vita quotidiana. > L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive > offloading che, pur alleggerendo il carico cognitivo, si associano a un > declino della capacità di pensiero critico, in particolare nelle fasce più > giovani. Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti, producono i loro benefici quando attivano la mente delle persone che le utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una delle tecniche di gestione della conoscenza più conosciute. Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento, lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura di testi non fiction e rafforzare la memoria delle proprie letture, che prevede di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega Sonke Ahrens in How to take smart notes, uno dei principali testi di divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo. Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento produce perciò un beneficio proprio perché impegna chi lo esegue sia a confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò introdurre in quest’ultima attività una componente di frizione e di impegno, che sono la base della sua efficacia. > Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del > tempo necessario affinché un’informazione si depositi nella nostra memoria > fino a diventare un pensiero originale. A differenza della maggior parte delle interfacce attraverso cui interagiamo con le tecnologie, in particolare con quelle digitali e di intelligenza artificiale, il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che stimola la nostra mente, la attiva e produce benefici sulle nostre capacità cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web e l’interazione uomo-computer. Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la scrittura che un metodo come lo Zettelkasten prescrive come base per la sua efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare in costi i benefici che esse possono apportare alla nostra capacità di ricordare e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo necessario affinché un’informazione si depositi nella nostra memoria fino a diventare un pensiero originale. Prendere atto di questa contraddizione significa spostare l’attenzione dalla dimensione neurologica a quella culturale e sociale. Perché è vero che invocare interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma senza porsi il problema dell’accesso al capitale culturale necessario per un uso consapevole e critico delle tecnologie, tali soluzioni rischiano di restare lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il capitale culturale ed economico per permettersi di limitare il proprio l’accesso alla tecnologia e chi, al contrario, finisce per subire in modo passivo le scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano star costruendo l’immaginario dei loro strumenti di intelligenza artificiale. > Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi > capaci di potenziare creatività e pensiero critico, quanto scorciatoie per > aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta. Per come vengono presentati nella comunicazione corporate, gli strumenti di intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di presentazione degli strumenti di scrittura “smart” della sedicesima iterazione dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato protagonista dello spot, li usa proprio per dare un tono professionale al testo dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia working class è in realtà una visione in cui l’automazione non ha liberato l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non essere costretto a pensare prima di agire. Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una questione che andrebbe rimessa al centro del dibattito sull’intelligenza artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e integrati che ancora sembra dominarlo. L'articolo Ricordare per procura proviene da Il Tascabile.
Intelligenza Artificiale
Scienze
neuroscienze
scrittura
cognitive offloading
Il malato immaginato
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo, redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente una parodia, fu preso sul serio da numerosi media, che lo diffusero come una scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu costretto a svelare lo scherzo poche ore dopo la pubblicazione. Il caso del MoDeD divenne un esempio emblematico di come la definizione di malattia possa essere facilmente ampliata o manipolata, trasformando aspetti della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e anticipava molte delle discussioni successive sulla costruzione mediatica e sociale della malattia. Possiamo spiegare il successo della notizia con la tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di salute ciò che prima consideravamo semplici varianti naturali della configurazione corporea. Questo processo è noto come medicalizzazione, ed è particolarmente evidente nell’ambito della medicina estetica. La patologizzazione della bruttezza Una piega palpebrale assente, un naso prominente, denti non perfettamente allineati, una pelle dalla texture irregolare. Nella medicina contemporanea molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma radicale: da semplici variazioni non desiderabili, da accettare passivamente, sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non solo perché si applicano competenze e strumenti propri di questa disciplina, ma anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la patologia è rappresentata da compromissioni funzionali, in altri casi essa coincide con il disagio psicologico e sociale che, anche in assenza di disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni estetici dominanti. In queste circostanze si interviene dunque sul corpo per guarire una “malattia dell’anima”. > Per medicalizzazione si intende la tendenza a trattare come problemi medici > alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti > normali. Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James Aquino identifica come patologizzazione della bruttezza, si nutre di un meccanismo duplice. Da un lato, la medicina si è appropriata di una sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere percepito simultaneamente come in salute, virtuoso, giovane e attraente; al contrario, caratteristiche che deviano dagli standard vengono lette come limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono strategie attive per inquadrare la chirurgia estetica non come pratica migliorativa, ma come intervento terapeutico. In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni della malattia. Malattia come danno, disfunzione e deviazione La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici giustificavano le correzioni dei tratti corporei che causavano disagio psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si è spostata sul modello della disabilità, considerando la bruttezza come uno svantaggio invalidante che può limitare le opportunità socioeconomiche. In entrambi i casi emerge una concezione normativista della malattia, che fonda il concetto di salute sul vissuto personale e su valori socialmente condivisi. Questa visione si intreccia con i meccanismi sociali di riconoscimento e valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce qualità positive agli individui fisicamente attraenti. In virtù di questi pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali e professionali tangibili, tra cui migliori risultati scolastici, lavori di status più elevato e maggiori probabilità di successo nelle relazioni. > Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi > economici, sociali e professionali tangibili, tra cui migliori risultati > scolastici, lavori di status più elevato e maggiori probabilità di successo > nelle relazioni. La seconda accezione si basa sul concetto di disfunzione: la bruttezza ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale, entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto ai normali processi biologici di un organismo, indipendentemente da percezioni soggettive o valori culturali. La terza accezione si basa sul concetto di deviazione: la caratterizzazione patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a una norma statistica o un canone numerico. Un esempio è il rapporto aureo, utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una caratteristica si colloca oltre i limiti di questa norma, si parla di “deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma statistica è spesso uno strumento per naturalizzare standard culturali, mascherandoli da criteri biologici universali. La crescente patologizzazione della bruttezza mette in crisi la distinzione tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i criteri di legittimità dell’intervento chirurgico: ciò che un tempo era giustificato solo dal ripristino di una funzione corporea mancante o danneggiata oggi può essere autorizzato anche dalla richiesta di colmare un presunto svantaggio biologico o sociale. Quello che sta accadendo con la medicina estetica è considerato da molti un esempio evidente di disease mongering, concetto spesso reso in italiano come “mercificazione della malattia”: si espande il dominio del patologico e quindi il raggio d’azione della medicina, spesso con l’obiettivo di allargare il mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò induce nel pubblico una certa percezione di rischio e deficit, aumentando le possibilità del mercato di identificare target di pazienti-clienti a cui proporre prodotti sanitari come integratori, test diagnostici, programmi di benessere e trattamenti. > Siamo di fronte a un esempio evidente di disease mongering, o mercificazione > della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti, > più diventa facile creare a tavolino nuove patologie. La ridefinizione concettuale dei confini tra salute e malattia non è però esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella crescente espansione dei codici ICD (International Classification of Diseases), la Classificazione internazionale delle malattie dell’OMS (Organizzazione Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli anni Settanta. L’osteoporosi e altre zone grigie Un caso particolarmente dibattuto nella letteratura scientifica è quello relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con l’introduzione di criteri diagnostici basati su soglie di densità minerale ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha comportato la classificazione di milioni di donne in menopausa come malate o a rischio, dal momento che i loro valori si discostavano dalla “norma statistica”, nonostante il rischio concreto di frattura fosse molto basso nella maggior parte dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla necessità di ridurre l’impatto economico-sociale delle fratture sul sistema sanitario, ha alimentato la commercializzazione di nuovi farmaci. Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto di soluzioni farmacologiche anziché all’adozione di strategie preventive più semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche analoghe, per citare solo qualche esempio. > Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto > la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni > farmacologiche anziché l’adozione di strategie preventive più semplici ed > efficaci. Alcuni teorici ritengono che al disease mongering abbiano contribuito i progressi nel campo della biochimica, in particolare la scoperta di indicatori biologici (geni, molecole, cellule, parametri come la pressione o la frequenza cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare determinate patologie. In un recente contributo pubblicato su Frontiers in Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica stia sempre più influenzando le definizioni di malattia, proponendo di diagnosticare condizioni come l’Alzheimer o il Parkinson in individui completamente asintomatici, solo sulla base della presenza di biomarcatori nel sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra bisogni reali dei pazienti e interessi commerciali. La riflessione di Reddy non riguarda solo le malattie neurologiche: in oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici che potrebbero non progredire mai verso una malattia sintomatica. In psichiatria, test ematici per marker infiammatori legati alla depressione potrebbero patologizzare risposte emotive normali. Nel caso del diabete, biomarcatori avanzati per la resistenza insulinica potrebbero classificare individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi farmaci. L’era della subsalute L’espansione del perimetro della medicina ha profondamente trasformato il rapporto degli individui con il proprio corpo e la propria salute. Sempre più spesso, la prevenzione non si limita a promuovere comportamenti sani o a monitorare situazioni ad alto rischio, ma diventa una strategia di ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea. Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale” impegnato in screening, check-up, test genetici, autovalutazioni e consulti per scoprire e correggere il più piccolo scostamento dalla normalità. La promozione della salute, così, non si configura più solo come tutela dal rischio, ma come dovere di perseguire un ideale di benessere ottimale e durevole, da certificare e monitorare costantemente attraverso dispositivi, tecnologie, esami strumentali e consulenze mediche. Il risultato è che l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni segnale di inefficienza, vulnerabilità o affaticamento. > Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su > ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un > “paziente potenziale” impegnato in check-up, test e consulti per scoprire e > correggere il più piccolo scostamento dalla normalità. È all’interno di questo scenario che ha preso corpo il costrutto di salute subottimale, concepito come un vero e proprio spazio liminale tra salute piena e malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le percezioni di disagio psicofisico di una crescente fetta della popolazione, soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i criteri clinici, riportano un generale senso di salute incompleta o precaria, accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng, studiosa di sociologia della salute all’Università di Sheffield, ha esplorato l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di “sospensione biografica” all’interno delle routine della vita quotidiana. La subsalute risulta particolarmente appetibile dal punto di vista commerciale, poiché non si basa su parametri oggettivi e misurabili ma su un vissuto soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti, tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è generalmente concepita come una fase reversibile, a patto di intervenire sullo stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa rappresenta una vera e propria “zona di transizione”, dove l’individuo si configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai ripari e rivedere le proprie abitudini prima che possano evolvere in malattie conclamate. Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di risposte sociali, cliniche e commerciali. Il potere del discorso Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità dei concetti di salute e malattia per costruire legittimità e consenso attorno a nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi istituzionali sono in grado di conferire consistenza scientifica apparente a concetti privi di un sostegno empirico robusto. > Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al > pubblico, a volte vengono costruite, negoziate e legittimate attraverso > pratiche linguistiche, narrative e mediatiche che possono prescindere dalla > solidità delle evidenze. Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma non universalmente riconosciuta come disturbo autonomo e spesso descritta come variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio, basato su articoli e contenuti online, mostra come l’uso di termini tecnici, sigle, casi-studio concreti, dati numerici e citazioni di esperti dia l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati, ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da MoDeD, fornendo così un dato quantitativo che rende la portata della malattia più fondata e tangibile. Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla comprensione precedente (“per tutta la vita hai creduto di essere pigro; in realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere dalla solidità delle evidenze. Se persino una malattia inventata può risultare verosimile, quali strumenti abbiamo per distinguere ciò che è fondato scientificamente da una patologia costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare la consapevolezza che salute e malattia sono sempre, anche, categorie discorsive, sociali, politiche e commerciali. Riconoscere questa multidimensionalità significa smettere di cercare confini immutabili e oggettivi e interrogarsi invece su chi ha il potere di tracciare quei confini, e a vantaggio di chi. L'articolo Il malato immaginato proviene da Il Tascabile.
Scienze
medicina
salute
malattia
patologia
Il malato immaginato
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo, redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente una parodia, fu preso sul serio da numerosi media, che lo diffusero come una scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu costretto a svelare lo scherzo poche ore dopo la pubblicazione. Il caso del MoDeD divenne un esempio emblematico di come la definizione di malattia possa essere facilmente ampliata o manipolata, trasformando aspetti della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e anticipava molte delle discussioni successive sulla costruzione mediatica e sociale della malattia. Possiamo spiegare il successo della notizia con la tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di salute ciò che prima consideravamo semplici varianti naturali della configurazione corporea. Questo processo è noto come medicalizzazione, ed è particolarmente evidente nell’ambito della medicina estetica. La patologizzazione della bruttezza Una piega palpebrale assente, un naso prominente, denti non perfettamente allineati, una pelle dalla texture irregolare. Nella medicina contemporanea molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma radicale: da semplici variazioni non desiderabili, da accettare passivamente, sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non solo perché si applicano competenze e strumenti propri di questa disciplina, ma anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la patologia è rappresentata da compromissioni funzionali, in altri casi essa coincide con il disagio psicologico e sociale che, anche in assenza di disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni estetici dominanti. In queste circostanze si interviene dunque sul corpo per guarire una “malattia dell’anima”. > Per medicalizzazione si intende la tendenza a trattare come problemi medici > alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti > normali. Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James Aquino identifica come patologizzazione della bruttezza, si nutre di un meccanismo duplice. Da un lato, la medicina si è appropriata di una sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere percepito simultaneamente come in salute, virtuoso, giovane e attraente; al contrario, caratteristiche che deviano dagli standard vengono lette come limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono strategie attive per inquadrare la chirurgia estetica non come pratica migliorativa, ma come intervento terapeutico. In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni della malattia. Malattia come danno, disfunzione e deviazione La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici giustificavano le correzioni dei tratti corporei che causavano disagio psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si è spostata sul modello della disabilità, considerando la bruttezza come uno svantaggio invalidante che può limitare le opportunità socioeconomiche. In entrambi i casi emerge una concezione normativista della malattia, che fonda il concetto di salute sul vissuto personale e su valori socialmente condivisi. Questa visione si intreccia con i meccanismi sociali di riconoscimento e valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce qualità positive agli individui fisicamente attraenti. In virtù di questi pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali e professionali tangibili, tra cui migliori risultati scolastici, lavori di status più elevato e maggiori probabilità di successo nelle relazioni. > Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi > economici, sociali e professionali tangibili, tra cui migliori risultati > scolastici, lavori di status più elevato e maggiori probabilità di successo > nelle relazioni. La seconda accezione si basa sul concetto di disfunzione: la bruttezza ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale, entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto ai normali processi biologici di un organismo, indipendentemente da percezioni soggettive o valori culturali. La terza accezione si basa sul concetto di deviazione: la caratterizzazione patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a una norma statistica o un canone numerico. Un esempio è il rapporto aureo, utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una caratteristica si colloca oltre i limiti di questa norma, si parla di “deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma statistica è spesso uno strumento per naturalizzare standard culturali, mascherandoli da criteri biologici universali. La crescente patologizzazione della bruttezza mette in crisi la distinzione tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i criteri di legittimità dell’intervento chirurgico: ciò che un tempo era giustificato solo dal ripristino di una funzione corporea mancante o danneggiata oggi può essere autorizzato anche dalla richiesta di colmare un presunto svantaggio biologico o sociale. Quello che sta accadendo con la medicina estetica è considerato da molti un esempio evidente di disease mongering, concetto spesso reso in italiano come “mercificazione della malattia”: si espande il dominio del patologico e quindi il raggio d’azione della medicina, spesso con l’obiettivo di allargare il mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò induce nel pubblico una certa percezione di rischio e deficit, aumentando le possibilità del mercato di identificare target di pazienti-clienti a cui proporre prodotti sanitari come integratori, test diagnostici, programmi di benessere e trattamenti. > Siamo di fronte a un esempio evidente di disease mongering, o mercificazione > della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti, > più diventa facile creare a tavolino nuove patologie. La ridefinizione concettuale dei confini tra salute e malattia non è però esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella crescente espansione dei codici ICD (International Classification of Diseases), la Classificazione internazionale delle malattie dell’OMS (Organizzazione Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli anni Settanta. L’osteoporosi e altre zone grigie Un caso particolarmente dibattuto nella letteratura scientifica è quello relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con l’introduzione di criteri diagnostici basati su soglie di densità minerale ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha comportato la classificazione di milioni di donne in menopausa come malate o a rischio, dal momento che i loro valori si discostavano dalla “norma statistica”, nonostante il rischio concreto di frattura fosse molto basso nella maggior parte dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla necessità di ridurre l’impatto economico-sociale delle fratture sul sistema sanitario, ha alimentato la commercializzazione di nuovi farmaci. Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto di soluzioni farmacologiche anziché all’adozione di strategie preventive più semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche analoghe, per citare solo qualche esempio. > Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto > la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni > farmacologiche anziché l’adozione di strategie preventive più semplici ed > efficaci. Alcuni teorici ritengono che al disease mongering abbiano contribuito i progressi nel campo della biochimica, in particolare la scoperta di indicatori biologici (geni, molecole, cellule, parametri come la pressione o la frequenza cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare determinate patologie. In un recente contributo pubblicato su Frontiers in Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica stia sempre più influenzando le definizioni di malattia, proponendo di diagnosticare condizioni come l’Alzheimer o il Parkinson in individui completamente asintomatici, solo sulla base della presenza di biomarcatori nel sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra bisogni reali dei pazienti e interessi commerciali. La riflessione di Reddy non riguarda solo le malattie neurologiche: in oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici che potrebbero non progredire mai verso una malattia sintomatica. In psichiatria, test ematici per marker infiammatori legati alla depressione potrebbero patologizzare risposte emotive normali. Nel caso del diabete, biomarcatori avanzati per la resistenza insulinica potrebbero classificare individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi farmaci. L’era della subsalute L’espansione del perimetro della medicina ha profondamente trasformato il rapporto degli individui con il proprio corpo e la propria salute. Sempre più spesso, la prevenzione non si limita a promuovere comportamenti sani o a monitorare situazioni ad alto rischio, ma diventa una strategia di ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea. Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale” impegnato in screening, check-up, test genetici, autovalutazioni e consulti per scoprire e correggere il più piccolo scostamento dalla normalità. La promozione della salute, così, non si configura più solo come tutela dal rischio, ma come dovere di perseguire un ideale di benessere ottimale e durevole, da certificare e monitorare costantemente attraverso dispositivi, tecnologie, esami strumentali e consulenze mediche. Il risultato è che l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni segnale di inefficienza, vulnerabilità o affaticamento. > Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su > ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un > “paziente potenziale” impegnato in check-up, test e consulti per scoprire e > correggere il più piccolo scostamento dalla normalità. È all’interno di questo scenario che ha preso corpo il costrutto di salute subottimale, concepito come un vero e proprio spazio liminale tra salute piena e malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le percezioni di disagio psicofisico di una crescente fetta della popolazione, soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i criteri clinici, riportano un generale senso di salute incompleta o precaria, accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng, studiosa di sociologia della salute all’Università di Sheffield, ha esplorato l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di “sospensione biografica” all’interno delle routine della vita quotidiana. La subsalute risulta particolarmente appetibile dal punto di vista commerciale, poiché non si basa su parametri oggettivi e misurabili ma su un vissuto soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti, tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è generalmente concepita come una fase reversibile, a patto di intervenire sullo stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa rappresenta una vera e propria “zona di transizione”, dove l’individuo si configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai ripari e rivedere le proprie abitudini prima che possano evolvere in malattie conclamate. Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di risposte sociali, cliniche e commerciali. Il potere del discorso Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità dei concetti di salute e malattia per costruire legittimità e consenso attorno a nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi istituzionali sono in grado di conferire consistenza scientifica apparente a concetti privi di un sostegno empirico robusto. > Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al > pubblico, a volte vengono costruite, negoziate e legittimate attraverso > pratiche linguistiche, narrative e mediatiche che possono prescindere dalla > solidità delle evidenze. Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma non universalmente riconosciuta come disturbo autonomo e spesso descritta come variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio, basato su articoli e contenuti online, mostra come l’uso di termini tecnici, sigle, casi-studio concreti, dati numerici e citazioni di esperti dia l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati, ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da MoDeD, fornendo così un dato quantitativo che rende la portata della malattia più fondata e tangibile. Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla comprensione precedente (“per tutta la vita hai creduto di essere pigro; in realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere dalla solidità delle evidenze. Se persino una malattia inventata può risultare verosimile, quali strumenti abbiamo per distinguere ciò che è fondato scientificamente da una patologia costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare la consapevolezza che salute e malattia sono sempre, anche, categorie discorsive, sociali, politiche e commerciali. Riconoscere questa multidimensionalità significa smettere di cercare confini immutabili e oggettivi e interrogarsi invece su chi ha il potere di tracciare quei confini, e a vantaggio di chi. L'articolo Il malato immaginato proviene da Il Tascabile.
Scienze
medicina
salute
malattia
patologia
La vita prima della vita
D a secoli filosofi, teologi e scienziati si chiedono come abbia avuto origine la vita sulla Terra. La questione è tutt’altro che semplice, e oggi una moltitudine di laboratori in giro per il mondo dedica la propria ricerca a trovare una risposta capace di soddisfare ogni dubbio. Si trovano ad andare indietro nel tempo, sino a quando la Terra doveva ancora compiere il suo primo miliardo di anni, quando gli oceani ribollivano per l’attività vulcanica e l’aria era percossa da fulmini. È lì che idrogeno e anidride carbonica hanno alterato la storia del nostro pianeta, dando vita a molecole organiche. Ed è da queste basi chimiche ‒ attraverso fasi intermedie ‒ che riteniamo si svilupparono gli acidi nucleici. Un punto di svolta dev’essere stato la comparsa degli aminoacidi e la loro incorporazione nel codice genetico come lo conosciamo oggi, con le sequenze di DNA e RNA che custodiscono l’informazione e i ribosomi che la traducono in proteine, ossia catene di aminoacidi che rappresentano i mattoni fondamentali per la vita. Ma per affrontare la questione, bisogna innanzitutto stabilire cosa si intenda con “vita”, e in secondo luogo perché alcune delle molecole indispensabili siano apparse ben prima che esistessero le prime cellule. L’essere umano prova a replicare le condizioni per la nascita della vita almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller progettarono un apparato di vetro per simulare le condizioni della Terra primordiale. I due crearono un sistema chiuso; riscaldarono acqua con idrogeno, metano e ammonio, e simularono l’effetto dei fulmini con scariche elettriche. Lasciarono che il miscuglio gassoso si condensasse e cadesse di nuovo in acqua come pioggia. Nel giro di una settimana, il finto oceano che avevano creato era diventato marrone per le biomolecole e gli aminoacidi che si erano formati. Oggi, oltre settant’anni dopo l’esperimento, il risultato principale rimane valido: nelle condizioni simulate dai ricercatori, la materia abiotica – ovvero non vivente – può dare origine a molecole organiche. Tuttavia, sappiamo che probabilmente la composizione atmosferica della Terra primordiale era differente da quella considerata da Urey-Miller. Per esempio, i due non inclusero nell’esperimento lo zolfo, elemento che oggi sappiamo essere stato fondamentale al tempo della nascita delle prime forme di vita. L’esclusione dello zolfo rende impossibile la formazione della metionina, un aminoacido che invece, stando al lavoro di Sawsan Wehbi e colleghi, sarebbe una delle prime molecole a essere incorporate nel codice genetico. > L’essere umano prova a replicare le condizioni per la comparsa della vita > almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller > progettarono un apparato di vetro per simulare le condizioni della Terra > primordiale. Un’altra teoria ipotizza che la vita abbia avuto origine nelle sorgenti idrotermali di profondità marine, ferite sul fondale degli oceani da cui fuoriesce acqua calda e ricca di minerali. Qui, il ferro minerale reagisce con l’acqua per produrre idrogeno che, a sua volta, potrebbe reagire con l’anidride carbonica per produrre formiato, acetato e piruvato – molecole organiche fondamentali per il metabolismo di una cellula. Tuttavia, anche su questo rimangono aperti vari punti: secondo alcuni studiosi non è possibile che la vita primordiale potesse tollerare temperature tanto alte, e ricerche recenti esplorano anche le sorgenti termali terrestri come possibile culla della vita. In uno studio del 2024, pubblicato su Nature Communications, i ricercatori hanno sintetizzato solfuri di ferro in scala nanometrica, incluse forme pure e versioni arricchite con elementi come manganese, nichel, titanio e cobalto. Hanno esposto questi campioni all’idrogeno gassoso e all’anidride carbonica in condizioni che simulavano quelle delle sorgenti calde, con temperature comprese tra 80 e 120 gradi Celsius. Così facendo sono riusciti a produrre metanolo da solfuri di ferro con manganese. Sembra inoltre che anche luce e vapore acqueo ricoprano un ruolo cruciale: la luce UV nello spettro del visibile può facilitare le reazioni, abbassando l’energia di attivazione; la presenza di vapore acqueo, pur in alcuni casi ostacolante a basse temperature, può favorire la sintesi alle temperature più alte. Una volta formatesi le molecole organiche, ci troviamo di fronte a un dilemma spesso paragonato a quello dell’uovo e della gallina: è venuto prima il materiale genetico o le proteine? Per lungo tempo, si è guardato all’RNA come candidato favorevole, poiché oltre a essere una molecola codificante è in grado di catalizzare reazioni chimiche, come fanno le proteine. Tuttavia, bisogna capire se una struttura fragile come quella dell’RNA possa essere sorta nelle dure condizioni del brodo primordiale e, sinora, nessuno è riuscito a ottenerlo in condizioni ambientali che simulassero quelle del mondo prebiotico. Ma esiste un’altra possibilità, esplorata di recente, secondo cui sarebbero invece le proteine ad aver visto la luce per prime. Fra i promotori di questa teoria c’è Andrew Pohorille, direttore del Center for Computational Astrobiology and Fundamental Biology della NASA, scomparso nel 2024. Le proteine sono molecole più semplici da produrre rispetto agli acidi nucleici, il problema è che le catene amminoacidiche non sono in grado di replicarsi da sole. L’ipotesi di Pohorille prevede che esse siano diventate nel tempo un sistema di conservazione delle informazioni, non replicabile e meno complesso di quello odierno basato sugli acidi nucleici, e che la loro presenza abbia favorito la comparsa dell’RNA. Quest’ultimo avrebbe poi preso il sopravvento. Un indizio su questo fronte arriva da uno studio congiunto della Stony Brook University e del Lawrence Berkeley National Laboratory. È possibile che sulla Terra primordiale avvenisse la sintesi di corti polimeri, ovvero molecole formate da più unità, dette monomeri, a formare sequenze casuali. Non è chiaro, tuttavia, come possa essere avvenuto il salto a catene più lunghe con sequenze particolari in grado di autocatalizzarsi, ovvero di aumentare la propria concentrazione nell’ambiente. I ricercatori Elizaveta Guseva, Ronald Zuckermann e Ken Dill hanno investigato i processi fisici e chimici alla base di questo passaggio, basandosi su un modello di ripiegamento di polimeri che Dill aveva sviluppato in precedenza. Hanno scoperto che alcune piccole catene possono collassare a formare strutture compatte in acqua. La maggior parte delle molecole si ripiega in modo da esporre solo le parti idrofile, ma alcune si comportano diversamente: espongono parti idrofobe che attraggono le parti simili di altri polimeri. Di qui può avvenire la formazione di molecole più complesse, che si ripiegano e possono anche diventare catalizzatori. Per quanto rare, queste molecole tenderebbero a crescere nel brodo prebiotico e potrebbero avere un ruolo nella nascita della vita. > Le proteine potrebbero essere emerse come prime molecole organiche, fornendo > un sistema di conservazione delle informazioni, non replicabile e meno > complesso di quello basato sugli acidi nucleici, e la loro presenza potrebbe > aver favorito la comparsa dell’RNA. La questione, quindi, è duplice: dapprima è necessario comprendere che aspetto avesse il mondo primordiale e poi si può investigare quali delle molecole disponibili si rivelarono essenziali per lo sviluppo delle prime forme di vita. Uno studio del 2000 provò a stabilire in quale ordine siano apparsi i venti aminoacidi odierni. Ben nove dei dieci trovati con l’esperimento di Urey-Miller erano in cima alla lista; ciò fu considerato una riprova dell’importanza dell’esperimento, e del fatto che questo non si limitava a dimostrare che la sintesi abiotica degli aminoacidi fosse possibile. Edward N. Trifonov, autore dello studio, partiva dal presupposto che gli aminoacidi più diffusi prima dell’origine della vita fossero stati i primi a essere incorporati nel codice genetico. Ma, osservando le antiche sequenze, questo si rivela non essere del tutto vero. Uno studio recente, condotto presso l’Università dell’Arizona, ha messo in discussione l’idea che il codice genetico sia nato seguendo l’ordine di reclutamento degli aminoacidi comunemente accettato. Supponendo che le sequenze più antiche siano più ricche di quegli aminoacidi che sono stati incorporati per primi, e non per forza degli aminoacidi che erano presenti in maggior quantità 4 miliardi di anni fa, si trovano risposte diverse. Ci sono aminoacidi che non erano abbondanti, ma che le antiche forme di vita sono riuscite a utilizzare comunque, probabilmente perché hanno funzioni uniche e importanti. “Siamo partiti da un assunto: che l’antica Terra poteva produrre tanti aminoacidi, ma non tutti venivano necessariamente utilizzati dalle forme di vita primitive”, mi racconta Sawsan Wehbi, tra gli autori dello studio. “Non eravamo soddisfatti degli studi precedenti. Volevamo riaprire la domanda sull’ordine di reclutamento degli aminoacidi, che fino a oggi è stato considerato come un assioma”. > Secondo alcune stime, il nostro ultimo antenato comune universale (LUCA), > risalirebbe a 4,2 miliardi di anni fa, il che implicherebbe che la sua > comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto > all’origine della Terra. L’idea del gruppo di ricerca era viaggiare indietro nel tempo fino al momento in cui il codice genetico stava prendendo vita. Parliamo del periodo in cui è apparso LUCA (acronimo di Last Universal Common Ancestor), una cellula da cui si ipotizza siano derivate tutte le forme di vita odierne. Recentemente, si è stimato che LUCA sia vissuto 4,2 miliardi di anni fa e quindi che la sua comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto all’origine della Terra. Tracce di come doveva essere questo organismo primordiale vivono dentro ognuno di noi, dentro gli alberi, i funghi e i batteri. La cellula si è duplicata, poi le sue figlie si sono duplicate e loro figlie hanno fatto lo stesso, e nel tempo le mutazioni e la selezione naturale hanno guidato la differenziazione degli organismi. Studiare LUCA è complicato perché il nostro antenato non esisteva in un mondo vuoto. Aveva dei predecessori, la cui storia evolutiva non ci è ancora chiara, e appare come un caotico e incessante trasferimento di geni. Oltretutto, non è detto che LUCA fosse un solo organismo. Potrebbe anche essere stato una comunità di organismi che condividevano geni e caratteristiche utili alla sopravvivenza. In questa lettura, più che un singolo ente biologico, LUCA rappresenterebbe un periodo di tempo. Wehbi e colleghi hanno deciso di guardare non agli aminoacidi che esistevano nell’ambiente, ma solo a quelli che le prime sequenze biotiche scelsero di incorporare. Dunque, hanno considerato come evento spartiacque proprio la nascita del codice genetico, e hanno paragonato sequenze che risalgono a poco prima con sequenze che risalgono a poco dopo. Possiamo supporre che le catene più antiche che incontriamo siano ricche di quegli aminoacidi che il codice genetico scelse per primi, e povere di quelli che furono scelti per ultimi. E non è tutto: dentro un’antica sequenza di aminoacidi Sawsan Wehbi e i suoi colleghi hanno trovato segmenti che si sono duplicati varie volte e si sono conservati. Questo significa che esistono sequenze così antiche che appartengono a un tempo in cui le proteine venivano tradotte in altri modi. È un dato cruciale, perché presuppone l’esistenza di codici genetici più antichi degli acidi nucleici, e viene a cadere l’idea che il corrente sistema di trascrizione e traduzione dell’informazione genetica sia l’unica possibilità. Lo studio ha rivelato anche che la vita primordiale preferiva aminoacidi più piccoli, mentre gli aminoacidi che contengono atomi di metallo sono stati incorporati molto prima di quanto si pensasse in precedenza. “Sapere quali aminoacidi furono usati al principio della vita sulla Terra è importante perché ci permette di sapere che tipo di mondo biotico c’era. Ci sono tanti tipi diversi di aminoacidi che il pianeta può produrre, ma questo non significa che la vita li utilizzerà”, spiega Wehbi. “La cosa che mi ha stupito di più è stata scoprire che quello che studiamo ha implicazioni in tantissime aree della scienza. Questa ricerca è stata utilizzata in diversi ambiti di ricerca, non solo nella biologia, ma si è rivelata utile anche per come concepiamo la vita nello spazio, per le missioni della NASA, per la ricerca di molecole organiche lontano dal suolo terrestre. Abbiamo cambiato il paradigma”. > L’esistenza di proteine antecedenti all’RNA presuppone l’esistenza di codici > genetici più antichi degli acidi nucleici, e mette in discussione l’idea che > il corrente sistema di trascrizione e traduzione dell’informazione genetica > sia l’unica possibilità. Tutto questo è possibile perché gli studiosi oggi sono in grado di ripercorrere le tracce di LUCA e analizzare le sequenze del periodo in cui il codice genetico era in costruzione. Lo si fa attraverso un lavoro di ricerca nei database e di sequenziamento proteico per ricostruire la storia evolutiva delle sequenze – di fatto, si guarda alla radice dell’albero filogenetico di una sequenza e si cerca di capire a quando risale. Nel caso di questo studio, i ricercatori hanno scelto di focalizzarsi sui domini proteici, che sono generalmente più antichi delle proteine che compongono. LUCA probabilmente aveva altre forme di vita intorno a sé, ma non sono sopravvissute e non ci hanno lasciato indizi. Retrocedendo nel tempo, le domande si fanno più intricate e le risposte più nebulose. Chi è comparso per primo, l’RNA, il DNA o le proteine? E com’è arrivato il DNA a diventare il ricettario favorito dalle forme di vita? Ancora più indietro nel tempo, rimane da capire come arrivarono le prime molecole organiche a polimerizzare, a formare DNA, RNA e aminoacidi, e di lì come fecero le sequenze a duplicarsi o tradursi in proteine. Le macromolecole hanno bisogno di allungarsi e ripiegarsi per funzionare e l’ambiente precoce avrebbe impedito la formazione di stringhe così lunghe. Non a caso, la vita prese piede quando comparvero le membrane, che si richiusero intorno alle macromolecole e le protessero dall’ambiente esterno. E dunque come, e quando, comparvero le membrane? Come fu la prima duplicazione di una cellula? Avvenne in un unico luogo geologico, o in molti posti simultaneamente? “La cosa più bella”, commenta Sawsan Wehbi, “è che per ognuna di queste domande esiste almeno un laboratorio nel mondo dedicato interamente a studiarla”. L'articolo La vita prima della vita proviene da Il Tascabile.
Scienze
genetica
biologia
chimica
origine della vita
Dormire per dimenticare
N el racconto Funes el memorioso, pubblicato da Jorge Luis Borges nel 1942, un giovane contadino cade da cavallo e perde la capacità di dimenticare. Da quel momento, ogni dettaglio della realtà si imprime nella sua mente con una precisione assoluta e implacabile: ogni foglia, ogni crepa del muro, ogni riflesso di luce sul vetro. Funes ricorda tutto, ma non riesce più a pensare. Non può più astrarre, generalizzare, selezionare. Il mondo lo invade. E con esso, la sua memoria. “Ho più ricordi io da solo di quanti ne avranno avuti tutti gli uomini”, dice. Alla vita di Funes non è più concesso il sonno: “Dormire è distrarsi dal mondo”, aggiunge. “I miei sogni sono come la vostra veglia”. Oggi, a distanza di ottant’anni, la scienza ci ha dimostrato che Borges aveva colto qualcosa di sostanziale: ricordare tutto è una condanna. La memoria umana funziona come un archivio flessibile e dinamico, che organizza, modifica e talvolta – per fortuna ‒ sopprime. E in questa riscrittura continua, il sonno gioca un ruolo decisivo. Il cervello che lavora al buio Mentre dormiamo, il cervello compie un lavoro di editing straordinario. Da una parte, consolida i ricordi, fissandoli nella memoria a lungo termine; dall’altra, quando il sonno è sufficiente e non frammentato, ne modula l’intensità emotiva. Questi processi riguardano la memoria in generale e, in media, possono ridurre anche la frequenza dei ricordi intrusivi, ovvero immagini ricorrenti e frammenti di esperienze dolorose che riemergono senza preavviso quando la mente è sotto pressione, spesso legati a traumi o a situazioni di forte stress. > Mentre dormiamo, il cervello compie un lavoro di editing straordinario. Da una > parte consolida i ricordi, fissandoli nella memoria a lungo termine; > dall’altra, quando il sonno è sufficiente e non frammentato, ne modula > l’intensità emotiva. Già alla fine degli anni Novanta, alcuni neuroscienziati iniziarono a osservare che le diverse fasi del sonno non si equivalgono. Il sonno profondo, ricco di onde lente, rafforza soprattutto i ricordi dichiarativi: fatti, parole, concetti. La fase REM, più tarda e associata all’attività onirica, è implicata invece nell’apprendimento motorio e, soprattutto, nella regolazione delle emozioni. Nel 2008, uno studio dimostrò che il cervello tende a memorizzare con priorità i dettagli emotivamente rilevanti rispetto a quelli neutri. Come se il sonno operasse una selezione affettiva: trattiene ciò che conta davvero, lascia sbiadire il superfluo. Al contrario, quando non dormiamo ‒ o dormiamo male ‒ il sistema emotivo si squilibra. Importanti studi di neuroimaging hanno mostrato che dopo trentasei ore di veglia si amplifica la reattività dell’amigdala, la centralina cerebrale delle emozioni, e si riduce il collegamento con le aree frontali deputate al controllo. Il risultato: emozioni più intense, meno governabili. A conferma di questo meccanismo, uno studio del 2011 ha rilevato che dopo una notte di sonno fisiologico, la risposta emotiva dell’amigdala si attenua di fronte agli stessi stimoli che il giorno prima avevano generato turbamento. Come se la fase REM avesse addolcito il ricordo, riducendone la carica affettiva senza alterarne il contenuto. Matthew Walker, neuroscienziato e direttore del Center for Human sleep science a Berkeley, ha dedicato vent’anni a studiare questi meccanismi. Nel suo libro Perché dormiamo (2019), spiega come il sonno REM agisca come una sorta di terapia notturna: durante questa fase, il cervello è quasi privo di noradrenalina ‒ l’equivalente cerebrale dell’adrenalina, un neurotrasmettitore associato all’ansia ‒ e questo permette ai centri emotivi di rielaborare i ricordi carichi di emozione senza esserne sopraffatti. Il sonno, insomma, è un laboratorio attivo e selettivo, in cui le esperienze vengono rielaborate, scolpite nella memoria e smussate nel loro impatto emotivo. Una forma invisibile, ma potentissima, di protezione. Il sonno REM e il controllo sui ricordi intrusivi Nel gennaio del 2025, un gruppo interistituzionale di neuroscienziati, guidati dalle università di York e dell’East Anglia, ha pubblicato uno studio che mette in relazione in modo esplicito due ambiti di ricerca finora paralleli: il controllo volontario dei ricordi indesiderati e il ruolo del sonno, in particolare REM, nel ripristinare i meccanismi neurali che lo sostengono. > Il sonno è un laboratorio attivo e selettivo, in cui le esperienze vengono > rielaborate, scolpite nella memoria e smussate nel loro impatto emotivo. Una > forma invisibile, ma potentissima, di protezione. La nostra capacità di non pensare volontariamente a qualcosa, da svegli, viene testata in laboratorio con un protocollo chiamato Think/No-Think: ai partecipanti si chiede di imparare una serie di associazioni ‒ per esempio una parola collegata a un’immagine ‒ e poi di evitare deliberatamente di pensarci. Quando il controllo funziona, il ricordo resta sotto la soglia della coscienza. La fase REM facilita questa forma di inibizione. L’esperimento ha coinvolto un gruppo molto consistente di volontari, 85 in totale, divisi in due gruppi: una parte ha dormito normalmente, l’altra è rimasta sveglia tutta la notte. Chi aveva dormito, e specialmente chi aveva trascorso più tempo nella fase REM, riusciva meglio a impedire che certi ricordi riemergessero. L’attività della corteccia prefrontale, che regola i processi esecutivi, aumentava; quella dell’ippocampo, sede della memoria episodica, si riduceva. Al contrario, nei soggetti deprivati di sonno, questo circuito si indeboliva, e i ricordi da evitare tornavano più facilmente alla coscienza. È il primo studio a mostrare che tra qualità del sonno e controllo cognitivo esiste un nesso diretto, perché suggerisce che la capacità di “non pensare a qualcosa”, un’abilità centrale per il benessere mentale, non dipende solo dalla forza di volontà. Dipende anche da quanto e da come abbiamo dormito. Un’intuizione di lunga data, messa alla prova L’idea che durante il sonno la mente lavori attivamente sui contenuti emotivi non è una scoperta recente. Già per Sigmund Freud il sogno era uno spazio in cui l’apparato psichico lavora il materiale inconscio trasformandolo in immagini simboliche che possiamo permetterci di guardare da vicino: “Il sogno è la via regia che porta all’inconscio”, scrive in L’interpretazione dei sogni. Carl Gustav Jung ne ampliò la portata, definendo il sogno come funzione compensatoria, cioè un’attività della psiche che cerca di ristabilire un equilibrio rispetto agli atteggiamenti unilaterali della coscienza. A partire dagli anni Cinquanta, questa illuminazione cominciò a trovare riscontri nella fisiologia del sonno. Nel 1953, gli scienziati Eugene Aserinsky e Nathaniel Kleitman scoprirono l’esistenza di una fase notturna caratterizzata da rapid eye movements, rapidi movimenti oculari che si manifestano sotto le palpebre, tracciabili tramite elettrooculogramma. La definirono “REM sleep”: una condizione in cui il cervello mostra un’attività elettrica molto vivace, simile alla veglia, mentre il corpo ‒ con l’eccezione di sporadiche scariche muscolari involontarie ‒ si trova in uno stato di atonia quasi totale. Studiando la stessa fase in modo indipendente, il neuroscienziato francese Michel Jouvet la battezzò sommeil paradoxal (sonno paradosso), mettendo l’accento proprio su questa natura contraddittoria. Jouvet sarà tra i primi a ipotizzare che proprio in questa fase si concentrino le dinamiche più complesse della rielaborazione mentale. Negli anni successivi, William Dement, neurologo e pioniere della medicina del sonno, coniò il termine polisonnografia, per indicare lo strumento che ancora oggi consente di monitorare le fasi del sonno, contribuendo al suo successo in ambito diagnostico e di ricerca. > I nostri ricordi non sono mai oggettivi: si piegano alla memoria emotiva e > vengono riscritti ogni volta che li rievochiamo. Durante il giorno li > rielaboriamo razionalmente. Di notte quella razionalità si ritira. Tra gli anni Ottanta e Novanta, la clinica dei sogni trova un’articolazione terapeutica nel lavoro di Rosalind Cartwright. Nelle sue ricerche su depressione e trauma, la neuroscienziata, fondatrice, direttrice e ricercatrice presso lo Sleep disorders service and Research center, osservò che nel tempo i contenuti onirici si modificano con l’elaborazione emotiva. In questa prospettiva, il sogno svolge una funzione essenziale di regolazione: contribuisce a smorzare gli stati affettivi negativi mettendo in relazione le esperienze disturbanti recenti con ricordi pregressi, favorendo una fusione narrativa che integra anche i vissuti più dolorosi dentro una rappresentazione del sé più coerente e sostenibile. Sappiamo che i ricordi non sono mai oggettivi: si piegano alla memoria emotiva, cambiano con il tempo, si ricostruiscono ogni volta che li rievochiamo. Durante il giorno li rielaboriamo razionalmente, cercando di dare loro un ordine. Di notte quella razionalità si ritira. Nel sogno emergono liberamente paure, desideri, fantasie, colpe, tutto ciò che da svegli teniamo sotto controllo. Il sonno ci protegge proprio perché questa rielaborazione avviene al di fuori della nostra volontà, senza resistenze né censure. Sognare sapendo di sognare Ma cosa succederebbe se potessimo trasformare questa protezione automatica e passiva in un intervento consapevole? La domanda è al centro di un filone di ricerca che negli ultimi anni sta ridefinendo i confini tra veglia e sonno: quello dedicato allo studio del sogno lucido, uno stato ibrido in cui la coscienza vigile del sognatore incontra la plasticità della fase REM, aprendo la possibilità di intervenire attivamente sul contenuto onirico. > Nel sogno lucido il cervello sembra lavorare su due registri > contemporaneamente: da una parte mantiene la plasticità del sogno, in cui le > emozioni vengono naturalmente elaborate; dall’altra recupera capacità > cognitive tipiche della veglia. Con Waking Life, film d’animazione del 2001, Richard Linklater immerge il protagonista in un flusso onirico ininterrotto, un labirinto di dialoghi e visioni in cui i confini tra realtà percepita e immaginazione si dissolvono continuamente, lasciando attori e spettatori in una condizione di perpetua ambiguità. In una delle conversazioni più intense del film, quella con il poeta Timothy “Speed” Levitch, emerge un paradosso che suona quasi come un’istruzione per aspiranti sognatori lucidi. Levitch invita a fare qualcosa di controintuitivo: prima di addormentarsi, non lasciarsi andare: “Il che vuol dire: ricorda. Perché ricordare è un’attività decisamente più psicotica del dimenticare”. Mentre il sonno tradizionalmente invita a cedere il controllo, qui si suggerisce di fare l’opposto: mantenere la consapevolezza, ricordarsi di ricordare. Nel sogno ordinario, richiamare volontariamente un ricordo traumatico può essere rischioso, perché significa riportare in superficie contenuti che la mente vuole tenere a bada. Nel sogno lucido, però, la coscienza rimane vigile, e questo permette di usare il ricordo come leva terapeutica: è possibile elaborare il trauma mentre il cervello svolge naturalmente il suo lavoro di regolazione emotiva. Quest’area di confine è al centro di numerosi studi recenti. Nel 2019, una review ha analizzato i dati di neuroimaging disponibili, arrivando a una conclusione preliminare ma significativa: durante un sogno lucido si attivano aree associate a funzioni cognitive superiori come il controllo esecutivo, l’attenzione e la meta-coscienza, che nel sonno REM ordinario tendono a restare poco attive. È come se il cervello riuscisse a lavorare su due registri contemporaneamente: da una parte mantiene la plasticità del sogno, quell’ambiente in cui le emozioni vengono naturalmente elaborate; dall’altra recupera capacità cognitive tipiche della veglia. Il sogno interattivo Nel 2021, quattro team di ricerca indipendenti – in Francia, Germania, Paesi Bassi e Stati Uniti – hanno pubblicato su Current Biology uno studio che dimostra come sia possibile stabilire una comunicazione con i cosiddetti lucid dreamers nel momento del sonno. I partecipanti, durante episodi di sogno lucido in fase REM monitorata con polisonnografia, sono stati in grado di ricevere domande dall’esterno, come semplici problemi aritmetici o quesiti sì/no, e di rispondere in tempo reale attraverso sequenze prestabilite di movimenti oculari o contrazioni facciali. Il risultato, replicato in quattro laboratori con metodologie leggermente diverse, suggerisce che nel sogno lucido restano attive alcune funzioni cognitive complesse, come la memoria di lavoro e la capacità di comprendere istruzioni verbali, una condizione fino a poco tempo fa ritenuta esclusiva dello stato di veglia. I ricercatori hanno definito questo fenomeno “sogno interattivo”: una comunicazione bidirezionale con la mente addormentata che, pur con limiti tecnici e cognitivi, si dimostra replicabile, funzionale e indipendente dal metodo di induzione onirica. Se la coscienza e il controllo cognitivo possono sopravvivere al sonno, anche solo in forma parziale, si apre la possibilità di osservare dall’interno l’attività mentale notturna, di interrogarla nel suo stesso linguaggio e, forse, un giorno, di influenzarne il corso. > In alcuni esperimenti i sognatori lucidi sono stati in grado di ricevere > domande dall’esterno, come semplici problemi aritmetici o quesiti sì/no, e di > rispondere in tempo reale attraverso sequenze prestabilite di movimenti > oculari o contrazioni facciali. La fascinazione per il tema ha spinto questa frontiera ancora oltre, aprendo scenari che sconfinano nella fiction. Nel 2024 la startup californiana REMspace ha annunciato di aver ottenuto la prima comunicazione tra due persone in sogno lucido. Secondo quanto riportato dall’azienda, l’esperimento avrebbe coinvolto due sognatori lucidi in case separate, monitorati da remoto durante il sonno tramite sensori elettromiografici. Utilizzando un sistema di codifica semplificata, un partecipante avrebbe ricevuto una parola casuale e l’avrebbe “trasmessa” al secondo, che avrebbe poi confermato il messaggio al risveglio. Al momento, però, mancano pubblicazioni scientifiche sottoposte a revisione paritaria: le uniche fonti sono il sito e i comunicati dell’azienda, ripresi dalla stampa generalista. A complicare il quadro sono alcuni dettagli sul fondatore di REMspace, figura controversa nota anche per esperimenti personali estremi, tra cui un tentativo autogestito di impianto cerebrale nel 2023. Tra cura e controllo Tra le applicazioni cliniche del sogno lucido, la più esplorata riguarda il trattamento degli incubi ricorrenti e, in parte, dei sintomi legati al trauma. Una revisione sistematica del 2023 ha evidenziato risultati promettenti della lucid dreaming therapy (LDT), capace in alcuni casi di ridurre la frequenza e l’intensità degli incubi, sebbene i dati provengano ancora da studi pilota condotti su campioni ridotti. Una seconda review, apparsa su BMC Psychiatry, inserisce la LDT tra gli approcci psicosociali emergenti, ma ne segnala al contempo la variabilità metodologica e la necessità di standardizzazione. Nel biennio 2024-2025, uno studio preliminare ha adattato la terapia cognitivo-comportamentale per gli incubi ai pazienti con narcolessia, affiancandola a un metodo sperimentale volto a stimolare la consapevolezza onirica nei momenti chiave del sonno. I risultati iniziali segnalano una possibile riduzione della gravità degli incubi e un miglioramento del senso di controllo. In questo contesto, la narcolessia rappresenta un terreno di indagine particolarmente fertile: numerosi studi riportano una maggiore incidenza di sogni lucidi tra chi ne è affetto rispetto alla popolazione generale, suggerendo uno spazio di intervento ancora poco esplorato. Il dibattito sul potenziale terapeutico di queste tecniche resta tuttavia aperto: la lucidità onirica spontanea è rara, i metodi per indurla variano in efficacia e l’esperienza può talvolta essere disturbante o interferire con l’equilibrio fisiologico del sonno REM, specie se si tenta di forzare un controllo eccessivo all’interno dell’esperienza. > C’è chi sta studiando le possibili applicazioni cliniche del sogno lucido. Ma > questo impone una questione: fino a che punto è auspicabile intervenire > volontariamente nella sfera onirica, che per sua natura dovrebbe restare > libera, ambigua e rielaborativa? In questa direzione, alcuni esperti propongono un approccio più sobrio: piuttosto che puntare al pieno dominio del sogno, si possono integrare elementi di mindfulness, consapevolezza corporea e accettazione nei trattamenti per gli incubi. Strategie meno invasive, ma capaci ‒ almeno in via preliminare ‒ di migliorare la regolazione emotiva notturna, attenuare il peso dei ricordi traumatici e preservare l’integrità dei processi neurofisiologici del sonno. C’è poi un nodo più filosofico che riguarda il confine tra trattamento e illusione di controllo: fino a che punto è auspicabile intervenire volontariamente nella sfera onirica, che per sua natura dovrebbe restare libera, ambigua e rielaborativa? Esplorare il sogno lucido significa spingersi ai margini della coscienza, là dove si incrociano memoria, trauma e identità. L’utilità clinica di queste tecniche apre possibilità terapeutiche non trascurabili. Ma il sogno resta anche uno spazio indocile, dove la mente lavora secondo logiche che sfuggono al controllo volontario. Funes, nel racconto di Borges, aveva perso il sonno perché ricordava tutto. E il sonno ci protegge per la ragione opposta: perché permette ai ricordi di trasformarsi senza sorveglianza. Dormire, oltre a “distrarci dal mondo”, è quindi anche un momento per lasciarsi attraversare da ciò che non possiamo dirigere. Ed è forse nella resa, più che nel dominio, che il sogno si fa cura. L'articolo Dormire per dimenticare proviene da Il Tascabile.
Scienze
neuroscienze
sonno
sogno
La versione del cavallo
T oc. È il suono dello zoccolo di Hans: il cavallo capace di contare, riconoscere le carte da gioco e persino leggere nel pensiero. Ha appena poggiato la zampa su un cartellino con il numero “quattro” disegnato in superficie, il risultato corretto di una sottrazione. Siamo nei primi anni del Novecento e una commissione di scienziati è riunita a casa di Wilhelm von Osten, insegnante di matematica in pensione di Berlino, per verificare che le prodigiose abilità di Hans, il suo cavallo, non siano una frode. E tali non sembrano: sa risolvere calcoli, riconoscere forme geometriche e indovinare a quale numero sta pensando un umano di fronte a lui. Eppure il biologo e psicologo Oskar Pfungst non è convinto e ripropone all’animale i test, questa volta con alcune modifiche: gli sperimentatori non dovranno conoscere le risposte ai quesiti posti o non dovranno essere visibili al cavallo. Hans non risponde più e Pfungst, in questo modo, scopre che l’equino non sarà un bravo matematico, ma è un eccellente osservatore: riesce a leggere i piccoli segnali del volto e del resto del corpo di von Osten e dei membri della commissione che in qualche modo indicano che sta toccando o sta per toccare il numero corretto. Nasce così l’effetto Clever Hans, che indica il rischio da parte degli esseri umani di dare al soggetto testato un suggerimento involontario sul comportamento desiderato. > Nel corso della storia i cavalli sono stati cibo, mezzi di trasporto, forza > agricola, armi da guerra, campioni sportivi, status symbol, compagni e > mediatori terapeutici. Solo negli ultimi anni abbiamo iniziato a studiare i > loro reali bisogni, il modo in cui percepiscono il mondo e perfino alcuni > aspetti della loro vita interiore. Nel teatro delle civiltà umane, i cavalli sono stati costretti a recitare innumerevoli ruoli. Se per il vecchio maestro in pensione doveva essere lo sbalorditivo esemplare a cui aveva insegnato a comportarsi come un umano, in generale, nella storia delle nostre società, questi animali sono stati cibo, mezzi di locomozione, strumenti agricoli, armi da guerra, campioni sportivi, status symbol, compagni di vita e mediatori terapeutici. Uno di loro stava persino per essere nominato console dall’imperatore Caligola, almeno così scriveva Svetonio. Solo negli ultimi anni la ricerca sul comportamento animale sta iniziando a restituirci un’immagine più autentica dei cavalli, svelando i loro reali bisogni, il modo in cui percepiscono il mondo e perfino alcuni aspetti della loro vita interiore, al di là delle nostre proiezioni e stereotipi. Umani e cavalli: due destini che si uniscono La storia degli Equidae, la famiglia a cui appartengono i cavalli, inizia circa 55 milioni di anni fa, in America. Nell’Eocene apparve il primo antenato del cavallo, l’Hyracotherium, i cui resti fossili ritrovati in America Settentrionale ed Europa rivelavano le sembianze di un mammifero molto diverso dal fiero destriero a cui noi tutti siamo abituati: aveva dimensioni simili a quelle di un cane di taglia medio-piccola, cranio tozzo e zampe sottili. Persino i paleontologi fecero fatica a ricollegarlo ai cavalli prima del ritrovamento dei resti di altri antenati, ultimo il Pliohippus, da cui si è evoluto il genere Equus circa 4-4,5 milioni di anni fa, durante il Pliocene. Nel corso di poche decine di milioni di anni l’evoluzione apportò numerosi cambiamenti, tra cui l’aumento di dimensioni, la riduzione del numero di dita, la modifica della morfologia dei denti affinché fossero adatti al pascolo, l’allungamento del muso e l’incremento del volume e della complessità del cervello. > Il controllo della riproduzione dei cavalli moderni è emerso intorno al 2200 > a.C. nelle steppe pontico-caspiche, attraverso l’accoppiamento tra > consanguinei stretti per selezionare le caratteristiche più utili. Fu alla fine del Pleistocene che il destino dei cavalli cambiò drasticamente. Se in America Settentrionale scomparvero intorno a 10.000 anni fa, nel Vecchio mondo vissero abbastanza a lungo da incontrare l’essere umano ed essere domesticati. Le pareti dipinte delle grotte di Lascaux, Altamira e Pech-Merle testimoniano l’attrazione che il cavallo aveva iniziato a esercitare sui nostri progenitori nel Paleolitico, con le loro rappresentazioni accurate, forse propiziatorie o dettate dal senso di libertà che la loro corsa probabilmente evocava. I primi tentativi di domesticazione, però, avvennero molto tempo dopo: le prime tracce risalgono soltanto a circa 5.500 anni fa e appartengono ad alcuni antichi insediamenti semisedentari localizzati nell’attuale Kazakistan settentrionale. Nei pressi del sito archeologico di Botaï sono stati rinvenuti resti ossei, appartenenti a centinaia di cavalli, che mostrano l’uso di briglie, di recinzioni, e altri ritrovamenti che costituiscono indizi sulla loro mungitura per ricavarne latte da bere, pratica diffusa ancora oggi in Mongolia. Per molto tempo si è creduto che i nostri cavalli fossero i diretti discendenti di quelli di Botaï, ma recenti analisi genetiche hanno smentito questa ipotesi. Gli equidi del Kazakistan non vennero selezionati e utilizzati per il trasporto su larga scala. Questo sarebbe accaduto solo verso la fine del terzo millennio a.C. Uno studio pubblicato su Nature nel 2024 ha rivelato che il controllo della riproduzione della linea dei cavalli moderni è emerso intorno al 2200 a.C. nelle steppe pontico-caspiche, attraverso l’accoppiamento tra consanguinei stretti per selezionare le caratteristiche più utili. Il controllo riproduttivo ha coinciso con una rapida espansione dei nuovi cavalli in tutta l’Eurasia, che ha portato alla sostituzione di quasi tutte le linee locali. Iniziava così la storia umana della mobilità su vasta scala. Le date ottenute dalle analisi genetiche e dall’esame dei reperti archeologici sono di particolare importanza anche perché contraddicono una delle narrazioni più diffuse sullo sviluppo delle culture umane, secondo cui grandi mandrie di cavalli avrebbero accompagnato la massiccia migrazione dei popoli delle steppe che diffusero le lingue indoeuropee attraverso l’Europa intorno al 3000 a.C. A quell’epoca non avevamo ancora domato il DNA dei cavalli selvatici. La domesticazione del cavallo rivoluzionò il modo di viaggiare e per migliaia di anni fu questa specie a segnare i confini del trasporto via terra, finché il treno, nel Diciannovesimo secolo, aprì una nuova era. Solo con l’avvento dell’automobile, nel secolo successivo, i cavalli persero definitivamente il loro ruolo centrale nei trasporti. Il retaggio di questo passato, però, è ancora ben visibile: molte strade ricalcano antichi percorsi tracciati per i cavalli e la potenza dei motori continua a misurarsi proprio in “cavalli”. Lasciarono un’impronta profonda anche nelle guerre e vennero usati fino al primo conflitto mondiale, in cui furono indispensabili poiché trainavano rifornimenti, munizioni, artiglieria e feriti. Un animale, tanti ruoli Il poderoso e imponente percheron, originario del Nord della Francia, plasmato per le battaglie, per i trasporti e i lavori agricoli; il pony delle Highlands, nativo delle isole scozzesi, compatto e piccolo e allevato per l’equitazione di campagna e di maneggio; l’elegante e selvaggio mustang, discendente dei cavalli che gli spagnoli portarono nel Nuovo mondo, in seguito rinselvatichiti. Queste sono solo alcune delle centinaia di razze che l’essere umano ha modellato con la selezione artificiale per adattarle alle proprie necessità, inizialmente incrociando individui con le caratteristiche desiderate, fino ad arrivare all’utilizzo di tecniche di editing genetico come CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats). I cavalli sono i nostri campioni in discipline sportive, tra cui il polo e l’equitazione, continuano a svolgere i loro compiti tradizionali nei Paesi in via di sviluppo, dove forniscono trasporto e forza lavoro per l’aratura, sono protagonisti di celebrazioni folkloristiche e tradizionali in tutto il mondo, con rituali che frequentemente sfidano la concezione di benessere animale e persino il buonsenso. Ne sono un esempio la conduzione di mezzi a trazione in piena estate a Roma (le cosiddette botticelle), e Las Luminarias, celebrazione durante la quale si festeggia Sant’Antonio, protettore degli animali, facendo attraversare agli equidi le fiamme dei falò accesi nei vicoli di San Bartolomé de Pinares, in Spagna. I cavalli sono anche considerati cibo: secondo i dati della FAO (Food and Agriculture Organization) sugli allevamenti mondiali, nel 2023 si contavano circa 57 milioni di cavalli e 4,71 milioni macellati. > Sono centinaia le razze che l’essere umano ha modellato con la selezione > artificiale per adattarle alle proprie necessità, inizialmente incrociando > individui con le caratteristiche desiderate, fino ad arrivare all’utilizzo di > tecniche di editing genetico. Equus ferus caballus è sempre stato anche un compagno per noi umani. Già nel mondo antico, e ancora di più nel Medioevo e nel mondo islamico, era considerato dai cavalieri un amico, con un suo nome e una sua personalità. È indimenticabile l’incontro tra Alessandro Magno e il cavallo Bucefalo, descritto da Plutarco nella Vita di Alessandro: il figlio di Filippo II di Macedonia comprende le paure dell’animale e riesce in questo modo a cavalcarlo. Il loro rapporto è stretto e intenso, rafforzato da viaggi e battaglie e suggellato dalla morte dell’animale sull’Idaspe, in India, dove il condottiero fonderà una città in onore del destriero. Secoli di vicinanza non trascorrono senza lasciare traccia e i cavalli hanno imparato a starci accanto, a capirci così bene da poter addirittura essere un supporto negli interventi assistiti con gli animali, progetti che si basano sull’interazione con loro per mantenere o migliorare il nostro benessere fisico, psicologico e sociale. Essere cavalli Tra la fine dell’Ottocento e gli inizi del Novecento incominciarono a essere diffusi spettacoli in cui cavalli e nuotatori si tuffavano da strutture alte circa venti metri: il cavallo saliva su rampe strette, solo il vuoto intorno a lui; poi, in cima, un fantino gli saltava in groppa ed entrambi scivolavano su una piattaforma inclinata, fino a cadere per diversi metri, a testa in giù, in una piscina. Non sorprende che esperienze di questo tipo lasciassero spesso segni profondi, sia fisici sia emotivi, tanto sugli esseri umani quanto sui cavalli. L’esistenza di queste performance è proseguita fin quasi ai giorni nostri ‒ negli anni Duemila un esemplare ha continuato a tuffarsi in un parco divertimenti vicino a New York ‒ e in rete è ancora possibile guardare i video di queste imprese. Tra i commenti c’è chi suggerisce che questi animali si divertano nel tuffarsi: “Se lo fanno, è perché gli piace”. Un argomento sterile, come afferma Léa Lansade in Nel mondo del cavallo – Pensieri, emozioni, comportamenti di un meraviglioso animale (2025). > Contrariamente a quanto generalmente si pensa, i cavalli sono animali sociali > e vivono in gruppi familiari composti da 3-5 femmine, uno stallone e i puledri > con esso generati. Famiglie che si spostano, mangiano, dormono, galoppano e > giocano insieme. Lansade, introdotta all’equitazione da giovanissima, è oggi un’etologa specializzata nel campo delle emozioni e delle capacità cognitive degli animali. Nel libro, la ricercatrice supera gli spazi angusti di credenze e folklore, salta le staccionate delle conoscenze non dimostrate sui cavalli e presenta un animale sconosciuto a una buona parte del pubblico, anche di quello esperto, raccontando i risultati di anni di ricerche etologiche. I cavalli sono animali sociali e vivono in gruppi familiari composti da 3-5 femmine (le giumente), uno stallone e i puledri con esso generati. Tra le giumente si instaurano amicizie che durano a lungo, anche un’intera esistenza, e quando formano una nuova famiglia, esse cercano di rimanere vicine a quella di origine, isolandosi solo nella stagione riproduttiva. I puledri, molto uniti alle madri fino alla maturità sessuale, che arriva intorno ai 2-3 anni, imparano le regole del gruppo tramite il gioco, di cui si occupa soprattutto lo stallone. Le famiglie si spostano, mangiano, dormono, galoppano e giocano insieme. Quando un membro scompare, il resto del gruppo lo chiama e lo cerca: i cavalli sono in grado di riconoscersi e sanno instaurare relazioni solide tra loro. Non sono territoriali e diversi gruppi possono convivere in uno stesso spazio, in cui trovano tutto ciò di cui necessitano, come acqua, cibo e un riparo naturale, quando possibile. Il fatto che il cavallo sia un erbivoro influisce profondamente sulla distribuzione delle attività a cui si dedica nelle 24 ore. Poiché le piante forniscono poca energia rispetto al fabbisogno di un animale che può pesare centinaia di chilogrammi, il cavallo occupa in media 15-16 ore al giorno a nutrirsi. Durante il pascolo non rimane fermo, ma si muove lentamente con la testa a terra, scegliendo le piante più adatte. Il benessere del cavallo è anche questo: essere libero di trascorrere una giornata a camminare mentre mangia. I sensi dei cavalli nascondono regni a noi sconosciuti. Il loro campo visivo, diversamente dal nostro, è panoramico: possono arrivare a vedere quasi dietro la propria schiena, grazie alla posizione laterale degli occhi, uno per ogni parte della testa. Si ritiene che l’evoluzione abbia favorito questa particolare disposizione per avvistare i predatori da qualsiasi direzione, una caratteristica che rappresenta un enorme vantaggio per un animale che vive in branco. L’olfatto molto sviluppato permette loro di esplorare l’ambiente che li circonda e svolge un ruolo importante nell’interazione sociale e nella gestione di stati di allerta. Ad esempio, subito dopo la nascita, la madre riconosce il proprio puledro grazie al suo odore; quando due cavalli si incontrano, si annusano per identificarsi; gli stalloni, invece, usano l’olfatto anche per marcare il territorio, esaminando gli escrementi di altri maschi per capire chi è passato prima di loro, quale fosse il suo status, e depositandoci sopra i propri. > Mentre questi animali per necessità hanno imparato a leggere i nostri > comportamenti, ad attribuirci una reputazione, a riconoscere i nostri volti e > persino le nostre emozioni, noi non siamo altrettanto preparati sul loro mondo > interiore e sulla loro intelligenza. Il senso che forse più sorprende è il tatto: ci sono cavalli che riescono a percepire in alcune zone del proprio corpo una pressione paragonabile a quella dell’estremità di un capello umano, che noi non siamo in grado di sentire sulla punta delle nostre dita. Con il loro udito sanno captare gli ultrasuoni e riescono a cogliere l’intera gamma di frequenze che emettiamo quando parliamo, mentre il loro gusto li porta a nutrirsi di un ampio assortimento di erbe, piante, frutti, foglie e rami, quando vivono in natura. Emozioni equine La storia di Hans e i racconti sui cavalli tuffatori dimostrano che, mentre questi animali per necessità hanno imparato a leggere i nostri comportamenti, ad attribuirci una reputazione, a riconoscere i nostri volti e persino le nostre emozioni, noi non siamo così preparati sul loro mondo interiore, sulla loro intelligenza e sul loro stato psicologico. Ce lo spiega ancora una volta Léa Lansade: riconosciamo bene i segnali di paura, che può diventare patologica se trascurata, ma sappiamo poco su frustrazione, rabbia e tristezza. Di certo i cavalli provano piacere, ad esempio quando spazzolati nei punti giusti, e cercano di farcelo capire con le loro posture, il comportamento e le espressioni facciali. Anche la gioia fa parte delle loro emozioni, seppur difficile da delineare con certezza. E poi c’è il dolore, fondamentale da riconoscere per garantire il benessere di questi animali: sono stati sviluppati protocolli per la sua identificazione, in base alle espressioni facciali, da due gruppi di ricerca, uno italiano e l’altro svedese. I cavalli possono dare l’impressione di comprenderci e questo induce a chiedersi se siano davvero in grado di cogliere gli stati mentali propri e altrui e, in base a questi, capire e prevedere un comportamento, cioè se possiedano una forma di teoria della mente. Alcuni studi rivelano indizi sulla capacità dei cavalli di conoscere che cosa sappia e che cosa non sappia un umano. Nei test gli sperimentatori che avrebbero dovuto dar loro il cibo, in alcune occasioni non lo facevano. Questo avveniva manifestando la chiara intenzione di non fornire cibo oppure mostrando di esserne impossibilitati a causa della presenza di una barriera o di una certa goffaggine da parte dell’operatore. I cavalli rinunciavano più facilmente quando c’era una evidente volontà di non offrire loro cibo, mentre erano più propensi a insistere davanti alla goffaggine dello sperimentatore. Ciò suggerirebbe che essi possano tener conto non solo delle azioni, ma anche delle intenzioni umane, che in qualche modo sarebbero capaci di leggere. Un risultato simile a quanto osservato nei primati. > I cavalli possono dare l’impressione di comprenderci e questo induce a > chiedersi se siano davvero in grado di cogliere gli stati mentali propri e > altrui, cioè se possiedano una forma di teoria della mente. Oltre a comprendere gli altri, i cavalli stupiscono anche per la loro memoria a lungo termine: in molte storie e rappresentazioni, come quelle che appartengono all’immaginario dei racconti western, l’animale ritrova da solo la strada di casa, a conferma della capacità di memorizzare percorsi e luoghi. È un’abilità che supporta questi animali nella loro vita, durante la quale, come afferma Lansade, “Per trovare il cibo, vivere in gruppo, riprodursi o evitare il pericolo, il cavallo ha bisogno di ricordare i suoi simili, i luoghi che ha visitato e le situazioni che ha incontrato, ma anche di associare gli eventi e reagire in modo adeguato”. Ripensare la nostra relazione con il cavallo Le scoperte scientifiche sull’etologia dei cavalli dovrebbero porci davanti a interrogativi urgenti sul modo in cui ci rapportiamo con loro. Non possiamo più continuare a credere che certi metodi di allenamento, alcune attività e persino i luoghi in cui li lasciamo vivere siano ancora adatti. I cavalli hanno trascorso le loro esistenze quasi esclusivamente in gruppo e all’aperto fino alla fine del Medioevo, momento in cui si iniziò a detenerli in stalle chiuse, con uno spazio minimo per ciascun esemplare. Era un sistema nato per proteggerli dal freddo, ma che oggi, nonostante possiamo garantire loro riparo e cura in modalità differenti, continuiamo ad adoperare. L’autrice di Nel mondo del cavallo racconta come lei stessa sia stata vittima dell’abitudine e della mancanza di conoscenza: > Imitando le persone che mi circondavano, pensai che per il mio cavallo > sportivo sarebbe stato meglio vivere in un box, possibilmente su un letto di > trucioli, come avevo visto fare nelle grandi scuderie. Ero convinta che questa > vita gli si addicesse e fosse perfetta per lui. Mi divertiva quando faceva > risuonare continuamente i denti sul metallo della porta del box, come se > stesse suonando un’armonica. In realtà, soffriva di stereotipia, ma all’epoca > non me ne rendevo conto. Il mio cavallo visse così per alcuni anni, finché, > con l’aiuto di alcuni studi, mi resi conto di quanto fosse deleteria per lui > la vita da rinchiuso e di quanto potesse influire sulla sua salute fisica e > psicologica. Il cavallo tornò nella precedente sistemazione, un grande prato con ampi box comunicanti, in cui poteva andare a piacimento. Equus ferus caballus è stato al nostro fianco, nelle vittorie e nelle sconfitte. È stato sfruttato per necessità, ludibrio, intrattenimento. Ne abbiamo fatto un’icona, uno status symbol, il protagonista di tradizioni identitarie, ha incarnato il riflesso della nostra grandezza e la sua sensibilità lo ha eretto a supporto emotivo, sempre nel nostro interesse. Per lungo tempo non abbiamo considerato la sua essenza, i suoi bisogni, le sue emozioni. Ora il lavoro di ricercatrici e ricercatori ci sta suggerendo un futuro diverso, un nuovo sentiero da percorrere sradicando l’ignoranza. L'articolo La versione del cavallo proviene da Il Tascabile.
Scienze
animali
cavalli
etologia
Cosa hanno da insegnarci le piante
N ella prefazione al libro di Monica Gagliano, Così parlò la pianta (2022), testo di riferimento per gli studi sulle modalità attraverso cui le piante sentono e comunicano tra di loro, Suzanne Simard, professoressa di forest ecology presso la University of British Columbia (Vancouver, Canada), annota uno spunto illuminante su cui è opportuno soffermarsi. Simard mette in relazione le recenti scoperte scientifiche sulla sensibilità e sull’intelligenza vegetale ‒ rese note da Gagliano, Stefano Mancuso, Daniel Chamovitz, Eduardo Kohn, Anthony Trewavas, ma anche Paco Calvo ed Emanuele Coccia ‒ con la saggezza degli aborigeni del Nord America, depositari dei segreti della vita delle piante e delle foreste. Prima di qualsiasi brevetto scientifico occidentale, è stato il sapere delle comunità indigene a rivelare la dimensione relazionale della vita vegetale, il profondo legame tra uomo e piante, individuando nella vita e nel comportamento delle piante quegli aspetti che oggi riscopriamo attraverso gli occhi della scienza, della filosofia e della biologia vegetale, e soprattutto mostrando la necessità di preservare l’interdipendenza tra ambiente naturale ed esseri viventi. Autrice di un importante contributo dell’ecologismo mondiale e oggi direttrice del The Mother Tree Project, Simard lavora al tentativo di ristabilire la connessione rigenerativa tra l’uomo e le foreste, cioè con la natura, in un periodo in cui i cambiamenti climatici segnano un profondo mutamento dell’ambiente naturale. Partendo dal concetto di collaborazione delle piante, Simard suggerisce di compiere una vera e propria reimmersione nel mondo vegetale e nelle sue interrelazioni. L’intelligenza e la saggezza della foresta che Simard svela nel suo libro è data dalla relazionalità e dallo scambio di informazioni che la vita sotterranea indica, e che l’autrice ha brillantemente individuato nelle reti micorriziche, sistemi fungini sotterranei che collegano gli alberi e consentono lo scambio di informazioni e sostanze nutritive. Sulla base di queste comunicazioni vegetali, la tesi centrale di Simard intende mostrare che queste reti invisibili rivelano come la cooperazione, e non la competizione, costituisca il cuore dell’evoluzione e della vita naturale. > Prima di qualsiasi brevetto scientifico occidentale, è stato il sapere delle > comunità indigene a rivelare la dimensione relazionale della vita vegetale, il > profondo legame tra uomo e piante. La tesi di Simard, tuttavia, affonda le sue radici in un sapere che supera la tradizione scientifica occidentale a cui fa riferimento. Si tratta, infatti, della saggezza indigena dei nativi americani, che aveva già individuato nella collaborazione tra corpi il sistema della natura. Se questo aspetto sfugge, in qualche modo, alla storia della cultura europea, e se questi spunti sono assenti nei curricula accademici e scolastici dei nostri Paesi, sono invece le tradizioni non europee a rivelarne l’importanza. Questo nesso è stato esplorato da Robin Wall Kimmerer nel suo: La meravigliosa trama del tutto (2022). E su questo aspetto meno diffuso tra i lettori vorrei focalizzare l’attenzione. Direttrice del Center for native peoples and the environment, Wall Kimmerer nel suo libro rivela un magnifico intreccio tra il sapere scientifico, l’insegnamento accademico che ha ricevuto come studiosa di botanica da un lato, e la saggezza indigena dei nativi americani che ha ereditato e acquisito nell’incontro con i membri della sua famiglia, mostrando come queste due vie non siano alternative ma possano coesistere e completarsi. La prima ci permette di conoscere le piante e la natura, in una precisa divisione tra classi e generi, e nello studio oggettivo di come funziona la vita delle piante. Ma agli occhi dell’autrice questo sapere riduce le piante a oggetti separati, distinti dalla vita umana, veri e propri oggetti pronti all’uso. Il rischio concreto è di ridurre coerentemente questo approccio allo sfruttamento della vita vegetale. In modo diverso, la saggezza indigena svela l’importanza della relazione degli esseri umani con la natura e le piante al fine di conoscerne la bellezza, una relazione che non si limita a un metodo di conoscenza, ma pervade tutte le nostre modalità di comprensione ‒ nel comprendere, infatti, la nostra conoscenza diventa relazione. La radice ecologica risiede nella capacità di individuare e valorizzare questa relazione, ma vi è qualcosa di più, proprio perché questa relazionalità può collegarsi alla scienza della natura. Come sottolineato da Gregory Cajete, nel libro Look to the Mountain: An Ecology of Indigenous Education (1994), questa prospettiva di conoscenza integrale deve coinvolgere le quattro modalità della nostra esistenza, il cervello, il corpo, le emozioni e lo spirito, e se l’aspetto scientifico privilegia due di queste vie va integrato a una sapienza che metta in risalto la relazione con la natura. In questo orizzonte, Wall Kimmerer colloca la riflessione sulla vita delle piante, alla luce della relazione profonda che la natura instaura tra i diversi corpi. Nella visione indigena, il mondo naturale non è una scala di esseri, nella tirannia del più forte secondo la logica individualista della separazione, ma è una democrazia di specie, quasi come se fosse una circolarità naturale. Al di là della logica dell’economia di mercato, regolata dallo sfruttamento e dalla separazione dei beni, il modello che si sviluppa a partire dalla relazione con il mondo vegetale si fonda sulla cura, sullo scambio e l’incontro, in un abbraccio che segue la logica del dono e della reciprocità: coltivare la natura o raccogliere un frutto non è, quindi, una mera appropriazione, anche se quel frutto poi verrà mangiato dal suo raccoglitore, e non lo è nella misura in cui si stabilisce una rete relazionale profonda e uno scambio mutuale, sostiene Wall Kimmerer. > Nella visione indigena, il mondo naturale non è una scala di esseri, nella > tirannia del più forte secondo la logica individualista della separazione, ma > è una democrazia di specie, quasi come se fosse una circolarità naturale. Se la scienza occidentale ha piuttosto distinto e isolato l’altro, l’autrice mostra un ulteriore intreccio con l’insegnamento delle piante, che svela come funziona l’interrelazione vitale tra i diversi corpi. La coordinazione che, per esempio, si nota tra la fruttificazione e la raccolta di frutti compiuta da alcune specie animali, denota secondo l’autrice una sincronicità che va oltre la mera relazione ambientale, e sembra piuttosto confermare l’attività comune e la capacità di dialogo tra i diversi corpi naturali. Un insegnamento che si acquisisce dalla natura, e che quindi abbiamo sotto gli occhi tutti i giorni, ma che è stato codificato in modo efficace della sapienza tradizionale indigena. Tra gli esempi, vi è quello di un’erborista Navajo che sostiene vi siano legami duraturi tra determinate piante, così rivelando una sorta di simbiosi e di scambio comunicativo in una relazione sostenibile con l’ecosistema. Da ultimo, questo insegnamento trova conferma negli studi sulla simbiosi con i funghi – sono infatti i lavori di Simard ad aver mostrato l’importanza delle reti micorriziche nel costruire una catena di interrelazioni e reciprocità mediante cui le piante comunicano tra di loro e stabiliscono una connessione vitale fondamentale per l’intero ecosistema. Che cosa altro ci dice questo aspetto? Secondo Wall Kimmerer, la vita delle piante indica la possibilità di ripensare la natura non come oggetto da sfruttare, ma come relazione. C’è di più: l’autrice definisce questa relazione come un dono, la cui caratteristica centrale è lo scambio reciproco e l’attenzione e la cura dell’altro (di chi coltiva la pianta, ma anche della pianta stessa verso chi la abita). In tal senso, questa relazione apre implicitamente l’orizzonte a un sistema economico e sociopolitico fondato sullo scambio e sulla cooperazione, e quindi contrapposto a certe, numerose derive dell’economia di mercato e della globalizzazione, come ad esempio le pratiche di sfruttamento delle risorse naturali, che sono alla base della crisi ecologica attuale. In alternativa a queste relazioni negative tra uomo e ambiente, sviluppatesi nella cultura occidentale, Wall Kimmerer riporta una serie di storie della tradizione orale indigena americana, al fine di mostrare le possibilità di una relazione positiva con l’ambiente, che non è utile solo a preservare la natura ma serve, in qualche modo, anche agli esseri umani: la ricerca della felicità, per esempio, trova la propria realizzazione in una relazione sostenibile con l’ecosistema naturale, in una reciprocità ultima che l’autrice ha sperimentato raccogliendo fagioli. A tutt’altra latitudine, un percorso analogo si ritrova nella cultura indiana ed emerge nel lavoro di Sumana Roy, Come sono diventata un albero. Una canzone d’amore (2022). Anche in questo caso, non si tratta di una semplice relazione affettuosa con le piante, ed è ben più che l’abbandono della propria condizione umana e ben più che un rapporto ristretto all’uso delle piante come abbellimento casalingo. Le piante non si rivelano semplicemente come altro rispetto agli esseri umani, ma mostrano un’alternativa che non è privazione. Come in altri casi, Roy combina la frustrazione per la caoticità della vita umana con l’incontro con l’alternativa delle piante, il cui silenzio è il suono della resistenza e dell’economicità, cioè di una ribellione, di un’attività, non di una mera passività. Il mondo vegetale, infatti, non è un mero ricettore, non un mero oggetto, ma un attore nel mondo. > Se è vero che le analogie tra piante e animali, e la metamorfosi del corpo > umano in pianta hanno popolato la cultura occidentale fin dalle origini, > Sumana Roy segue una linea più profonda e radicale, in cui la pianta non è un > essere umano dimezzato, ma rivela una superiorità vitale importante. Come nel caso di Wall Kimmerer, Roy combina l’esperienza personale alla propria tradizione culturale, unendo filosofia, storia letteraria e botanica. Partendo dalla filosofia di Deleuze e Guattari, Roy si immerge nella prospettiva di diventare una pianta, traslando le proprie esperienze e adattandole al mondo vegetale. Così, l’autrice non vede solamente la vita delle piante attraverso le lenti umane, ma mostra il tentativo di trasformare il proprio sguardo e le proprie relazioni accordandole al sistema vegetale. Fuor di metafora, l’autrice intende cambiare tutti gli aspetti della sua vita, adeguandosi a quello che è lo stile delle piante, di cui ricostruisce le caratteristiche nel corso del libro e, in tal senso, intende diventare pianta. Questo percorso si sviluppa dall’elaborazione di un modo nuovo di guardare la natura vivente: se è vero che le analogie tra piante e animali, l’immedesimazione e la metamorfosi del corpo umano in pianta hanno popolato la cultura occidentale fin dalle origini ‒ si pensi all’opera di Orazio o ad Apuleio, alla pena dell’inferno dantesco, o alla dendolatria, la venerazione degli alberi che emerge nella pervasività della metafora arborea, ma anche all’albero della vita (l’albero Tuba del Corano, il Yggdrasil della tradizione normanna, l’albero Mahabodhi, e l’albero della vita di Klimt, per nominare alcuni casi) ‒ Roy segue una linea più profonda e radicale, in cui la pianta non è un essere umano dimezzato, ma rivela una superiorità vitale importante. Diversamente da ogni tentativo di antropomorfizzare la natura, Roy percorre un percorso di ascesa alla condizione vegetale, riconoscendo alle piante le capacità fondamentali di resistenza, parsimonia e armonia con l’ambiente naturale. Per esempio, si suggerisce di abbandonare la temporalità degli orologi per seguire il tempo ciclico e lento dell’albero – definito tree time – immedesimandosi in una dimensione alternativa in cui ripensare i ritmi della vita e rimodellandola secondo un sistema diverso. In questo senso, il libro non mostra solamente una modalità di acquisire serenità muovendosi all’interno di un bosco o su una collina, lontano dal caos cittadino, ma una possibilità di rigenerazione profonda. Roy, infatti, non intende distruggere sé stessa né perdersi nella foresta, ma vuole ridare a sé quella parte vegetale che ha perduto ‒ e che in un qualche modo tutti noi abbiamo perduto ‒ cioè liberare la vita della foresta secondo l’insegnamento della tradizione indiana. Non si intende perdersi nella foresta in un ritorno alle origini, che pure appartiene a una certa tradizione occidentale, ma è un vero e proprio rigenerarsi. Allo stesso tempo, non è solo amore per le piante, per l’albero di fronte a casa o per il fiore sulla tavola, è lo sforzo di andare alla sorgente (o, opportunamente, alla radice) della vita stessa. > Sumana Roy non ricerca una via per trasformare le piante in esseri umani, ma > una via per vegetalizzare l’uomo, un percorso al cui culmine c’è lo > svuotamento di ogni violenza dell’umano e la possibilità di realizzare una > società diversa. Nel corso del libro, i numerosi riferimenti letterari rivelano la ricchezza della sapienza indiana in questo ambito, dai lavori di Rabindranath Tagore, le cui poesie celebrano la relazione tra uomini e piante, così come il percorso a ritroso verso la natura o verso la foresta, al lavoro del botanico Jagaish Chandra Bose, che ha studiato i movimenti automatici e la crescita delle piante, rischiarando le ombre sulla vita segreta delle piante. In Tagore, infatti, la conversione dell’essere umano in pianta rivela una fluidità tra specie, mentre Bose esalta la spontaneità della vita vegetale. La stessa fluidità e spontaneità emerge dalla riflessione di Roy sulle funzioni umane trasposte nella vita vegetale, dall’esperienza sessuale al matrimonio con un albero, attraverso l’immagine del matrimonio nel regno delle piante di Kahlil Gibran o nel poema di A.K. Ramanujan. La complessità del comportamento delle piante rende plausibile l’esistenza di un linguaggio vegetale che non sia antropomorfizzato, e al tempo stesso rivela la possibilità di acquisire le dinamiche vegetali per ordinare certi estremi della vita umana. In tal senso, Roy non ricerca una via per trasformare le piante in esseri umani, ma una via per vegetalizzare l’uomo, un percorso al cui culmine c’è lo svuotamento di ogni violenza dell’umano e la possibilità di realizzare una società diversa, fondata sull’assunto per cui la vita delle piante favorisce e supporta la vita di tutti, fuori da ogni conflitto, in una mutualità e collettività che deve necessariamente farci riconsiderare l’ordine della natura. Questo è l’insegnamento che Roy intende portare a compimento, nel percorso di “trasformazione” in albero. A tutti gli effetti, è la via di Buddha, la cui vita spirituale è inestricabilmente legata alla venerazione dell’albero. Sulla scia di questa lunga e ricca tradizione, il libro è un tentativo di vivere la vita degli alberi: adeguando i propri desideri ai bisogni naturali, vivendo il tempo delle piante, rigettando velocità, eccessi, caos e confusione, indicando una via per cambiare sé stessi e la propria società. In conclusione, le opere di Wall Kimmerer e di Roy, pur nate in contesti culturali distanti, convergono nel riconoscere un valore paradigmatico alla vita delle piante per dare voce e contenuto a un nuovo umanesimo. Non si tratta di un ritorno nostalgico alla natura, alla Rousseau, per intenderci, ma di una rigenerazione, che parte dalla vita vegetale e dalla conoscenza scientifica del comportamento delle piante. Infatti, le scoperte preziose della scienza occidentale, che oggi rivela l’importanza e la complessità della vita e del comportamento vegetale, rischiano di essere confinate agli interessi degli studiosi e possono apparire distanti dalla vita quotidiana. Integrare queste scoperte con la saggezza delle tradizioni non europee ne rivela l’importanza e mostra un modo diverso di vivere la relazione con la natura. Seguendo la reciprocità e mutualità delle piante, non si tratta di perdere la nostra umanità, ma al contrario di portarla a compimento, aprendo a quegli aspetti che caratterizzano la vita vegetale e che permettono di realizzare una società più giusta e sostenibile, adatta alle sfide del futuro. L'articolo Cosa hanno da insegnarci le piante proviene da Il Tascabile.
Scienze
natura
piante
alberi
cultura indigena