H o dimenticato di quale torto pensai di essere stato vittima durante la gita di
maturità. Ricordo solo che durante quella settimana parlai pochissimo e di
controvoglia. Invece che andare a sballarmi con il resto dei miei compagni,
passavo le poche ore libere che i professori ci concedevano ogni giorno
infilandomi nella metropolitana. Senza curarmi della direzione, salivo sul primo
treno di passaggio. Qualche volta, a un’intersezione tra due linee, smontavo dal
treno e prendevo una coincidenza, lasciandomi trasportare da un altro convoglio.
Poi, a un certo punto, senza seguire un principio preciso, sceglievo una fermata
e smontavo. Obbedendo alla segnaletica procedevo verso l’uscita e, una volta
ritornato in superficie, mi dedicavo all’esplorazione del quartiere in cui il
caso aveva deciso di portarmi.
A volte andava male. Il quartiere scelto poteva essere un quartiere dormitorio,
il cui paesaggio era dominato da un’infilata di alveari per umani in un anonimo
stile brutalista. Altre volte, invece, il caso regalava qualcosa. Come quando,
girovagando per un piacevole blocco di condomini in stile liberty, m’imbattei in
un pittoresco negozio che vendeva oggettistica rockabilly; una rarità per chi,
come me, veniva dalla provincia profonda.
Che andassero bene o male, quando l’orologio m’imponeva di tornare sui miei
passi e ritornare sotto terra per rientrare in ostello, quelle esplorazioni mi
lasciavano lo stesso qualcosa sulla pelle. Era una sorta di brivido, come una
scarica elettrica che faceva drizzare i peli delle braccia. L’esaltazione o la
spossatezza del giocatore d’azzardo che, almeno per un istante, aveva
contemplato l’inebriante girotondo di infinte possibilità tutte ancora da
attualizzare.
Solo che la mia slot machine, in quei frangenti, era la metropolitana, un treno
urbano che correva sotto la superficie della città, divorando le distanze senza
che me ne accorgessi. La cosa più simile a cui potevo ricondurre quei viaggi
senza meta era l’esperienza di una partita a Super Mario. I momenti in cui,
ignaro di quel che potrebbe accadere, posizioni la figurina dell’idraulico sopra
uno dei tanti tubi di cui sono costellati i livelli del gioco e pigi il tasto
inferiore della croce direzionale per farla accucciare. Il tubo potrebbe essere
un passaggio che conduce a un’area segreta del mondo di gioco, carica di tesori.
Oppure a una scorciatoia, che può farti avanzare rapidamente verso il livello
finale. Oppure, più spesso, essere bloccato e non portare da nessuna parte. La
metro, che ‒ curiosa coincidenza ‒, si può chiamare anche tube (tubo),
funzionava per me allo stesso modo. O meglio, ero io che la facevo funzionare
così, perché il resto delle persone che condividevano con me quei viaggi
sapevano alla perfezione dove stavano andando, quanto sarebbe durato il loro
tempo sottoterra e, soprattutto, cosa avrebbero trovato una volta riemersi dalla
rete metropolitana.
> La mia slot machine era la metropolitana, un treno urbano che correva sotto la
> superficie della città, divorando le distanze senza che me ne accorgessi.
O almeno così pensavo. Magari, su quei treni, seduto a fianco a me o aggrappato
a uno dei pali di sostegno, c’era qualcun altro che aveva deciso di scendere
nella metropolitana per smontare a una fermata sconosciuta solo per provare il
brivido di scoprire che aspetto aveva la città sopra di lui. Chissà, forse non
ero solo. Non lo so; quello che so è che questi ricordi e le sensazioni a loro
collegate e a lungo sopite nel mio cervello sono state riattivate dalla lettura
di un saggio uscito qualche settimana fa per il marchio MachinaLibro
dell’editore DeriveApprodi. Scritto dal giornalista culturale Luca Gricinella,
Giù in metrò. Società, arti e culture è un libro dedicato a ricostruire il ruolo
che la metropolitana riveste nell’immaginario contemporaneo e le influenze che
essa ha esercitato su ogni forma di espressione.
Dalla fotografia alla musica, dal cinema alla letteratura, fino alle arti
performative, quello della metropolitana nell’immaginario collettivo è un ruolo
caratterizzato da un ampio ventaglio di sfaccettature. Per poterlo raccontare in
modo esaustivo, l’autore ricorre ‒ non potrebbe fare altrimenti ‒, a molte,
diverse forme di scrittura: dall’autobiografia alla saggistica, dall’intervista
al reportage, dalla recensione all’etnografia. A imporre questo stile ibrido è
la natura stessa della metropolitana. Essa è infatti molte cose diverse allo
stesso tempo.
Prima di tutto è un mezzo di trasporto. Un treno che corre sottoterra grazie a
un reticolo di gallerie. È grazie a questa caratteristica che permette a un
vasto numero di persone di spostarsi rapidamente, percorrendo lunghe distanze.
La costruzione dei primi treni metropolitani ha inizio alla fine del
Diciannovesimo secolo. La prima vera linea meritevole di questa definizione è
stata quella di Londra, che ha cominciato a operare il 10 gennaio del 1863. Ad
avanzare la proposta di costruirla pare sia stato l’allora sindaco della
capitale britannica, Charles Pearson, determinato a ridurre il caos
insopportabile delle vie del centro, dovuto in parte anche alla mancanza di un
interscambio diretto tra le stazioni ferroviarie londinesi.
Da allora e fino agli anni cinquanta del Ventesimo secolo, la costruzione di
reti di trasporto ferroviario metropolitano visse un periodo di forte e rapida
espansione. Una crescita che non si limitò solo al numero di città che
adottavano questa soluzione o alla lunghezza complessiva delle loro reti, ma che
fu anche un progresso tecnologico. La metropolitana deriva dalla ferrovia, da
cui mutua buona parte del suo apparato tecnologico. Tuttavia, le particolarità
dello spazio in cui opera hanno fatto sì che questi impianti fossero oggetto di
innovazioni, come il controllo della marcia dei treni e la guida automatica.
> Giù in metrò è un libro dedicato a ricostruire il ruolo che la metropolitana
> riveste nell’immaginario contemporaneo e le influenze che essa ha esercitato
> su ogni forma di espressione.
Oggi, i diversi tipi di tecnologia impiegati distinguono i sistemi di
metropolitana, dando origine a molteplici categorie. Le metropolitane si
distinguono così in base al loro tipo di guida, con o senza conducente; al tipo
di rotaia usata, metallica o gommata; al tipo di sede, che può essere
sotterranea, sopraelevata o di superficie; in base al genere di servizio, dunque
pesante o leggero. Potrebbe sembrare una nota di poco conto, ma una parte
dell’identità di ogni metropolitana nasce proprio dalle molte combinazioni
possibili di queste tecnologie.
Ruote e rotaie di quella di New York, racconta Gricinella nel capitolo a essa
dedicato, continuano a essere entrambe di metallo, dando così origine al forte
stridio che ne è diventato ormai un simbolo. Mentre i convogli automatizzati
della linea lilla (M5) della metropolitana di Milano ‒ che attraversa la città
da nord a nord ovest collegando lo stadio di San Siro con il capolinea di
Bignami Parco Nord ‒ la rendono la linea più amata dai bambini. Seduto su uno
dei seggiolini, l’autore li osserva con tenerezza correre verso l’ampia vetrata
rivolta nel senso di marcia per potersi godere l’emozione di veder comparire la
luce al fondo dell’oscurità del tunnel, mano a mano che il treno si avvicina a
una stazione.
Ma la metropolitana non è solo un mezzo di trasporto tecnologico, è anche uno
spazio. Uno spazio molto particolare; un non luogo, per dirla con il concetto
coniato dall’antropologo francese Marc Augé, che alla metropolitana ha dedicato
Un etnologo nel metrò (1992), uno dei suoi testi più celebri. A renderla tale è
la sua posizione sotterranea. Alla metropolitana si accede infatti attraverso un
complesso sistema di soglie composto da scale, portali, tornelli, ascensori,
rampe e diversi altri tipi di forme architettoniche. Attraversando i quali non
ci si lascia solo alle spalle il mondo di superficie, si perdono tutti i
riferimenti e le coordinate spaziali che rendono possibile orientarsi nello
spazio.
L’esperienza di un viaggio in metropolitana è un’esperienza straniante, durante
la quale ci vengono sottratti i riferimenti cardinali a cui siamo abituati ad
affidarci quando attraversiamo gli spazi di superficie. A meno di non possedere
un’approfondita e inusuale conoscenza della rete e delle corrispondenze che essa
ha con i punti di riferimento che scorrono sopra le nostre teste, è impossibile
stabilire in quale direzione ci si stia muovendo quando si procede all’interno
dei suoi tunnel.
> Un viaggio in metropolitana è un’esperienza straniante, durante la quale ci
> vengono sottratti i riferimenti cardinali a cui siamo abituati ad affidarci
> quando attraversiamo gli spazi di superficie.
Un compito per cui non troviamo aiuto nemmeno nelle mappe che rappresentano le
diverse linee della metropolitana di una città. Se il modo in cui vengono
rappresentate ricorda più uno schema elettrico che una carta geografica è
proprio perché disegnare circuiti elettrici era il mestiere di Harry Charles
Beck, la persona che ha inventato questo sistema di rappresentazione allo scopo
di tracciare la mappa della metropolitana di Londra nel 1933. Ma prendendoci il
tempo per guardarla con più attenzione e provando a smettere di attraversarne
gli spazi frenetici come elettroni, e Gricinella ci sollecita a farlo con il suo
libro, ci accorgiamo che la natura di non luogo ‒ anche Augé lo era nella sua
definizione ‒ è molto meno netta e stabile di quanto possiamo pensare.
L’antropologo francese specificava infatti che “ciò che per alcuni è un luogo,
per altri può essere un non luogo e viceversa”.
Scopriamo così che nella stazione di piazza Venezia della metropolitana di
Milano ‒ che, è la città in cui l’autore del libro è nato e vive ‒ esiste un
grande spazio vuoto, un mezzanino appartato ma non inaccessibile, di cui si sono
appropriate persone delle comunità sudamericane o asiatiche che lo utilizzano
come sala prove per le loro coreografie collettive, in quello che Gricinella
definisce “un esempio di spazio pubblico completamente in disuso che è stato ben
sfruttato”.
Oppure veniamo a sapere delle scorribande dei writer, che studiano le reti alla
ricerca di varchi o passaggi incustoditi da cui calarsi all’interno dei tunnel
della metropolitana per raggiungere i depositi dei treni e marchiarli con tag e
graffiti. O, ancora, dalle parole di Gricinella impariamo come le carrozze dei
treni metropolitani possano diventare il palcoscenico per un ampio ventaglio di
artisti di strada: dai senzatetto che si improvvisano intrattenitori fino agli
artisti affermati che usano la metropolitana come ispirazione per i propri
lavori.
> Guardando la metro con più attenzione, e provando a smettere di attraversarne
> gli spazi frenetici come elettroni, ci accorgiamo che la natura di non luogo è
> molto meno netta e stabile di quanto possiamo pensare.
È il caso di Sara Pizzi, performance artist italiana che vive e lavora a New
York, città dalla cui metropolitana si è fatta ispirare per lo spettacolo L
Train, realizzato insieme ad Aida Takashima. Ispirato all’omonima linea della
metro newyorkese, L Train, una coreografia di danza contemporanea, ha debuttato
il 21 e 22 gennaio del 2022 al Green Space Theatre nel Queens e, oltre alla
musica, conteneva annunci registrati della linea L e una narrazione recitata. Al
centro di questo lavoro c’è il desiderio di parlare “di come la vita sia
instabile, di come tutto cambi regolarmente senza che ce ne rendiamo conto, di
quante persone abbiamo lasciato nella nostra vita, di quante persone
dimentichiamo, di quanto siano imprevedibili le relazioni e di quanto sia facile
sentirsi sostituibili. Tutte queste domande portano alla conclusione che la vita
sembra come la linea del treno L: tutti vanno nella stessa direzione ma nessuno
ha la stessa destinazione.”
La linea L della metropolitana di New York collega Manhattan a Brooklyn con
ventisette fermate. È stata la prima linea automatizzata della città ed essendo
così lunga serve un considerevole numero di persone diverse, che si alternano
sui suoi convoglia a seconda del momento della giornata. “Dalle sei alle otto”
dice Pizzi, intervistata nel libro,
> studenti, insegnanti, altri lavoratori. Dalle nove del mattino fino alle tre
> del pomeriggio, tutti gli altri lavoratori con orari normali, senzatetto,
> artisti, turisti. Dalle quattro fino alle sette del pomeriggio è il delirio:
> fiumi di persone che tornano a casa dal lavoro e qui devi sgomitare tra
> skateboard, animali, buste della spesa e borse per entrare nella carrozza e
> sentirsi come una sardina in lattina. Dalle otto di sera in poi, invece, c’è
> la gente che torna tardi o va a lavoro, a cena, a un evento, e te la ritrovi a
> mezzanotte sullo stesso treno per tornare a casa ubriaca. Dalle due alle
> quattro del mattino, infine, è quell’orario magico in cui non sai se stai
> sognando o sei sveglio: tra carrozze vuote, o solo con senzatetto
> addormentati, lavoratori della metropolitana o giovani adulti ubriachi,
> l’unica cosa che si può temere è di addormentarsi e ritrovarsi all’altro capo
> della città.
Per quanto emblematica, quella testimoniata da Pizzi è solo una delle tante
storie che Luca Gricinella raccoglie per raccontare cosa sia davvero la
metropolitana e il legame che abbiamo con essa. Non soltanto un ambiente urbano,
né un comodo per quanto affollato mezzo di trasporto. Vista attraverso la penna
dello scrittore milanese, la metropolitana ‒ o metro, oppure metrò, alla
francese ‒ si rivela per quello che è in realtà: un complesso oggetto culturale
che, in virtù del fascino che le sue caratteristiche esercitano su di noi,
occupa un posto di rilievo nel nostro immaginario e continua a rappresentare un
luogo in cui storie personali, dinamiche di comunità, pratiche artistiche
spontanee e marketing corporativo continuano a incontrarsi e influenzarsi le une
con le altre, in quell’incessante lavorio creativo ed espressivo che siamo
abituati a chiamare “cultura”.
L'articolo Giù in metrò di Luca Gricinella proviene da Il Tascabile.
Tag - tecnologia
M illenovecentonovantadue. “Lo stile di vita americano non è negoziabile”
afferma perentorio George W.H. Bush al Summit della Terra, dando così inizio
anticipato al ventunesimo secolo. Mike Judge ha trent’anni e ha appena venduto
Frog Baseball, il suo primo cortometraggio animato, a MTV. Quell’american way of
life sbandierata da Bush lo ossessionerà per tutta la sua carriera di animatore,
sceneggiatore e regista, fino a diventare il centro gravitazionale di tutto il
suo universo comico, in equilibrio precario tra sarcasmo e barbarie. Nei due
minuti e cinquantotto secondi di Frog Baseball esordiscono i suoi personaggi più
celebri, Beavis e Butt-Head, due giovani metallari perdigiorno che seviziano
degli animali in modi molto creativi alternando le violenze ai riff, cantati a
cappella, di Iron Man dei Black Sabbath e Smoke on the water dei Deep Purple.
Con l’arrivo del corto su MTV, Mike Judge entra di fatto nel rooster della
mitologica Liquid Television, un carosello di short animati a cui devono la
propria fama diversi altri capolavori dell’animazione come Æon Flux o Brad
Dharma, Psychedelic Detective.
Nato a Guayaquil in Ecuador, nel 1962, da madre bibliotecaria e padre
archeologo, a tre anni Mike si trasferisce con la famiglia in una fattoria ad
Albuquerque, nel New Mexico. Finito il liceo si sposta a San Diego dove ottiene
una laurea in fisica alla University California San Diego nel 1985. L’anno
successivo inizia a lavorare a Santa Monica, nella ruggente Silicon Valley, in
un’azienda che produce schede video per computer, tre mesi dopo si licenzia. Per
diversi anni suona come bassista in oscure blues band texane mentre segue un
corso di specializzazione superiore in matematica all’università del Texas. È in
questo periodo che comincia a cimentarsi con l’animazione. Crea il suo primo
corto: Office Space, in cui appare come protagonista Milton, un impiegato
frustrato che, tra un’angheria e l’altra del capo, balbetta tra sé di voler dar
fuoco all’azienda; ai tempi doveva probabilmente apparire come una versione punk
e apocalittica di Dilbert, la celebre striscia feriale di Scott Adams. Riesce a
presentare il corto in un festival di animazione a Dallas e Comedy Central lo
acquista. Nel giro di qualche anno Office Space, rinominato Milton come il suo
protagonista, diventerà un siparietto fisso nel Saturday Night Live.
Nel frattempo Judge lavora per espandere le avventure dei due protagonisti
apparsi in Frog Baseball, dando vita all’omonima serie, Beavis and Butt-Head,
che dal 1993 va in onda su MTV, divenendo la risposta hardcore punk del network
al recente successo dei Simpson di Matt Groening. Nel giro di qualche puntata si
conferma una delle serie animate per adulti di maggior successo negli Stati
Uniti, archetipo, insieme all’opera di Groening di una nuova forma di animazione
per adulti, che verrà sviluppata da South Park (1997) e dai Griffin (1999).
> La serie di animazione Beavis and Butt-Head di Mike Judge, che dal 1993 va in
> onda su MTV, diviene la risposta hardcore punk del network al recente successo
> dei Simpson di Matt Groening.
Nel 1996 Judge si confronta con il cinema, scrive e dirige il film d’animazione
Beavis and Butt-Head do America in cui partecipano anche star umane come Bruce
Willis e Demi Moore. Sessantatré milioni di dollari al box office. L’anno
successivo ritorna in TV con una nuova serie, King of the Hill, scritta insieme
a Greg Daniels (The Simpson, The Office, Park and Recreation), che continuerà ad
andare in onda su FOX per una decina di anni.
Mentre il successo gli sorride, Judge decide di abbandonare per la prima volta
l’animazione e confrontarsi con un film live action, il remake di un’opera di
animazione realizzato con attori reali. Scrive così la sceneggiatura per un
lungometraggio ispirato alla sua serie di corti ambientati in ufficio.
Riproposto con il suo nome originale, Office Space esce nei cinema nel 1999 ed è
un fiasco, rientra appena delle spese di produzione (dieci milioni contro i
dodici guadagnati). Il film è l’occasione per riproporre molte delle gag della
serie animata originale calandole in una inedita cornice politica, quasi
sindacale.
Peter Gibbons, il protagonista e collega di Milton, è anche lui un impiegato
frustrato della Initech, una software house texana. Insofferente al suo monotono
lavoro d’ufficio e costantemente sopraffatto dai rimproveri passivo-aggressivi
dei suoi otto capi, Peter viene convinto dalla sua ragazza a intraprendere delle
sedute di psicoterapia. Seduto sulla poltrona confessa allo psichiatra che da
quando ha iniziato a lavorare “ogni singolo giorno della mia vita è stato
peggiore di quello precedente; questo significa che ogni singolo giorno che ci
incontriamo qui, quello è il giorno peggiore della mia vita”. Il dottore,
impressionato dalla sua tristezza, gli propone un percorso di ipnosi, ma durante
una delle sedute, mentre cade in trance con la proposizione di “ignorare tutte
le sue preoccupazioni riguardo il suo lavoro, fino a quando non schioccherò
nuovamente le dita”, lo psichiatra muore per un attacco cardiaco. Peter, ancora
incosciente, torna a casa e si risveglia il mattino successivo in uno stato di
inedito benessere. Niente è cambiato tranne che, nonostante non si sia
presentato a lavoro, gli infiniti messaggi del capo nella segreteria telefonica
non lo turbano più.
Comincia così a ignorare completamente le preoccupazioni per il lavoro e la sua
vita si riempie nuovamente di senso: chiude la sua vecchia relazione in costante
crisi e chiede di uscire alla ragazza che ammirava da tempo. Ottiene addirittura
una promozione al lavoro quando impressiona una coppia di headhunter, chiamati a
efficientare l’azienda, confessando di “lavorare appena quindici minuti ogni
giorno e il resto del tempo fissare la sua scrivania” e che proprio alla
struttura dell’azienda si deve la sua totale assenza di motivazione sul lavoro:
“Ho otto capi. Questo significa che quando faccio un errore ci sono otto diverse
persone che vengono a farmelo notare. Questa è la mia sola motivazione: evitare
di essere scocciato”. Gibbons è insomma un impiegato in quiet quitting che,
attraverso una forma artificiale di rimozione della responsabilizzazione
introiettata sul lavoro, ritrova la libertà di affermare sé stesso in un mondo
nel quale non era che un ingranaggio anonimo.
È questo il primo distillato del cinema di Mike Judge che tornerà in ognuno dei
suoi film: prendere l’impalcatura della rom-com per sviluppare al suo interno un
tema politico. Nonostante i risultati altalenanti, l’intuizione è efficace e
permette al film di sviluppare una profonda riflessione sui i lati più
disumanizzanti dello sfruttamento lavorativo.
La svolta decisiva nel film avviene quando Gibbons e due suoi colleghi che
stanno per essere licenziati, decidono di truffare l’azienda con un virus
informatico che devia microtransazioni sul loro conto bancario, “come succede in
Superman 3, un film davvero sottovalutato”. Dopo varie peripezie e sul punto di
venire scoperti, Peter decide di restituire il denaro con un assegno e lascia
nell’ufficio del capo una lettera in cui confessa la truffa. Proprio quel
giorno, dopo l’ennesima angheria, Milton decide finalmente di dare fuoco
all’azienda, che brucerà insieme alle prove del misfatto.
> In Office Space è presente un aspetto del cinema di Mike Judge che tornerà in
> ognuno dei suoi film: prendere l’impalcatura della rom-com per sviluppare al
> suo interno un tema politico.
Sono i classici temi dell’alienazione e della reificazione, ampiamente esposti
da Karl Marx nelle sue teorizzazioni sulla struttura del lavoro nella società
capitalista quelli su cui si concentra la trama del film. L’alienazione è lo
stato in cui si trova l’uomo quando non riconosce più nel lavoro (nella sua
organizzazione, nei suoi strumenti, nei suoi prodotti) una parte di sé, una sua
creazione, ma gli appare come qualcosa che sfuggendo alla sua volontà si pone
contro di lui, un ostacolo alla spontanea ricerca di felicità e realizzazione. È
un conflitto che ricorda quello tra il dottor Frankenstein e la sua creatura, se
soltanto il primo soffrisse di un’amnesia che non gli permettesse più di
riconoscerla come un frutto del suo ingegno. La reificazione, in breve, è la
naturalizzazione di questo stato: l’uomo crede di riconoscere nello stato
transitorio imposto dalle logiche dello sfruttamento una legge di natura.
Continuando la lettura marxista, il film incappa proprio in quella che era la
maggiore forma di ribellione operaia con cui il giovane Marx si era duramente
confrontato: il luddismo. In una delle scene finali del film infatti vediamo
Peter abbandonare l’ufficio per l’ultima volta, insieme ai suoi due complici,
Michael e Samir, e portare con sé una delle fotocopiatrici. La macchina sarà la
protagonista di una lunga scena di “pestaggio luddista” con tanto di
slow-motion, mazze da baseball e gangsta rap in sottofondo.
Mentre in Office Space i temi dell’alienazione e della reificazione restano
confinati al mondo dell’ufficio, di cui esiste ancora un fuori, un mondo esterno
fatto di amicizie, bevute e barbecue in cui si può evadere, nella sua opera
successiva Mike Judge porterà queste minacce alle estreme conseguenze fino a
coinvolgere l’intera società e infiltrarsi profondamente nelle facoltà cognitive
dell’umanità intera.
Nel 2006, con il suo terzo film, Idiocracy, Judge si confronta per la prima
volta con la fantascienza. Il film si apre con un’epica voce fuoricampo che,
mentre assistiamo all’avvicinarsi sullo schermo del globo terrestre fluttuante
nello spazio, ci introduce alla premessa distopica:
> L’evoluzione umana era giunta a una svolta. La selezione naturale, il processo
> per cui il più forte, più intelligente, più veloce, si riproduce in maniera
> maggiore rispetto agli altri, il processo che un tempo aveva favorito gli
> aspetti più nobili dell’uomo adesso favoriva caratteristiche diverse. La
> maggior parte della fantascienza dell’epoca aveva predetto un futuro più
> civilizzato e più intelligente, ma più il tempo passava, più le cose
> sembravano andare nella direzione opposta: un istupidimento generale. Com’era
> potuto succedere? L’evoluzione non premia necessariamente l’intelligenza.
> Senza predatori naturali ad assottigliare il branco iniziò a premiare coloro
> che si riproducevano di più e lasciò che gli intelligenti diventassero una
> specie in via d’estinzione.
Non è, evidentemente, la più raffinata delle ipotesi di biologia speculativa, ma
c’è anche di peggio: il problema, in cui incappa Mike Judge al minuto uno del
film, implicito nella sua stessa premessa (darwinismo sociale), e ben più
problematico, è l’eugenetica.
Incomincia così la memorabile sequenza (un case study, ci suggerisce la scritta
in sovraimpressione) in cui vediamo due coppie confrontarsi con la propria
intenzione di procreare in un frenetico montaggio alternato: per Trevor e Carol,
dall’alto quoziente intellettivo, “avere figli è un’importante decisione”,
“aspettiamo il momento giusto” (all’unisono, guardandosi negli occhi) “non
vogliamo farlo senza riflettere”; Trish invece entra in cucina mentre Clevon sta
bevendo una birra e gli urla: “oh merda sono di nuovo incinta”; apprendiamo
dall’albero genealogico in sovraimpressione che questo è il loro quinto figlio.
Le scene continuano a susseguirsi in un’escalation grottesca che avanza di
quinquennio in quinquennio: Trevor e Carol constatano sereni che “non possiamo
permetterci un figlio adesso, non con l’attuale congiuntura finanziaria”; nel
frattempo Clevon ha avuto due figli anche con la vicina di casa Britney e uno da
Mckenzie che lo sta inseguendo con un bastone; Trevor e Carol, finalmente decisi
al grande passo, non riescono a ottenere una gravidanza e battibeccano sul
possibile ricorso all’inseminazione artificiale; intanto Clevon Jr., quarterback
della squadra locale e primogenito di Clevon, nonostante si sia impalato con i
genitali su un cancello in seguito a un incidente con una moto d’acqua, grazie
ai progressi scientifici nel campo delle cellule staminali è riuscito comunque
ad avere diversi figli con le cheerleaders del suo liceo; purtroppo Trevor è
morto per un infarto mentre si masturbava per ottenere lo sperma per
l’inseminazione artificiale, Carol incrociando le dita dice di aver congelato i
suoi ultimi ovuli, “per quando arriverà l’uomo giusto”; l’albero genealogico di
Clevon nel frattempo si espande fino a straripare dallo schermo; “andò avanti
così per generazioni” annuncia, piena di pathos, la voce fuori campo.
> In Idiocracy i due partecipanti a un esperimento segreto di ibernazione si
> ritrovano nel 2505 in un mondo dove regna la più totale stupidità. Ma quello
> in cui vediamo risvegliarsi i due protagonisti non è poi così dissimile dal
> nostro 2025.
Esposto il presupposto teorico dell’intreccio narrativo, il film si sviluppa
come una scanzonata commedia fantascientifica in cui seguiamo le avventure di
Joe Bauers, bibliotecario dell’esercito, e Rita, una prostituta, scelti per i
loro parametri cognitivi “perfettamente nella media”, per partecipare a un
esperimento segreto di ibernazione della durata di un anno. Qualcosa ovviamente
va storto e i due si ritrovano nel 2505 in un mondo dove regna la più totale
stupidità. Ma quello in cui vediamo risvegliarsi i due protagonisti non è poi
così dissimile dal nostro 2025 (di cui è pure una sorta di anagramma numerico).
Prendiamo il primo incontro di Joe, che piomba per sbaglio nella casa di Frito
Pendejo, quello che più avanti nel film diventerà il suo avvocato. Lo trova
seduto, su una poltrona con gabinetto integrato, mentre guarda un grande schermo
contornato di pubblicità su cui va in onda Ow! My balls!, una serie
interminabile di video in cui il protagonista incappa in vari incidenti che
hanno a che fare con i suoi genitali. Una situazione familiare che non può non
ricordarci quella di una seduta mattutina al bagno mentre ci frastorniamo con
centinaia di clip su TikTok.
Joe e Frito, durante tutta la parte centrale del film, ci accompagnano in varie
peripezie, permettendoci di scoprire come funziona la società del futuro: mentre
le insegne delle attività commerciali hanno adottato nomi sempre più volgari
(bambini festeggiano il compleanno dalla famosa catena di fastfood Buttfuckers),
i vari indumenti che le persone indossano non sono che patchwork pubblicitari di
una moltitudine di brand e Joe, nonostante parli il suo inglese medio, ha grandi
difficoltà a comunicare con chiunque: ogni volta scatena una reazione violenta
in chi lo ascolta perché, come ci avverte la solita voce fuori campo, la sua
lingua rispetto a quella corrente suona davvero “pompous and faggy”. Ancora:
negli ospedali si accumulano le slot machine, il film di maggior successo
dell’anno si chiama Ass ed “è esattamente quello, per novanta minuti” (un culo
su uno schermo). Joe finirà persino per incontrare il presidente degli Stati
Uniti Dwayne Elizondo Mountain Dew Herbert Camacho, un ex wrestler che ha
trasformato la Casa bianca in una corrida di macchiette untuose da talent show.
Una classe politica non dissimile da quella che è possibile ammirare oggi nel
secondo governo Trump.
Ogni azione (ricordiamolo: siamo nel futuro) è tecnologicamente determinata,
dalle diagnosi negli ospedali, alla videosorveglianza onnipervasiva, dalla
gestione carceraria fino alla identità stessa dell’individuo, esposta
costantemente al controllo delle forze dell’ordine tramite un codice a barre
tatuato sul polso. Tutto così assurdo eppure stranamente familiare, come nella
migliore fantascienza. Con una forzatura ermeneutica possiamo provare a
ipotizzare, con il senno di poi, che un così plateale declino cognitivo, invece
che da una selezione genetica, potrebbe essere stato causato proprio dall’uso di
quelle tecnologie compiacenti che, in Idiocracy, vediamo radicate profondamente
nella vita quotidiana della società.
Tanto nella fantascienza di Judge, quanto nel nostro presente, viviamo in una
società ipertecnologica che, deresponsabilizzando l’individuo in ogni sua
mansione pratica e lo porta a un inaridimento cognitivo dovuto all’oblio del
processo stesso, demandato ormai da tempo, soltanto alla macchina. È la
situazione che André Gorz, filosofo francese, in L’immateriale (2003),
interrogandosi se l’umanità sia ancora soggetto o oggetto della propria
evoluzione tecnologica, rintraccia nelle nuove forme di capitalismo cognitivo:
> gli apparati megatecnologici, ritenuti dominare la natura e sottometterla al
> potere degli uomini, assoggettano gli uomini agli strumenti di quel potere. Il
> soggetto sono loro: questa megamacchina tecnoscientifica che ha abolito la
> natura per dominarla e che costringe l’umanità a mettersi al servizio di
> questo dominio. Lo sviluppo delle conoscenze tecnoscientifiche cristallizzate
> nel macchinario del capitale, non ha generato una società dell’intelligenza ma
> una società dell’ignoranza. La grande maggioranza conosce sempre più cose, ma
> ne sa e ne comprende sempre meno.
In Idiocracy le piante vengono annaffiate da anni con una bevanda energetica
chiamata Brawndo – The thirst mutilator. Lo scopriamo quasi alla fine del film,
quando realizziamo che tutto il mondo è preda di una carestia di cui non si
conoscono le cause. Nel frattempo Joe aveva aperto un lavandino e visto uscire
la bevanda verde fluorescente invece dell’acqua, una tra le tante stranezze.
Tutto il mondo in realtà ha sostituito da tempo e ovunque l’acqua col Brawndo;
quando Joe chiede dell’acqua gli viene risposto ridendo “quale? quella del
cesso?”; quando chiede il perché di questa sostituzione gli viene risposto
“perché Brawndo ha gli elettroliti!”, ma nessuno, Joe compreso, sa cosa siano
questi elettroliti.
> Tanto nella fantascienza di Judge, quanto nel nostro presente, viviamo in una
> società ipertecnologica che, deresponsabilizzando l’individuo in ogni sua
> mansione pratica e lo porta a un inaridimento cognitivo dovuto all’oblio del
> processo stesso, demandato ormai da tempo, soltanto alla macchina.
Torna, come in Office Space, il tema dell’alienazione e della reificazione, ma
in Idiocracy la sua pervasività è completa, l’ottusità tecnocratica della
software house ha infiltrato l’intera società e come l’ufficio era destinato a
bruciare alla fine del film precedente, qui il mondo, reso sterile dall’eccesso
di sali minerali contenuti nella Brawndo sembra destinato a inaridirsi e
collassare.
L’apocalisse appare imminente perché anche il bene primario alla base della vita
terrestre, l’acqua, ha subito un processo di completa risignificazione
mercantile, è mancante di una qualche proprietà fondamentale (i decantati
elettroliti) e, in quanto gratuita e disponibile, non può avere valore, o se lo
ha deve essere regolamentata. È proprio questo il modo in cui Gorz illustra il
rapporto fagocitante tra capitalismo e natura: “l’abolizione della natura ha
come motore non il progetto demiurgico della scienza, ma il progetto del
capitale di sostituire alle ricchezze prime, che la natura offre gratuitamente e
che sono accessibili a tutti, delle ricchezze artificiali e mercantili:
trasformare il mondo in merci di cui il capitale monopolizza la produzione,
ponendosi in tal modo come padrone dell’umanità”.
Quando Joe viene infine riconosciuto come l’uomo più intelligente del mondo e
assoldato dal presidente Camacho come ministro degli Interni per risolvere il
problema della siccità, propone banalmente di sostituire della semplice acqua
alla bevanda energetica usata nell’irrigazione dei campi ormai infertili. Prima
che, tra lo sgomento di tutti, la soluzione si riveli efficace, il presidente
viene contattato dal CEO della Brawndo Corporation in preda al panico, le azioni
stanno crollando e il computer ha eseguito autonomamente i licenziamenti
necessari a riassestare la società, metà della popolazione del Paese si ritrova
disoccupata e inferocita invade la Casa bianca: vogliono la testa di Joe. La
messa in scena del film è decisamente più sobria rispetto all’attacco a Capitol
Hill del 2021.
Lo scambio reciproco di soggetto e oggetto che Gorz vede nel rapporto odierno
tra esseri umani e tecnologia digitale non determina soltanto un inedito
slittamento di potere ma anche un capovolgimento delle influenze ideologiche
attive in questo campo di forze. Quella che Marcuse definiva la razionalità
tecnologica, l’ideologia della classe dominante di cui è imbevuto ogni prodotto
tecnologico da questa progettato, in una società in cui la tecnologia è ormai
soggetto autonomo dell’esistente, da strumento del potere diventa essa stessa
creatrice di una propria ideologia autonoma che l’uomo subisce passivamente.
L’umanità aspira infine a quell’assenza di pensiero (istupidimento), a
quell’automatismo freddo (deresponsabilizzazione) che è una caratteristica
intrinseca della macchina.
Non stiamo già decantando tutti da anni le virtù sorprendenti dell’Intelligenza
artificiale? Sentendoci in pericolo, dipendenti, aspirando infine alla sua
velocità e abilità tecnica? Quanto abbiamo dovuto sminuire la vita umana in sé
per paragonarci a efficienti dispositivi digitali e quanto della visione attuale
dell’uomo come semplice macchina pensante è implicita in questo schema di
pensiero? Continua Gorz: “l’uomo è ‘obsoleto’, bisogna dotarlo di protesi
chimiche per ‘tranquillizzare’ il suo sistema nervoso stressato dalle
aggressioni che subisce e di protesi elettroniche per aumentare le capacità del
suo cervello”.
Come si esce da tutto ciò? Un testo recente, Hacking del sé (2024), l’ultimo
contributo del lavoro ormai decennale del collettivo Ippolita, un centro di
ricerca indipendente che si occupa di filosofia dell’informatica e
tecnopolitica, può essere una guida utile. Il libro, raccogliendo una
miscellanea di interventi del collettivo (prefazioni, postfazione, articoli e
cut-up) pubblicati in varie sedi, si interroga proprio su “l’impatto che le
tecnologia commerciali hanno sui loro utenti e come influiscano sulla
costituzione della loro soggettività, sulla loro formazione e sul loro vivere
comune”.
> Secondo il collettivo Ippolita è in atto una sempre maggiore “delega reiterata
> dei desideri e delle capacità cognitive a procedure algoritmiche. Ma se le
> tecnologie non sono neutre, bensì incarnano e configurano mondi, la delega
> tecnica si rivela per quello che è: delega sociale e politica”.
Analizzando la delega tecnologica che mette in atto l’umanità nei confronti
delle tecnologie digitali, Ippolita scandaglia le conseguenze di quel processo
per cui “milioni di utenti si servono di app e servizi per il monitoraggio e la
gestione di aspetti sempre più numerosi della vita quotidiana”; è in atto una
sempre maggiore “delega reiterata dei desideri e delle capacità cognitive a
procedure algoritmiche. Ma se le tecnologie non sono neutre, bensì incarnano e
configurano mondi, la delega tecnica si rivela per quello che è: delega sociale
e politica”.
L’obiettivo delle grandi corporation tecnologiche, si spiega nel testo, è
proprio quello “di rendere comune e abituale un numero crescente di azioni e
relazioni cui viene riconosciuto valore in quanto profittevole, secondo l’etica
del consumo incarnata appunto dall’utente, che è paradossalmente al servizio del
fornitore del servizio”. È lo stesso ribaltamento di prospettiva di cui parla
Gorz riguardo il progresso tecnologico. È lo stesso procedimento che, fuori
dall’ambito tecnologico, è attuato dalla Brawndo Corporation nel film, che è
riuscita a sostituire l’acqua con la sua bevanda energetica.
Per Ippolita la soluzione non passa per un intervento correttivo sociale (che
oggi nessuno, nemmeno gli Stati, se volessero, avrebbero la forza di effettuare)
ma da una disciplina del soggetto, una routine che coinvolga tanto il nostro
corpo quanto la nostra mente. Il concetto è espresso fin dal titolo del volume:
> per hacking del sé, ispirandoci ai lavori dell’ultimo Foucault, intendiamo un
> esercizio di cura del sé che inizia con il comprendere quale tipo di norma le
> megamacchine sono capaci di farci assumere, per capire come disinnescarla
> prima che la sua forza ci renda conformi e oppressi. Avere riguardo per il
> proprio corpo digitale, proteggerlo perché si emancipi dall’informatica
> commerciale, riconoscere l’importanza che ha nella nostra vita, significa fare
> un passo di consapevolezza tecnica e nel contempo di responsabilità etica
> verso noi stessi e verso la comunità. Per questo secondo noi il campo della
> battaglia si gioca sulla cura di sé, tra addestramento e consapevolezza, ed è
> qui che si aprono margini possibili di emancipazione e coscientizzazione.
Il lavoro che bisognerà fare – qui e ora – è esposto nel libro in maniera piana
e pragmatica, sono semplici propositi che provano a illuminare una via
possibile, di cui non conosciamo gli ostacoli futuri ma di cui possiamo già
intuire chiaramente la direzione: “comprendere che tipo di riconfigurazione sta
avvenendo e agire una decodifica delle norme che tentano di scriverci addosso: è
questo l’esercizio e l’abito che stiamo ricercando. Osservare e osservarsi,
andare domandando, sperimentare e verificare nuove individuazioni psichiche e
collettive”.
L'articolo Idiocracy now proviene da Il Tascabile.
N el 1956 il sociologo russo-americano Pitirim Sorokin coniava il termine
quantofrenia per denunciare un fenomeno che, a suo dire, rischiava di svuotare
le scienze sociali di ogni profondità: l’ossessione per la misurazione numerica
della realtà. In un momento storico segnato dalla volontà di rendere
scientificamente affidabili le scienze umane, la quantità sembrava l’unica
strada per la legittimazione. Eppure, Sorokin vedeva in questa tendenza un
pericolo: ridurre la complessità dell’esperienza umana a semplici dati
significava sacrificare la qualità alla contabilità, la comprensione profonda
alla superficie della cifra.
Quella che Sorokin descriveva come una deriva potenziale è oggi diventata
sistema. Viviamo immersi in un ambiente culturale che ha fatto della
datificazione la sua ideologia dominante. Ogni gesto, emozione, desiderio e
pensiero può (e deve) essere tracciato, misurato, confrontato. L’essere umano
contemporaneo si muove in un ecosistema fatto di tracker, dashboard, KPI (Key
Performance Indicator), insight, analytics, convinto che ogni aspetto della sua
esistenza sia più vero quanto più numericamente rappresentabile.
Questo non vale solo per le aziende o le istituzioni, ma per la vita quotidiana.
Il nostro sonno, il battito cardiaco, la produttività, le emozioni: tutto viene
tradotto in dati. Il filosofo sudcoreano-tedesco Byung-Chul Han in La società
della trasparenza (2014) ha scritto che “oggi tutto dev’essere trasparente,
tutto deve essere visibile, misurabile”. Ma la trasparenza, apparentemente virtù
democratica, si rivela così una forma subdola di controllo: l’efficienza che
diventa valore morale. Sempre secondo Byung-Chul Han, “la società della
trasparenza è una società della sorveglianza che si maschera da libertà”. Se in
teoria sapere tutto di sé dovrebbe renderci più liberi e consapevoli, in pratica
ci consegna a un’autosorveglianza continua. La quantità crescente di dati a
nostra disposizione non ci rende affatto più lucidi: ci sovraccarica. L’accesso
all’informazione è individuale, ma l’elaborazione è lasciata al singolo, senza
strumenti, senza tempo, senza tregua. Non è tanto una questione di opacità, ma
di asfissia cognitiva.
David Brooks, editorialista del New York Times, in L’animale sociale. Alle
origini dell’amore, della personalità e del successo (2012) esplora le radici
emotive e inconsce del comportamento umano, contestando l’idea che siamo guidati
da scelte razionali e misurabili: “La mente inconscia si occupa di gran parte
del lavoro della vita. È come un presidente che prende decisioni ma che non ha
idea di come le sue politiche vengano attuate”. L’ossessione per i dati,
confrontandosi solo con la razionalità misurabile, ignora la complessità delle
motivazioni umane. Brooks mostra come la vera formazione del carattere, della
moralità, della felicità non sia misurabile: “Ciò che rende la vita
significativa sono le relazioni intime, il senso di appartenenza, la gratitudine
– tutte cose che sfuggono al numero”.
> In un momento storico segnato dalla volontà di rendere scientificamente
> affidabili le scienze umane, la quantità sembrava l’unica strada per la
> legittimazione.
La tendenza a ridurre la realtà a ciò che è misurabile non è solo una strategia
cognitiva, ma un vero e proprio paradigma ideologico che si nutre di una falsa
promessa: che i dati possano raccontare il reale in modo oggettivo. Come notava
Daniel Kahneman, premio Nobel per l’economia, in Pensieri lenti e veloci (2012),
invece, gran parte delle nostre decisioni è guidata da processi intuitivi,
emotivi, non razionali. E là dove il dato pretende di spiegare tutto, finisce
spesso per mascherare la complessità. Lo stesso Kahneman ha messo in guardia
contro l’eccessiva fiducia nella coerenza statistica, evidenziando il ruolo
centrale del contesto e delle euristiche.
Più ci affidiamo ai numeri, più ci deresponsabilizziamo. Un effetto paradossale,
dal momento che è proprio l’ansia di controllo che alimenta la smania di
misurare tutto a portarci a delegare le decisioni ai dati, spogliandoci della
responsabilità. Il numero rassicura, ci assolve: “lo dice l’algoritmo”, “è un
dato oggettivo”, ma il controllo così perseguito si rivela illusorio: invece di
decidere, lasciamo che una finta certezza decida per noi. Se un progetto
fallisce, si incolpano i dati; se una decisione si rivela errata, era comunque
“data-driven”. In questo modo, come ha osservato Herbert Simon, teorico
dell’automazione e padre del concetto di “razionalità limitata”, in La ragione
nelle vicende umane (1984), il dato diventa alibi e non strumento di
comprensione.
La distorsione non è solo cognitiva, ma anche narrativa. Isaac Asimov lo aveva
intuito già nel 1955 con il racconto Diritto di voto (pubblicato per la prima
volta in Italia nel 1962 sulla rivista Galaxy): in un futuro ipertecnologico,
l’esercizio democratico viene rimpiazzato da un supercomputer, Multivac, in
grado di prevedere il voto di tutta la popolazione intervistando un solo
cittadino rappresentativo. Non importa più cosa si pensa o cosa si vuole:
importa solo che i dati funzionino. L’immaginazione cede il passo all’inferenza
statistica.
> – Multivac possiede già la maggior parte delle informazioni necessarie per
> decidere quali saranno i risultati delle elezioni nazionali, statali e locali.
> […] Non possiamo prevedere quali domande le farà, ma sappiamo che forse non
> avranno senso, né per lei né per noi. […] Durante il colloquio dovremo
> ricorrere a qualche semplice dispositivo che le terrà sotto controllo
> pressione sanguigna, il battito cardiaco, la conduttività della pelle e le
> onde cerebrali. […]
> – Questa roba serve per controllare se dico la verità? – chiese Norman.
> – Nient’affatto, signor Muller. Non ha importanza che lei menta o dica la
> verità.
Nel momento in cui Multivac afferma che “non ha importanza che lei menta o dica
la verità”, Asimov ci mostra una distopia dove la soggettività non ha più peso.
Non conta cosa credi o cosa pensi, perché l’infrastruttura algoritmica ha già
deciso chi sei e cosa farai. È una prefigurazione inquietante del nostro
presente: i dati raccolti, incrociati e analizzati ci assegnano una “verità”
algoritmica, spesso più influente delle nostre reali intenzioni o convinzioni.
La verità, come l’intenzione politica, diventa ridondante. L’intelligenza
artificiale generativa ha accelerato ulteriormente questa logica, rendendo
possibile la creazione automatica di contenuti visivamente attraenti ma
stilisticamente omologati. Emblematico il caso delle illustrazioni ispirate allo
Studio Ghibli: la bellezza è replicabile, ma l’originalità è sacrificata.
> Il numero rassicura, ci assolve: “lo dice l’algoritmo”, “è un dato oggettivo”,
> ma il controllo così perseguito si rivela illusorio: invece di decidere,
> lasciamo che una finta certezza decida per noi.
La cultura digitale ha così internalizzato la quantofrenia. Le metriche sono
diventate una seconda pelle: i like, le condivisioni, le visualizzazioni hanno
sostituito il giudizio critico. La comunicazione si adatta alle logiche degli
algoritmi e non alle esigenze del contenuto. Come osserva Evgeny Morozov in To
Save Everything, Click Here (2013), l’uso strumentale della tecnologia tende a
risolvere problemi complessi con soluzioni semplicistiche, nascondendo
implicazioni politiche e culturali.
La tendenza alla misurazione si è infiltrata anche nelle istituzioni educative.
Le scuole e le università, sempre più soggette a ranking e valutazioni
standardizzate, sono costrette a misurare l’impatto della ricerca e
dell’insegnamento in termini di produttività. Ma come si misura una buona
lezione? Come si quantifica l’effetto trasformativo della cultura su una
persona? La valutazione dell’apprendimento rischia di diventare una caricatura
di sé, come ha argomentato Martha Nussbaum in Non per profitto. Perché le
democrazie hanno bisogno della cultura umanistica (2014). Nussbaum critica
l’educazione orientata ai test e ai numeri perché sacrifica le capacità
critiche, empatiche ed etiche, cioè quelle fondamentali per una cittadinanza
attiva. “Una democrazia – scrive – richiede cittadini che non solo abbiano
capacità tecniche, ma che possano pensare criticamente, esaminare le tradizioni,
comprendere il significato della sofferenza e dell’ingiustizia”. Ridurre tutto a
metriche (valutazioni PISA, crediti, output di ricerca) snatura l’educazione: la
trasforma in addestramento. La cultura, invece, dovrebbe formare esseri umani
completi, non solo lavoratori efficienti.
Eppure, i dati non sono il male. Come sottolineano anche Harvard Business
Publishing e Forbes in numerosi contributi sul management, affidarsi
esclusivamente alla quantificazione rischia di semplificare eccessivamente
fenomeni complessi, conducendo a decisioni paradossalmente meno informate, ma le
metriche possono aiutarci a identificare delle opportunità che sarà l’intuizione
a tradurre in scelte realmente efficaci. I numeri non provano gioia, dolore,
entusiasmo: sono strumenti, non fini. Un esempio virtuoso fu House of Cards
(2013-2018), prima produzione originale Netflix basata su dati di fruizione che
indicavano una domanda per contenuti politici. Ma non furono i numeri a
decretarne il successo: fu l’intuizione creativa, il cast d’eccezione, la cura
narrativa. Oggi, invece, la stessa piattaforma viene criticata per puntare su
formule prevedibili e produzioni a basso rischio.
La crisi della narrazione si accompagna a una crisi del senso. Se ogni scelta è
calcolata, ogni comportamento previsto, che spazio resta per l’incertezza, per
l’imprevisto, per l’errore creativo? Come possiamo ancora raccontare storie che
aprano mondi, invece di ridurli a ciò che è già noto? In Contro i numeri. Perché
l’ossessione per dati e quantità sta rallentando il mondo (2019), lo storico
Jerry Z. Muller mostra come l’ossessione per la misurazione danneggi i contesti
che vorrebbe migliorare. Il problema, secondo Muller, è che “quando una metrica
diventa un obiettivo, smette di essere una buona metrica”. Succede nella sanità
(dove si punta a ridurre i tempi d’attesa a scapito della qualità della cura),
nell’istruzione (dove si insegna “per il test” anziché per formare pensiero
critico), nella ricerca (dove si pubblica molto ma si scopre poco). Muller parla
di “perversione dei segnali”: i numeri nascono come indicatori, ma finiscono per
sostituire i fini ultimi delle istituzioni.
> La nostra è l’epoca della datificazione della realtà, dove tutto deve essere
> misurabile e misurato.
I dati, insomma, possono ispirare, ma non devono dettare. Come ha scritto
Shoshana Zuboff in Il capitalismo della sorveglianza. Il futuro dell’umanità
nell’era dei nuovi poteri (2019), “l’esperienza umana è diventata materia prima
gratuita per le pratiche commerciali nascoste di estrazione, previsione e
vendita”. La logica predittiva, secondo Zuboff, sottrae all’individuo il diritto
di definire la propria identità e i propri fini. L’azione spontanea, la
creatività, la decisione etica vengono erose da modelli che anticipano e
condizionano il comportamento. “Questa non è automazione – scrive – è
espropriazione”. Il soggetto viene dissolto nella previsione: non siamo più chi
scegliamo di essere, ma chi il sistema calcola che saremo.
Ed è qui che, infine, la riflessione si fa personale. Ho visto alcune delle
menti migliori della mia generazione struggersi di fronte a serie di dati
impazziti. Rifiutare cene a base di pizze lievitate naturalmente per più di
ventiquattr’ore per sacrificare la vista su metriche svuotate di significato e
fogli Excel troppo luminosi, animate dall’isteria per la consegna del prossimo
report trimestrale. Percorrere i pochi metri quadri di casa con una tazza di
caffè filtrato, cuffie noise-cancelling e felpa oversize di cotone biologico
alla ricerca della formula definitiva per il successo in dieci semplici mosse,
se sintetizzabili in cinque anche meglio. I pollici incollati allo schermo in
cerca di una validazione numerica a sé stessa.
Siamo social media manager, data analyst, SEO specialist, ricercatori. Apostoli
del dato, cavalieri della tabella pivot, eminenze grigie dell’analytics. Con
montature da intellettuale non praticante e outfit business casual calibrati al
millimetro, perché nulla dice “basato su dati significativi” come un look
azzurrino ben stirato. Abbiamo smesso di parlare di idee: meglio restare
ancorati alle metriche di performance, all’eventuale ritorno sull’investimento,
di percentuali, tante percentuali. Sempre del “cosa”, mai del “perché”.
La nostra è l’epoca della datificazione della realtà, dove tutto deve essere
misurabile e misurato. Ogni respiro, ogni passo, ogni sbuffo viene tradotto in
un grafico a torta o in una linea preferibilmente ascendente. Mi sono appena
svegliata: Fitbit ci tiene a dirmi che ho dormito il 13% in meno rispetto alla
media della popolazione degli altri millennial ansiosi. Ordino un cappuccino e
c’è un’app che mi informa che ho speso il 22% in più rispetto al budget mensile
per le mie bevande a base di latte d’avena. Il mio smartwatch registra
un’accelerazione del battito cardiaco: inquietudine da overspending. Voglio lo
zucchero, voglio il cacao? Consulto l’app delle calorie. Non me lo godo, ma
almeno so quanto mi è costato in termini finanziari e metabolici: è fantastico.
Se vado a correre e scordo di avviare l’app, semplicemente la mia corsa non
esiste. Ogni decisione, ogni singolo, microscopico gesto è misurato, analizzato,
comunicato e archiviato. Quand’è che ho smesso di raccontare storie per
limitarmi a ricevere e distribuire dati? Quand’è che sono diventata un’anima
misurata?
L'articolo Quantofrenia, la patologia dell’anima misurata proviene da Il
Tascabile.
N on è mai facile fare affermazioni categoriche sulla propria contemporaneità,
ma penso si possa dire con un certo grado di sicurezza che le tecnologie
digitali sono tra quelle che hanno maggiormente caratterizzato l’orizzonte
storico e sociale degli ultimi 25 anni. A renderle così influenti sono
soprattutto due delle loro caratteristiche distintive: la capacità di
trasformare qualsiasi dispositivo a cui vengono applicate in un calcolatore
capace di generare, raccogliere e analizzare dati e la diffusione globale della
connettività che mette in rete tutti questi dispositivi e permette loro di
comunicare in modo (semi)istantaneo a grandi distanze.
Con il tempo, la prima ha generato una logica per cui ogni fenomeno diventa
misurabile (e quindi ottimizzabile), mentre la seconda ha esteso la rete dagli
esseri umani agli oggetti, rendendo automatizzabile praticamente ogni genere di
dispositivo. Nonostante semplifichi in modo brutale la sua effettiva
complessità, questa descrizione ci serve per fissare lo stato dell’evoluzione
delle tecnologie digitali e ci permette di indicarla come la base su cui
poggiano le loro applicazioni più recenti ed embrionali.
> In molti casi, l’impatto rivoluzionario che tecnologie come blockchain,
> metaverso e intelligenza artificiale dovrebbero produrre è più supposto che
> effettivo.
Applicazioni che sono al centro di Simulacri digitali. Le allucinazioni e gli
inganni delle nuove tecnologie, un saggio uscito all’inizio di aprile per add
editore; a firmarlo è Andrea Daniele Signorelli, uno dei giornalisti tech più
preparati che abbiamo in Italia. Blockchain, metaverso, robotica e intelligenza
artificiale sono alcune delle principali tecnologie di cui Signorelli si propone
di smascherare le “allucinazioni e gli inganni” a cui si fa riferimento in modo
esplicito nel sottotitolo del libro. Ma per quale motivo Signorelli parla di
allucinazioni e inganni a proposito di tecnologie a cui ci si riferisce quasi
sempre in termini altisonanti, enfatizzando la loro capacità di produrre un
impatto rivoluzionario?
La risposta più semplice e brutale è: perché, in molti casi, l’impatto
rivoluzionario che queste tecnologie dovrebbero produrre è più supposto che
effettivo. Il web3 è un esempio a tal punto evidente di questa natura
ingannevole di alcune delle più recenti e chiacchierate applicazioni delle
tecnologie digitali, da spingere Signorelli a usare l’espressione “grand truffa”
per aprire il paragrafo che le dedica nel penultimo capitolo del libro. Per
l’autore, il web3 rappresenta “la terza incarnazione della rete”, che segue il
web 1.0 (statico e leggibile) e il web 2.0 (dinamico e partecipativo) e
“promette invece di sfruttare la blockchain e le criptovalute per dare vita a un
ecosistema digitale in cui non solo possiamo leggere e scrivere sulle
piattaforme, ma anche possederne delle quote”.
Per spiegare quest’ultimo concetto Signorelli fa l’esempio di Filecoin:
> una sorta di Dropbox (un popolare sistema di archiviazione file, ndr) della
> blockchain che permette a tutti di salvare contenuti nel cloud. Il cloud di
> Filecoin non ha però sede nei data center di proprietà di qualche colosso del
> settore, ma negli hard disk di tutti i computer collegati a questa blockchain.
> […] Chi affitta lo spazio presente sull’hard disk del proprio computer tramite
> Filecoin ottiene in cambio una quantità proporzionale della criptovaluta
> collegata, chiamata Fil, che può poi essere venduta sulle tradizionali
> piattaforme di compravendita di criptovalute.
Per i fautori e gli entusiasti di questa tecnologia “quella immaginata dal web3
è quindi un’utopia in cui l’economia di Internet fa piazza pulita dei colossi
monopolistici che la dominano e permette a tutti gli utenti di conquistare una
fetta della ricchezza oggi concentrata nelle mani di pochissimi”.
> La distanza tra la narrazione di un’applicazione delle tecnologie digitali e
> la realtà del loro effettivo impatto non è accidentale, si deve a quello che
> l’autore definisce “technomarketing”, ovvero il modo in cui le grandi aziende
> utilizzano tecniche di storytelling per promuovere sé stesse e i loro
> prodotti.
Il problema di questa narrazione, mostra in modo efficace Signorelli, è che la
sua realizzazione si sta rivelando meno lineare del previsto ma, soprattutto,
molto più opaca. La blockchain è una tecnologia che richiede all’utente
conoscenze approfondite di informatica, impegno e un atteggiamento attivo e
partecipe, caratteristiche che non la rendono facile da usare, per non parlare
del fatto che i suoi fautori più accaniti sono una nicchia di utenti consapevoli
e molto esperti di informatica, tutt’altro che propensi a renderla tale.
Ciononostante, per poter finanziare lo sviluppo, la manutenzione e la crescita
di applicazioni basate su questa tecnologia servono soldi e per poterla
monetizzare serve allargarne la base di utenti disposti a pagare per farlo.
È per allargare questo collo di bottiglia che intervengono i fondi di venture
capital che finanziano sia lo sviluppo delle applicazioni basate sulla
blockchain sia quello di piattaforme in grado di semplificare l’utilizzo da
parte di utenti privi di un’alfabetizzazione digitale avanzata e specialistica.
Un doppio movimento che, nonostante l’enfasi posta sulla sua natura
decentralizzata, introduce nella blockchain le stesse dinamiche di
centralizzazione di cui i suoi fautori più “zelanti” volevano fare piazza
pulita.
La distanza tra la narrazione di un’applicazione delle tecnologie digitali e la
realtà del loro effettivo funzionamento, utilizzo e impatto non è accidentale
ma, come mostra bene Signorelli durante tutta la trattazione, si riscontra nella
maggior parte, se non in tutte, le applicazioni che vengono raccontate in
Simulacri digitali. Questo iato si deve a un fenomeno che l’autore definisce
“technomarketing”, ovvero il modo in cui le grandi aziende tecnologiche
utilizzano tecniche di storytelling per promuovere sé stesse e i loro prodotti.
Fino a qui nulla di particolarmente scandaloso; il racconto del prodotto e del
brand sono alla base della leva promozionale del marketing mix di qualsiasi
azienda. Ma è la scala a cui tende questo processo a rendere prolifica
l’intuizione di Signorelli. Per capire cosa intendo con l’espressione “scala” è
opportuno chiarire la distinzione tra “storia” (story) e “narrazione”
(narrative).
> Ciò che fa delle grandi aziende tecnologiche forze di natura storica
> all’interno della nostra società è proprio la loro volontà esplicita di agire
> sulla dimensione metanarrativa dello sviluppo dell’umanità.
Una storia è il racconto di un evento ‒ reale o immaginario a seconda del
registro che scegliamo di utilizzare o del genere che decidiamo di praticare ‒
o, nel nostro caso, di una tecnologia come, appunto, la blockchain, la robotica,
il metaverso o l’intelligenza artificiale. Una narrazione invece è il modo in
cui scegliamo di raccontare una storia o una serie di storie collegate tra di
loro. Ciò che caratterizza le narrazioni è che esse possono dispiegarsi a più
livelli sovrapposti.
Il livello più basso di una narrazione è quello personale, ovvero il modo in cui
raccontiamo la nostra vita come un susseguirsi di eventi puntuali o periodi
lineari che costituiscono la nostra identità o il punto di vista che distilliamo
sulla realtà che ci circonda. Al di sopra del livello personale c’è il livello
delle organizzazioni, ovvero il modo in cui un’organizzazione di qualsiasi tipo
(un’azienda, un partito politico, un culto) descrive sé stessa come una realtà
unica e peculiare. Più sopra ancora c’è il livello industriale, ovvero quello in
cui le organizzazioni elaborano una serie di storie in risposta alla domanda
“quale ruolo interpretiamo e rivestiamo nel nostro specifico settore?”. L’ultimo
livello, quello che caratterizza le narrazioni apicali, è quello a cui si
collocano le cosiddette “metanarrazioni”, ovvero quello in cui una serie di
individui organizzati elevano l’impatto che esercitano sul proprio contesto di
riferimento a una dimensione storica, capace di piegare alle proprie condizioni
lo sviluppo dell’umanità intera.
> L’ideologia delle grandi aziende tecnologiche è composta da un melange di
> millenarismo, fascinazioni soluzioniste ed echi di quella sorta di “destino
> manifesto” proprio della corrente lungotermista della filosofia contemporanea.
Ciò che fa delle grandi aziende tecnologiche forze di natura storica all’interno
della nostra società è proprio la loro volontà esplicita di agire sulla
dimensione metanarrativa dello sviluppo dell’umanità, attraverso il modo in cui
l’ideologia personale dei loro fondatori si riflette nel modo in cui essi
plasmano le organizzazioni e, attraverso di esse, influenzano i settori
industriali nei quali operano. Quali siano i tratti dominanti di questa
ideologia Signorelli lo spiega bene nei capitoli intitolati “La religione
dell’intelligenza artificiale” e “L’inquietante filosofia della Silicon Valley”.
Non c’è qui abbastanza spazio per approfondire le dimensioni religiose e
filosofiche dell’ideologia delle Big Tech ma è opportuno specificare che questa
è composta da un melange di millenarismo, fascinazioni soluzioniste ed echi di
quella sorta di “destino manifesto” che trova nella corrente lungotermista della
filosofia contemporanea il suo riferimento più saldo e prolifico. Quello che va
invece sottolineato è a cosa sia funzionale la narrazione del futuro che,
attraverso la produzione costante di storie, gli apparati di propaganda delle
grandi aziende tecnologiche distillano da questo sostrato ideologico, ovvero la
sua capacità di retroagire sul presente determinandolo.
Lo sviluppo delle tecnologie digitali più avanzate sembra seguire un copione
scritto in anticipo: quello delle storie che raccontiamo su di esse. E i loro
effetti, a dispetto della retorica, sono tutt’altro che immaginari. Più una
tecnologia viene raccontata come capace di risolvere i problemi dell’umanità su
una scala e con un impatto di dimensione storica, più sarà probabile che questa
tecnologia riuscirà a prevalere sulle altre tecnologie concorrenti nella
competizione per assicurarsi risorse, materiali e finanziarie, per potersi
sviluppare ulteriormente.
> Lo sviluppo delle tecnologie digitali più avanzate sembra seguire un copione
> scritto in anticipo: quello delle storie che raccontiamo su di esse. E i loro
> effetti, a dispetto della retorica, sono tutt’altro che immaginari.
Insieme alla tecnologia e al suo apparato di propaganda, la finanza, così
sostiene Signorelli, è una delle tre forze che mantengono attivo questo processo
di estrazione basato sulla produzione semiotica. Il metaverso è senza dubbio uno
degli esempi in cui questo processo appare meno sensato e giustificato che in
altri casi. Propagandate con la promessa di creare un mondo virtuale sostituivo
di quello attuale, le aziende che dichiaravano di voler costruire applicazioni
per questa tecnologia sono riuscite a raccogliere ingenti fondi ma sono state
incapaci di creare un’esperienza in grado anche solo di avvicinarsi a quanto
promesso, limitandosi a dare vita a goffe copie della realtà come l’ufficio
delle imposte ricreato da un comune norvegese “all’interno di Decentraland (un
ambiente immerso, non in realtà virtuale ma che rientra comunque nelle
tradizionali definizioni di metaverso), in cui recarsi con il proprio avatar per
pagare le tasse”.
Attraverso l’imposizione delle proprie narrazioni, le grandi aziende
tecnologiche riescono dunque a ottenere quello che, secondo l’interpretazione
che ne dà il filosofo tedesco Martin Heidegger, è l’obiettivo della tecnologia
moderna: smettere di essere il mezzo per ottenere un fine e diventare una
modalità di rivelazione del mondo, ovvero una forza in grado di modificare il
nostro modo di vedere e vivere la realtà.
> Per l’autore del libro, la realtà che ci circonda assomiglia sempre più a una
> simulazione: non perché sia finta, ma perché è filtrata da immagini e
> narrazioni che si impongono sulla sostanza.
Qual è dunque il modo di vedere e vivere la realtà che le tecnologie digitali e
le loro applicazioni più avanzate stanno apparecchiando per noi? Signorelli
prova ad articolare una risposta a questa domanda nel primo e nell’ultimo
capitolo del libro, dialogando apertamente con il pensiero di Jean Baudrillard e
due dei suoi concetti più celebri: quello di simulacro e quello di simulazione.
Per l’autore del libro, la realtà che ci circonda assomiglia sempre più a una
simulazione: non perché sia finta, ma perché è filtrata da immagini e narrazioni
che si impongono sulla sostanza. Quelle create dalle grandi aziende tecnologiche
sono metanarrazioni potenti, capaci di riscrivere il presente con la scusa di
promettere il futuro.
Signorelli ci mostra che, spesso, le tecnologie più celebrate non mantengono le
promesse che le accompagnano. Ma le storie che le raccontano continuano a
funzionare benissimo: attirano investimenti, ne orientano lo sviluppo, e
giustificano privilegi che esse creano. In questo senso, Simulacri digitali è un
invito a non fermarsi all’incanto della narrazione tecnologica, ma a interrogare
il potere che l’ha prodotta ‒ e il mondo che sta costruendo al nostro posto.
L'articolo Simulacri digitali di Andrea Daniele Signorelli proviene da Il
Tascabile.
S embra che in ogni secolo di sviluppo tecnologico umano si debba affrontare una
nuova sfida relativa alla produzione dell’energia necessaria alla società;
curiosamente però il meccanismo chimico alla base di questa sfida è sempre lo
stesso, non da secoli bensì da miliardi di anni. Ciò che la nostra società cerca
disperatamente è una fonte di energia economica e disponibile, in particolare
oggi si tratta di produrre energia elettrica e del suo immagazzinamento.
Di cosa parliamo quando parliamo di energia
Da un punto di vista pratico qualsiasi sia la fonte energetica sperimentata
dall’umanità o da altre forme di vita, si tratta sempre e comunque di mobilitare
elettroni, cioè generare coppie redox, le odiatissime reazioni di
ossidoriduzione incubo di ogni studente, ossessione di ogni studioso
dell’energia.
> Ciò che la nostra società cerca disperatamente è una fonte di energia
> economica e disponibile, un sistema di conversione e, ancora più importante,
> un sistema di stoccaggio efficiente.
La rivoluzione industriale, basata sul carbone prima e sul petrolio poi (da cui
la locomotiva a vapore e il motore a scoppio), traeva energia dall’ossidazione
del carbonio producendo anidride carbonica. Reazioni di ossidoriduzione tanto
antiche quanto l’uso del fuoco da parte dell’uomo primitivo, che hanno
l’indesiderata conseguenza di produrre i gas responsabili del cambiamento
climatico attuale. È simile l’energia muscolare che trae origine da processi di
ossidazione di molecole organiche ottenendo come sottoprodotto lo stesso
identico gas, l’anidride carbonica. Più recentemente l’energia nucleare sembrava
aver gettato le basi per una svolta concettuale scovando l’energia direttamente
nel nucleo degli atomi, un’energia più abbondante e sfruttabile delle tante
fonti sperimentate precedentemente. L’energia nucleare sostituisce
efficientemente il carbone che scaldava le caldaie delle antiche locomotive a
vapore o la fiamma sotto la pentola a pressione che usiamo in casa, ma il
meccanismo è lo stesso: generare vapore in pressione per poi sfruttarlo
meccanicamente. Tuttavia l’energia nucleare mostra aspetti drammaticamente
negativi e irrisolvibili quali la scarsa disponibilità di materie prime fissili
(molto meno disponibili di carbone, petrolio o gas naturale), questioni di
sicurezza ambientale, oltre al mai risolto problema dello stoccaggio di scorie e
sottoprodotti radioattivi (ridotti nelle centrali di ultima generazione, ma
inevitabili e ingestibili per periodi estremamente lunghi).
Oggi le fonti energetiche rinnovabili si stanno imponendo sul mercato
assicurando la possibilità di convertire l’energia da fonti gratuite, ma con
disponibilità limitata. L’energia solare può essere prodotta solo di giorno, il
vento dipende dalle condizioni meteorologiche, il geotermico è limitato a
livello geografico. Eppure le risorse rinnovabili mostrano aspetti imbattibili:
sono già presenti e distribuite ovunque, riforniscono il nostro pianeta da
milioni di anni, non impattano l’ambiente, non richiedono miniere o sistemi di
estrazione delle materie di origine (come carbone, petrolio, uranio, ecc.).
Servirebbe solo un sistema di conversione dell’energia scelta e, ancora più
importante, un sistema di stoccaggio efficiente.
> Le risorse rinnovabili mostrano aspetti imbattibili: sono già presenti e
> distribuite ovunque, riforniscono il nostro pianeta da milioni di anni, non
> richiedono miniere o sistemi di estrazione delle materie di origine.
Le nostre precedenti sperimentazioni per generare reazioni di ossidoriduzione
partendo da carbone, petrolio o gas naturale consentivano di liberare, in ultima
analisi, l’energia solare catturata da qualche essere vivente milioni di anni fa
e conservata nei legami chimici delle sostanze prelevate dagli strati geologici.
Ma come avevano fatto i viventi del passato a carpire quell’energia? Quali altri
meccanismi chimici o biologici possono conservarla efficientemente?
Il dilemma dello stoccaggio
La vera sfida del nostro secolo è proprio questa, ed è una sfida concettuale.
Smettere di generare l’energia al momento dell’uso, ma affidarsi a una
produzione continua, morigerata, controllata di energia che verrà poi stoccata,
accumulata e resa disponibile da una rete capillare di distribuzione continua e
costante. Si tratta ovviamente dell’energia elettrica, già in uso da
generazioni, ma che dovrebbe sostituire tutte le altre fonti energetiche, in
particolare nel mondo dei trasporti. Una sfida non banale, che si scontra con le
nostre limitate capacità di accumulo e stoccaggio, a oggi il punto critico di
questa nuova visione, il cui principale oggetto di ricerca e investimento sono
le batterie. A questo proposito è curioso notare che le prime ricerche sui
fenomeni elettrici vennero condotte da medici e naturalisti su certi viventi (da
cui l’espressione “elettricità animale”) e dopo quasi tre secoli proprio la
natura potrebbe rivelarsi la strategia vincente per scovare le soluzioni ai
problemi sopracitati.
> La vera sfida del nostro secolo è una sfida concettuale: smettere di generare
> l’energia al momento dell’uso, ma affidarsi a una produzione continua, e a
> un’infrastruttura decentralizzata di accumulo e distribuzione.
Furono le piccanti dispute tra Luigi Galvani e Alessandro Volta a chiarire
l’origine della corrente elettrica. Se il primo la considerava un fluido di
origine vitale o animale (forte delle osservazioni condotte su esseri come le
anguille elettriche), il secondo dimostrò come fosse possibile generare
elettricità mediante l’uso di metalli diversi sapientemente accoppiati (la
famosa pila di Volta). Ciò che oggi sappiamo è che entrambi i grandi scienziati
stavano osservando correnti elettriche sviluppate da reazioni di
ossidoriduzione. Volta aveva capito come impiegare materiali inorganici per
incanalare gli elettroni che passavano da un elettrodo all’altro; Galvani invece
osservava processi molto più complicati, non basati su metalli, ma complesse
molecole organiche selezionate attraverso processi evolutivi da esseri che da
generazioni affinavano sistemi di accumulo e stoccaggio di energia. La vita
stessa si basa su sistemi di conversione energetica e, proprio come per noi
umani di oggi, anche gli altri viventi hanno dovuto imparare a sfruttare fonti
di energia diluita e saltuariamente disponibile per poi accumularla e sfruttarla
metabolicamente.
La natura ha inventato le batterie prima di noi
I meccanismi di conversione e stoccaggio dell’energia presenti nei viventi sono
moltissimi e non semplici, dalla fotosintesi clorofilliana alla respirazione
cellulare. Alcuni batteri traggono energia da reazioni di ossidoriduzione del
ferro, altri dello zolfo o del metano; il tutto è mediato da enzimi e proteine,
elaborati sistemi di membrane, organuli, pori selettivi, gradienti chimici molto
più complessi delle nostre batterie. Ciò che desta la nostra attenzione oggi è
la straordinaria capacità degli organismi di immagazzinare energia, in alcuni
casi con biomolecole che si stanno dimostrando estremamente utili per una
possibile applicazione nel mondo delle batterie.
Attraverso miliardi di anni di selezione naturale, gli organismi viventi hanno
sviluppato reazioni metaboliche altamente efficienti, impossibili da replicare
oggi nei sistemi artificiali. Inoltre, gli elementi che costituiscono questi
complessi biologici provengono da fonti ecologiche presenti sulla Terra, sono
facilmente decomponibili e hanno un impatto minimo sull’ambiente. Tutti gli
organismi viventi si basano sulla conversione, il trasporto e l’immagazzinamento
dell’energia su diversi substrati molecolari. Questi processi metabolici, in cui
l’energia viene trasferita attraverso il passaggio di elettroni e ioni, sono
esattamente gli stessi che dobbiamo migliorare partendo dalla conversione delle
energie rinnovabili, alla distribuzione e stoccaggio, fino all’utilizzo finale.
> L’approccio della biomimesi, cioè la possibilità di ispirarsi a strutture
> biologiche per imitarne le prestazioni, potrebbe essere di grande aiuto per
> risolvere le principali problematiche delle batterie oggi esistenti sul
> mercato.
La natura può fornirci più sistemi per migliorare la tecnologia delle batterie
attuali, ad esempio particolari biomateriali possono essere impiegati
direttamente, mentre altre sostanze naturali possono essere trattate
artificialmente per essere modificate e integrate nei dispositivi di accumulo
migliorandone le prestazioni. Anche nella fase di progettazione l’approccio
della biomimesi, cioè la possibilità di ispirarsi a strutture biologiche per
imitarne le prestazioni, potrebbe essere di grande aiuto per risolvere le
principali problematiche delle batterie oggi esistenti sul mercato.
Fare a meno del litio
Nella situazione attuale il mercato delle batterie è dominato da quelle che si
basano sugli ioni litio. Le prime sono state sviluppate negli anni Settanta da
Stanley Whittingham e presentavano inizialmente gravi problemi di sicurezza.
Negli anni Ottanta venne introdotto l’uso del cobalto nel catodo, aumentando le
prestazioni e nei primi anni Novanta la Sony le ha commercializzate imponendosi
nel mercato. La domanda globale di batterie al litio ha superato i 600-700 GWh
nel 2022 e potrebbe raggiungere 3 TWh o più entro il 2030; il tutto è trainato
dall’impiego in veicoli elettrici e dallo stoccaggio stazionario. A oggi i
materiali impiegati per le diverse componenti delle batterie al litio includono
manganese, cobalto, nichel e ferro, tutti metalli strategici e problematici dal
punto di vista ambientale e geopolitico. A questo elenco si aggiunge ovviamente
il bramatissimo litio. Ciò ha spinto i ricercatori a studiare soluzioni
alternative per alleviare la pressione sulle risorse, migliorare la
sostenibilità e assicurare maggiore sovranità industriale.
Tutti i meccanismi di ossidoriduzione si basano su una coppia di componenti
(anodo-catodo, ossidante-riducente) le cui reazioni permettono la movimentazione
di elettroni creando così corrente elettrica. Le più promettenti e recenti
alternative alle batterie al litio sono: batterie metallo-ione (sodio, magnesio,
zinco, alluminio), batterie metallo-zolfo (litio-zolfo, sodio-zolfo), batterie
metallo-aria (litio-aria, zinco-aria), batterie a flusso (o redox flow).
Certamente nel futuro immediato le batterie al litio rimarranno centrali, ma
esiste un crescente spazio di mercato per soluzioni alternative specializzate.
> La domanda globale di batterie al litio ha superato i 600-700 GWh nel 2022 e
> potrebbe raggiungere 3 TWh o più entro il 2030.
A oggi la mobilità elettrica (autovetture elettriche e veicoli commerciali)
impegna oltre il 70% della domanda, seguono lo stoccaggio stazionario generico
(in rapida crescita, ma meno rilevante in volume rispetto all’automotive), l’uso
in computer, cellulari ed elettronica di consumo e infine la micromobilità (bici
elettriche, monopattini) con tassi di crescita sorprendenti. In definitiva circa
l’80% delle nuove installazioni di batterie è correlato al trasporto elettrico,
lo stesso aspetto che diede vita alla rivoluzione della locomotiva a vapore e
dell’auto con motore a scoppio.
Le quattro categorie di batterie alternative si basano su elementi più
disponibili o facilmente lavorabili rispetto al litio. Gli elementi impiegati
nelle batterie metallo-ione, metallo-zolfo, metallo-aria e batterie a flusso
sono tutti strategicamente interessanti. Infatti, il litio è presente in
quantità limitate e geograficamente molto localizzate (Cile, Australia, Cina),
mentre gli altri ioni elencati sono più abbondanti e con distribuzione più ampia
sul globo. Tuttavia, la sola abbondanza di un elemento non garantisce la
realizzabilità industriale, poiché contano anche le tecnologie di estrazione, i
processi di purificazione e l’intero ciclo di produzione del dispositivo. Per
alcune tecnologie, come le batterie zinco-aria, le materie prime sono largamente
disponibili, ma rimangono problematiche ingegneristiche. Inoltre ogni elemento
estratto prevede impatti ambientali, inquinamento e consumo di risorse.
Tutte le alternative proposte presentano pregi e difetti, non esiste quindi a
oggi una tecnologia capace di imporsi sulle altre garantendo facile
applicabilità a tutti i settori energivori. Ad esempio le batterie basate sul
sodio, già pronte a una prima commercializzazione, presentano costi e
sostenibilità migliori, ma una densità energetica inferiore e prestazioni ancora
molto migliorabili. Similmente le batterie a flusso sono già commercializzate e
in uso in diversi impianti di stoccaggio stazionario (in questo caso il metallo
impiegato è il vanadio); le più comuni batterie a flusso offrono elevata
scalabilità e lunga durata (anche oltre 10.000 cicli), ma minore densità
energetica e soprattutto un maggiore ingombro e peso, aspetto determinante per
quanto riguarda il trasporto.
Costruire batterie biologiche
Faremmo bene a ricordare che tutti i viventi affrontano da ere geologiche il
problema della conversione energetica, e del conseguente stoccaggio, senza
scavare miniere o ricorrere a elementi rari. La selezione naturale ha
identificato materiali con proprietà utili e performanti e in milioni di anni di
evoluzione gli organismi hanno elaborato strutture altamente efficienti per il
trasferimento di energia e materia, dissipare il calore, contenere il peso e
rappresentano quindi un modello estremamente interessante.
> Tutti i viventi affrontano da ere geologiche il problema della conversione
> energetica, e della conseguente conservazione e stoccaggio, senza scavare
> miniere o ricorrere a elementi rari.
I materiali di origine biologica possono essere impiegati direttamente oppure
sottoposti a trattamenti che ne esaltano le proprietà, trasformandoli in
nanostrutture utili per la costruzione di elettrodi e altri componenti. In altri
casi si tratta di imitare i principi che regolano i processi biologici,
riproducendoli artificialmente per migliorarne le prestazioni tecnologiche.
I biomateriali più promettenti si dividono in tre famiglie. La lignina, presente
nel legno, è interessante per le sue proprietà redox, e può essere impiegata
come additivo per elettrodi, come legante o per ottenere carboni a porosità
controllata. La polidopamina, nota per le capacità adesiva dei molluschi, è
stata utilizzata per rivestire gli elettrodi, migliorandone la stabilità. Le
flavine e i chinoni sono composti biologici coinvolti nel metabolismo energetico
in reazioni simili a ciò che avviene nei cicli di carica/scarica delle batterie.
Molte tecniche si basano sulla trasformazione dei materiali naturali. Ad esempio
le biomasse fungono da ottimi stampi per la formazione di materiali
nanostrutturati in seguito a processi termici. Oppure è il caso di particolari
ioni metallici che tendono ad autoassemblarsi sulla superficie delle proteine o
di certi batteri (ad esempio Streptomyces) favorendo la crescita di complesse
strutture minerali. stratificate, simili a guaine. Sono esempi in cui i sistemi
biologici producono materiali funzionali, spesso impossibili da ottenere
artificialmente.
La natura fornisce anche ispirazione nella progettazione dei dispositivi. Molti
organismi viventi hanno sviluppato soluzioni ingegneristiche straordinarie, come
pori e membrane, in grado di trasportare selettivamente ioni e molecole,
suggerendo nuove vie per l’ottimizzazione nei dispositivi elettrochimici.
L’osservazione del mondo biologico può inoltre offrire soluzioni concrete nel
campo della gestione del calore. Nei sistemi elettrochimici, infatti, l’aumento
della temperatura compromette l’efficienza delle reazioni. Eppure alcuni
organismi (come il verme marino Alvinella pompejana), riescono a vivere in
ambienti a temperature estreme senza alterare il proprio metabolismo.
Comprendere i meccanismi di adattamento di questi organismi può aiutare a
sviluppare batterie capaci di operare in un ampio intervallo termico.
Similmente, ispirandosi alla struttura alveolare delle ali delle libellule, sono
state proposte strutture biomimetiche per ottimizzare resistenza, peso e
flessibilità.
La necessità di un approccio interdisciplinare
Sembra quindi che per una svolta tecnologica sia necessario tornare alle
origini: non alle anguille elettriche di Galvani o alla pila di Volta, ma alle
basi biochimiche selezionate dai sistemi naturali nel corso dell’evoluzione.
Materiali e strategie di conversione e stoccaggio energetico presenti nella
meccanica stessa della vita.
La biomimetica offre infatti un grande potenziale per la progettazione di
dispositivi avanzati per accumulo di energia elettrochimica e la produzione di
materiali correlati (composizione, proprietà meccaniche e funzionalità). Ciò
include l’utilizzo diretto di composti da biomasse, l’impiego di strutture
organiche come stampi molecolari, la preparazione di materiali con strutture
macro-microscopiche e l’imitazione dei meccanismi e strategie biologiche.
> Sembra quindi che per una svolta tecnologica sia necessario tornare alle
> origini: non alle anguille elettriche di Galvani o alla pila di Volta, ma alle
> basi biochimiche selezionate dai sistemi naturali nel corso dell’evoluzione.
È l’unica prospettiva vincente per svincolarci da metalli rari, strategici,
inquinanti; questo perché tutti i materiali biologici garantiscono
rinnovabilità, adattabilità, sostenibilità ed ecocompatibilità, aspetti
particolarmente significativi per un impiego a lungo temine. È il tipo di
sviluppo di cui abbiamo disperatamente bisogno e che implica una fondamentale
collaborazione interdisciplinare (chimica, zoologia, botanica, micologia,
fisica, ingegneria energetica) per accelerare la transizione dalle idee di
laboratorio all’industria, ispirandosi in modo concreto e produttivo alla grande
saggezza conservata negli organismi viventi, acquisita con milioni di anni di
evoluzione e ora alla nostra portata.
Il futuro dell’innovazione nel campo energetico, oggi così urgente e necessaria
per l’essere umano, sembra risiedere nei meccanismi stessi della vita, il cuore
pulsante della natura che ci circonda.
L'articolo Il futuro biologico delle batterie proviene da Il Tascabile.
A lla domanda “Come ti sentiresti se non potessi più utilizzare la nostra app?”,
tra le tre opzioni “Molto deluso”, “Un po’ deluso”, “Per niente deluso”, Daniel
(36 anni, maschio) aveva scelto l’opzione “Per niente deluso”, rientrando così
tra i Detractor del nostro prodotto. Gli inviai la solita e-mail preimpostata
per invitarlo a un’intervista, come avevo fatto con altri centoquarantasette
utenti che nelle ultime due settimane avevano espresso lo stesso giudizio
rispondendo al questionario che appare nell’applicazione. Speravo di
intervistare almeno otto di loro.
Per incentivare la partecipazione, offrivo un premio: un’infusione endovenosa
gratuita di vitamina C presso il nostro laboratorio. Nel corpo dell’e-mail avevo
incluso un link al mio calendario. Dopo pochi minuti, la notifica: Daniel aveva
prenotato uno slot per il giorno successivo alle 8 e 30 del mattino. Odiavo fare
interviste così presto. Un’intervista alle 8 e 30 significava dovermi svegliare
un’ora prima del solito. Ma considerate le condizioni del mercato del lavoro a
Berlino dopo la pandemia, non potevo certo lamentarmi.
Parte I: Il questionario
Tra marzo 2024 e aprile 2025, prima di essere vittima del secondo licenziamento
di massa in cinque anni, ho lavorato come User Researcher per una start up
tedesca nel settore Health Tech. L’applicazione, tuttora presente sul mercato,
consente agli utenti di prenotare esami del sangue, recarsi in un laboratorio
affiliato e ricevere il referto entro ventiquattro ore direttamente sul proprio
telefono. Il vantaggio principale del prodotto è quello di bypassare il medico,
spesso definito the middle man dagli utenti che intervistavo durante le varie
ricerche e test di usabilità. The middle man: una locuzione dietro la quale si
cela una presuntuosa, a tratti feroce sfiducia nella scienza normale, scomodando
una celebre espressione di Thomas Kuhn.
Prima del marzo 2024, non sapevo nulla del settore Health Tech, né tantomeno di
come interpretare referti di laboratorio. Avevo da poco compiuto quarant’anni e
non mi era mai passato per la testa di aggirare il parere medico per sapere se
ci fosse qualcosa di sbagliato dentro di me. Il motivo per cui ero stato assunto
da quella start up era determinare se il loro prodotto fosse market fit, ovvero
se rispondesse in modo efficace ai bisogni del target audience, il pubblico a
cui era indirizzata.
Avevo condotto ricerche simili in passato per due aziende diverse: una di
viaggi, un’altra di e-commerce. Ci sono vari modi per misurare il cosiddetto
Product-Market Fit. Quello che preferisco è stato ideato recentemente da Sean
Ellis, una sorta di guru del Growth Marketing. Tutto comincia con una semplice
domanda da porre in un questionario: “Come ti sentiresti se non potessi più
utilizzare la nostra app?” Tre risposte possibili: “Molto deluso”, “Un po’
deluso”, “Per niente deluso”.
> Il motivo per cui ero stato assunto da una start up del settore Health Tech
> era determinare se il loro prodotto fosse market fit, ovvero se rispondesse in
> modo efficace ai bisogni del target audience, il pubblico a cui era
> indirizzata.
Secondo Ellis, un prodotto soddisfa i bisogni di mercato quando almeno il 40% di
chi risponde al questionario si dichiara “molto deluso” all’idea di non poterlo
più usare. Quella app raggiungeva a malapena il 30%, quindi era ancora lontana
dal tanto desiderato market fit. Ma la ricerca non finiva qui. Il questionario
era solo l’inizio. Oltre a offrire quel benchmark ideale, mi permetteva di
segmentare gli utenti in tre categorie di sentimento: Supporter, On-the-fence,
Detractor. In quelle settimane di aprile del 2024, la mia attenzione era rivolta
ai Detractor come Daniel.
Parte II: L’intervista
Il giorno dell’intervista, mi svegliai alle 7. Come ogni mattina, presi dal
frigorifero la scodella di fiocchi d’avena lasciati in ammollo tutta la notte
per ridurne il contenuto di acido fitico che, a detta della nutrizionista
olistica dell’azienda, interferisce con l’assorbimento dei minerali. Vi aggiunsi
miele e una manciata di mirtilli, antiossidanti. In pochi minuti l’avevo
spazzato. Poi inghiottii una pastiglia di vitamina D3 da 5000 IU e un
integratore di vitamine B-Complex.
Da circa un mese, questa era diventata la mia routine mattutina: una nuova
versione di me che non mi sarei mai aspettato ‒ perché stavo benissimo. Per
provare quel prodotto avevo fatto un test. Era gratis per i dipendenti.
Risultati alla mano, la nutrizionista aziendale disse che i miei valori di
vitamina D e vitamine B, sebbene pienamente nella norma, potevano essere più
alti: dovevano essere più alti. Citava opinioni di influencer come Rhonda
Patrick e Mark Hyman, di cui non avevo mai sentito parlare. Mi prescrisse due
integratori, io mi fidai.
Quella mattina arrivai in ufficio puntuale alle 8 e 15, giusto il tempo per
prepararmi un caffè lungo, nero e senza zucchero, che sempre secondo la
nutrizionista avrebbe la proprietà di prevenire. tra gli altri, cancro al
fegato, diabete di tipo 2 e infarto. Alle 8 e 25 prendevo posto sul piccolo
sgabello nel booth insonorizzato, aprivo il laptop di fronte a me, pronto per la
videochiamata con Daniel. Alle 8 e 30, la notifica: Daniel era entrato nella
sala d’attesa virtuale. Lo feci accedere alla chiamata.
“Grazie per aver trovato il tempo per parlare con me,” lessi dai miei appunti.
Di fronte a me avevo un documento intitolato PMF Interview Script. Cominciai a
recitare l’introduzione in cui spiegavo a Daniel come sarebbe andata la nostra
chiacchierata. Avremmo parlato dei suoi interessi legati a salute, fitness,
nutrizione. Poi gli avrei posto una quarantina di domande sulla sua esperienza
con il nostro prodotto ed eventuali competitor. Infine avrei lasciato cinque
minuti di tempo per le sue domande. Quarantacinque minuti in tutto.
> Il vantaggio principale dell’applicazione è quello di bypassare il medico,
> spesso definito the middle man dagli utenti, una locuzione dietro la quale si
> cela una presuntuosa, a tratti feroce sfiducia nella scienza normale.
“Okay, cominciamo,” mi esortò lui, stortando il volto in un’espressione
annoiata. Non era un comportamento insolito. I detrattori di un prodotto, quando
accettano di essere intervistati, tendono a esagerare il proprio malcontento.
Spesso lo fanno per ottenere sconti su acquisti futuri o, nei casi più audaci,
per richiedere rimborsi completi e la cancellazione dell’account. Non mi feci
intimidire. “Perfetto. C’è un aspetto della tua salute a cui presti particolare
attenzione ultimamente?” “Ho da poco superato i 35 anni,” rispose Daniel,
trascinando le parole, “Prima di provare il vostro servizio, l’anno scorso ho
fatto un esame del sangue generico. È saltato fuori che i miei livelli di
colesterolo LDL sono troppo elevati.”
Daniel indossava una maglietta a maniche corte bianca; rivelava spalle strette,
spigolose, un collo sottile e teso. A guardarlo, pensai che non doveva essere un
Optimizer, una delle quattro user persona su cui si basava il design del
prodotto. Forse rientrava tra i Guidance Seeker o i Disease Preventer. Per la
sua età, oltre che per la figura esile, non poteva certo essere un Fit Retiree.
Indagai. “In che modo cerchi di monitorare e migliorare il tuo colesterolo?”
“Cosa devo fare? Cerco di fare attenzione a quello che mangio. Ogni tanto vado a
correre, ma non con regolarità.”
Confermato: non era un Optimizer. Un Optimizer avrebbe parlato fino allo
sfinimento ‒ mio ‒ di sport, diete, integratori, podcast, influencer. Gli sport
che vanno per la maggiore tra gli Optimizer sono cross-fit, corsa, nuoto. Quelli
che avevo intervistato nelle settimane precedenti facevano maratone e gare di
triatlon. Tra i podcast, menzionavano spesso biohacker come Andrew Huberman,
Peter Attia, Bryan Johnson. Leggono libri di self-help come The Glucose
Revolution di Jessie Inchauspe, e Metabolical di Robert Lustig. Gli Optimizer
poi tendono a utilizzare app di tracciamento biometrico. Prodotti come Whoop,
Fitbit, Garmin, Oura. Utilizzano bilance a sensori come quelle di Withings che
offrono analisi della composizione corporea e monitoraggio della salute
cardiaca. Invece di consultare dottori, gli Optimizer chiedono consigli a
ChatGPT e Claude. I dottori, sostengono loro, pensano a curare, non a prevenire:
non ne sanno nulla di self-improvement.
Il fatto che Daniel avesse risposto in modo così misero alla mia domanda sulle
sue abitudini di fitness e alimentazione ‒ una corsetta ogni tanto e una
generica attenzione al cibo ‒ lo collocava chiaramente tra i Disease Preventer:
quelli che sì, vogliono evitare di ammalarsi, ma non dimostrano lo stesso
impegno attivo, costante degli Optimizer. Stavo per porgli un’altra domanda,
quando lui mi interruppe. “In tutta onestà, non so nulla di queste cose. Dovete
dirmi voi cosa fare. Ho accettato di partecipare a questa intervista solo per
poter parlare con qualcuno della pessima esperienza che ho avuto.” “Qualcosa
non è andato come speravi?” “Ho fatto il test a fine gennaio. Avevo undici
valori fuori range. Undici. Sono andato nel panico. Cliccavo qua e là per capire
se avessi qualcosa di grave. Una malattia. Un tumore. Ma la app non diceva
nulla. Mi consigliava di fare sport, mangiare salmone, smettere di fumare. Non
ho mai fumato e credo di nutrirmi bene. Il servizio clienti mi ha detto che in
quanto prodotto non-medico, non potete fare diagnosi. Ho pagato 179 euro per
questo test e tutto quello che avete da dirmi è di mangiare salmone?”
Daniel era decisamente un Disease Preventer di tipo ansioso. Il candidato
perfetto per un progetto su cui stavamo lavorando in quel periodo, dal titolo
Reduce Anxiety, che prevedeva nuove funzionalità per ridurre l’ansia in caso di
referti che potevano apparire preoccupanti. Cliccai sul tasto “Eureka” del
software di videochiamata per evidenziare quel momento e presentarlo al team più
tardi, come spunto di riflessione.
“Puoi dirmi di più sulle sensazioni che hai provato quando hai ricevuto il
referto?” “Panico. Ho telefonato al mio dottore. Mi disse che non avrei dovuto
spendere soldi per un servizio del genere. Che sarei dovuto andare da lui. Ma
lui non mi è mai stato d’aiuto. Dice sempre ‘Va tutto bene’, anche quando lo
vedo con i miei occhi che i risultati non sono nella norma.” “E cosa hai fatto
allora?” “Non avevo altra scelta. Sono andato in studio da lui. Mi ha fatto un
altro prelievo. Una settimana dopo mi ha chiamato. I risultati non erano diversi
dai vostri, ma secondo lui non c’era nulla di strano. Erano appena passati
Natale e Capodanno, era normale che trigliceridi, glucosio, insulina fossero un
po’ sballati, diceva. E che stress e cattivo sonno potessero influenzare
cortisolo, glicemia e altre cose. Dovrò rifare i test tra quattro mesi.” “C’è
qualche contenuto tra quelli proposti dalla app che hai trovato di qualche
utilità?” “No.” “Cosa avresti voluto trovare in una app ideale, in quel
momento?” “Dirmi chiaramente che non stavo per morire. Ricevere consigli
personalizzati. Darmi una lista di integratori da prendere. Quello sarebbe un
buon inizio.” “Prendi qualche integratore?” “Per ridurre stress e infiammazione
prendo curcumina, quercetina e bromelina.” “Te li ha consigliati il dottore?”
“No. Lui dice che non sono scientificamente provati. Li ho trovati su Internet.”
“Stanno funzionando?” “Ho cominciato da poco.”
> Il mercato globale del settore Health Tech appare in forte crescita ‒ stimata
> circa al 7% annuo ‒, trainato dalla crescente domanda di soluzioni sempre più
> accessibili e personalizzate. Si stima che il settore possa raggiungere un
> fatturato di quasi 200 miliardi di dollari entro la fine del 2025.
Quando il tempo a disposizione stava per terminare, chiesi a Daniel se avesse
qualcosa da aggiungere. Disse di no. Conclusi ringraziandolo per il tempo che mi
aveva dedicato. Lui ricambiò con una smorfia insoddisfatta, lo schermo si fece
buio. Finii il mio caffè in una sorsata e gli inviai un’e-mail con le
informazioni su come riscuotere l’infusione endovenosa di vitamina C presso il
nostro laboratorio di Mitte. Tre giorni dopo, ricevetti un suo messaggio. Voleva
farmi sapere che era stato al laboratorio per l’infusione. Qualche ora dopo,
ChatGPT gli ha assicurato che è normale non avvertire un effetto immediato dopo
un’infusione di vitamine, che spesso i risultati si manifestano gradualmente.
Avrebbe riprovato in futuro, diceva.
Parte III: La società della stanchezza
Secondo un rapporto di Statista del febbraio 2025, il mercato globale del
settore Health Tech appare in forte crescita ‒ stimata circa al 7% annuo ‒,
trainato dalla crescente domanda di soluzioni sempre più accessibili e
personalizzate. Si stima che il settore possa raggiungere un fatturato di quasi
200 miliardi di dollari entro la fine del 2025. Il mercato analizzato da
Statista si articola in tre segmenti principali: fitness tracking, consultazioni
online e trattamenti digitali con l’uso di biosensori per diagnosi e cura.
Questo trend si manifesta in larga parte nella proliferazione di applicazioni
dedicate alla gestione autonoma della salute, arricchite spesso
dall’integrazione di modelli linguistici di grandi dimensioni (Large Language
model, LLM) presi in prestito da OpenAI o Alphabet, altre volte creati di sana
pianta.
Un caso tra tutti quello di SelfDecode, start up di base a Miami che si
definisce l’unica azienda al mondo a fornire direttamente al consumatore un
“punteggio di rischio poligenico” basandosi sull’analisi del DNA ed esami di
laboratorio. Questa è la promessa, o in gergo tech lo “Unique Value Proposition”
di SelfDecode, che si riflette nel classico, pomposo inciting incident da public
speaking espresso dal CEO, Joe Cohen: “Negli anni, ho sofferto di settantacinque
diversi problemi di salute. I medici non potevano curarmi, così ho dovuto
pensarci io. Molti anni e milioni di dollari dopo, sono stato in grado di usare
la mia genetica per risolvere tutti i miei problemi.”
Tralasciando per un momento la disarmante performatività che si cela, neanche
troppo velatamente, dietro queste parole ‒ e immagini, se avete dato un’occhiata
a come si presenta il CEO di SelfDecode in fondo alla homepage ufficiale ‒, si
nota nel proliferare di questi nuovi prodotti un desiderio sempre più ossessivo
di controllo sull’io che prende le mosse da una progressiva perdita di fiducia
nella medicina tradizionale, spesso percepita come ostacolo: quello scomodo
middle man, appunto, di cui è meglio sbarazzarsi.
Nel libro La società della stanchezza, pubblicato per la prima volta in tedesco
(Müdigkeitsgesellschaft) nel 2010 e giunto alla sua sesta edizione uscita in
Italia nel 2020, il filosofo Byung-Chul Han esplora e critica in modo incisivo
questa spinta ossessiva verso il continuo miglioramento di sé. Un concetto che
affonda le radici in una delle idee cardine del secolo corrente, secondo la
quale un progresso individuale costante sia non solo possibile, ma dovuto. Han
vede in questo mantra una forma di autosfruttamento che, nell’incessante ricerca
della massima performance, non può che portare l’individuo al collasso.
> Nel proliferare dei prodotti del settore Health Tech si nota un desiderio
> sempre più ossessivo di controllo sull’io che prende le mosse da una
> progressiva perdita di fiducia nella medicina tradizionale, spesso percepita
> come ostacolo.
Secondo Byung-Chul Han, questa dinamica caratterizza la fine della “società
immunologica” del secolo scorso che aveva come categoria fondamentale
l’alterità, ovvero l’estraneità di batteri e virus da sconfiggere: “Oggi,
invece, al posto dell’alterità abbiamo la differenza, che non provoca alcuna
reazione immunitaria […] non è causa di malattia.” Qui Han allude
tangenzialmente all’eguale di Baudrillard de La trasparenza del male. Saggio sui
fenomeni estremi (1991), per definire un nuovo tipo di violenza che l’individuo
contemporaneo si trova ad affrontare: una violenza che non è più volta verso
l’esterno, ma l’interno. Una “violenza della positività” che non presuppone più
alcuna ostilità perché si sviluppa in una società ormai sterilizzata. Svanisce
quindi una volta per tutte, nell’analisi di Han, la polarizzazione
interno-esterno, perché la violenza oggi è “sistemica, vale a dire immanente al
sistema”: un’infiammazione interna dell’Io che si sente in costante difetto
nell’odierna società della prestazione (Leistungsgesellschaft).
L’estremo di questa visione è il doping, che “trasforma non solo il corpo, ma
l’essere umano nel suo complesso in una macchina da prestazione che deve
funzionare indisturbata.” L’individuo da ottimizzare rifugge così da qualsiasi
divieto o ostacolo ‒ da qui, anche il suo compiaciuto svincolarsi dalla scienza
normale ‒ e si allinea invece con la società della libera volontà, al centro
della quale può finalmente dirsi unico player incontrastato, soggetto di
prestazione che, ora pienamente libero, “concorre con se stesso e cade sotto la
costrizione distruttiva a doversi superare costantemente.” Questo perenne senso
di insufficienza dà origine a una guerra viziosa che si svolge tutta all’interno
del soggetto e che, nella ricerca di un Io-Ideale irraggiungibile, idealmente
immortale, conduce necessariamente al collasso: il burnout.
“Il burnout è il risultato della concorrenza assoluta. […] Di fronte
all’Io-Ideale, l’Io reale appare come un fallito, che viene coperto di
autorimproveri. L’Io fa guerra a se stesso. In questa guerra non può esserci un
vincitore, perché la vittoria termina con la morte di chi vince. Il soggetto di
prestazione si distrugge nella vittoria. La società della positività, che crede
di essersi liberata da ogni costrizione estranea, si impiglia in autocostrizioni
distruttive.” Ecco qui spiegata l’ansia irrisolvibile di un Disease Preventer
impossibile da soddisfare: scettico del parere medico, deluso dalle
applicazioni, perso nelle sue ricerche online. Un destino terrificante.
> Il perenne senso di insufficienza dà origine a una guerra viziosa che si
> svolge tutta all’interno del soggetto e che, nella ricerca di un Io-Ideale
> irraggiungibile, idealmente immortale, conduce necessariamente al collasso: il
> burnout.
Byung-Chul Han però si sforza di trovare una soluzione positiva a tutto questo.
Per farlo, attinge al Saggio sulla stanchezza (1991) di Peter Handke, in cui
vengono esplorati due tipi di stanchezza: una “stanchezza solitaria, priva di
mondo”, quella del burnout, distruttiva perché causata da un senso di costante
mancanza; e una “stanchezza fiduciosa del mondo”, che risulta invece nel
non-fare come atto di resistenza contemplativa, generativa. Han scrive: “[La
stanchezza fiduciosa] non è uno stato nel quale ogni senso svanirebbe. In essa
invece si risveglia una particolare capacità di vedere.”
Leggendo questo passaggio mi è tornato alla mente Horacio Oliveira, protagonista
del romanzo Il gioco del mondo (1969, ed. or. 1963) di Julio Cortázar, quando si
trova ad affermare esattamente e forse ancora più incisivamente questo stesso
cambio di paradigma, da una stanchezza del difetto a una stanchezza del non-fare
come rinuncia consapevole: “dietro ad ogni azione si nascondeva la protesta
[…] in ogni atto era insita l’ammissione di una carenza, di qualcosa non ancora
fatto e che era possibile fare, la protesta tacita di fronte alla continua
evidenza della mancanza, della diminuzione, della pochezza del presente. […] Era
meglio rinunciare, perché la rinuncia all’azione era la protesta medesima e non
la sua maschera.”
Qualche settimana dopo la chiacchierata con Daniel, mi svegliai in piena notte
con formicolii ai piedi e alle mani, pruriti che nei giorni successivi sarebbero
diventati veri e propri bruciori, accompagnati da un fastidioso senso di nausea.
Mi sentivo sempre stanco, i muscoli molli, vuoti. Una mattina prima di andare in
ufficio, mi presentai in laboratorio per fare un esame completo su oltre
sessanta marker. La sera del giorno dopo, una notifica mi avvisava che i
risultati erano pronti. Aprii la app e scoprii con sollievo che tutti i valori
erano in regola, eccetto due: la vitamina B6 aveva fatto un salto del 250% in
più rispetto al test precedente e la vitamina D era ben oltre la soglia massima
dei livelli di riferimento per individui adulti.
Tra i sintomi di eccesso di vitamina B6 ci sono formicolii agli arti e
intorpidimenti. Mentre l’eccesso di vitamina D può causare nausee. Non c’era
altra spiegazione: entrambi i valori erano schizzati alle stelle a causa delle
dosi massicce di integratori prescritti dalla nutrizionista olistica che seguiva
religiosamente le opinioni dei biohacker di Instagram. Smisi immediatamente di
prendere integratori, i formicolii svanirono nel giro di un paio di settimane.
Nella mia piccola rinuncia ripresi a stare bene, normalmente bene.
L'articolo Teorie e pratiche della stanchezza proviene da Il Tascabile.
La tecnologia non ha solo trasformato il nostro modo di vivere, ma ha anche
ridefinito il nostro immaginario. Dai circuiti stampati ai sigilli…
L'articolo Esoterismo e tecnologia: i cerchi magici del digitale sembra essere
il primo su L'INDISCRETO.
L a narrazione dominante sull’intelligenza artificiale (IA o AI, Artificial
Intelligence, all’inglese) racconta di una tecnologia rivoluzionaria in grado di
trasformare radicalmente la nostra società a partire dal modo in cui produciamo
valore con il nostro lavoro. Dai Large language models ai sistemi predittivi,
dalle automazioni industriali alle piattaforme digitali, l’IA promette
efficienza, ottimizzazione di processi, risorse e decisioni e una maggiore
libertà rispetto alle mansioni più ripetitive. Ma al contrario di quanto si
possa pensare, non è una buona notizia.
Per comprendere l’impatto dell’IA sul mondo del lavoro, è necessario partire
dalle radici storiche della sua logica operativa: gli algoritmi. Per chi non lo
avesse ancora chiesto a ChatGPT, un algoritmo è una sequenza finita di
istruzioni che, eseguite in un ordine preciso, permettono di risolvere un
problema o svolgere un compito e possono essere espresse in vari modi: con il
linguaggio naturale, con diagrammi di flusso o con il codice informatico.
Pensiamo alla ricetta per la preparazione di un piatto o alle istruzioni per
assemblare un prodotto IKEA: anche questi sono algoritmi.
Come osserva Matteo Pasquinelli in The Eye of the Master: A Social History of
Artificial Intelligence (2023), ben prima della loro applicazione alle moderne
reti neurali, gli algoritmi hanno sempre rappresentato una forma di
automatizzazione della decisione, da quelli meccanici del primo Ottocento ai
modelli statistici del Ventesimo secolo; gli algoritmi, infatti, non nascono per
replicare l’intelligenza biologica dell’uomo nel suo insieme, ma come strumenti
per catturare, sistematizzare e riprodurre l’intelligenza umana applicata al
lavoro. Questa intelligenza del lavoro non è un’astrazione individuale, ma un
sapere pratico che si sviluppa nell’attività collettiva, nell’interazione con
strumenti e tecnologie.
Fin dall’epoca industriale i processi produttivi sono stati scomposti in
operazioni elementari rese misurabili e trasferite alle macchine sotto forma di
algoritmi o, se preferiamo, istruzioni. Una logica che oggi troviamo nei sistemi
di IA, i quali funzionano proprio grazie a una vasta accumulazione di conoscenza
umana estratta dal lavoro, trasformata in dati e utilizzata per addestrare i
modelli a riconoscere schemi (pattern) e prendere decisioni.
> Gli algoritmi non nascono per replicare l’intelligenza umana nel suo insieme,
> ma come strumenti per catturare, sistematizzare e riprodurre quella applicata
> al lavoro.
Il lavoro dal quale si estrae la conoscenza non è solo quello salariato, ma
anche quello informale gratuito ‒ si pensi ai social media dove gli utenti
generano contenuti, interazioni e metadati che le aziende usano per addestrare
IA sempre più sofisticate ‒ così come i prodotti della cultura e della
creatività, anch’essi inglobati in questa dinamica estrattiva (dataset come
LAION-5B contengono miliardi di immagini prese dal web, molte delle quali
provenienti da artisti e fotografi che non hanno dato il loro consenso e che
vedono il loro stile replicato fedelmente da sistemi come Midjourney e Stable
Diffusion) e infine l’interazione diretta dell’uomo con la macchina, per esempio
attraverso i chatbot e gli assistenti vocali, dove il semplice atto di
comunicare con la tecnologia contribuisce a perfezionarla.
Questa accumulazione di conoscenza non è affatto neutrale. La tecnologia subisce
sempre l’influenza della società che la sviluppa: prende forma sulla base di
obiettivi precisi che aderiscono a un sistema di valori specifici. Non è un caso
che l’intelligenza artificiale venga presentata prima di tutto come uno
strumento per ottimizzare processi e decisioni, per produrre di più e più
velocemente. In un sistema che pone l’efficienza al centro, anche la conoscenza,
il lavoro e perfino la creatività finiscono per essere trattati come risorse da
gestire secondo logiche di rendimento.
L’intelligenza artificiale, in questo scenario, non si limita a processare
informazioni: dalle fabbriche alle piattaforme digitali, l’IA sta ridefinendo i
meccanismi di controllo, organizzazione e accesso al mondo del lavoro, a partire
dalle assunzioni, dove algoritmi di screening analizzano curriculum, test
psicometrici e persino espressioni facciali attraverso i videocolloqui,
assumendo o escludendo i candidati senza alcuna trasparenza sui criteri
adottati. A ciò si aggiungono l’incremento della sorveglianza sui dipendenti,
l’assegnazione di turni e mansioni sulla base di obiettivi sempre più esigenti
spesso calcolati da sistemi statistici e la valutazione “intelligente” delle
performance che decide automaticamente sui licenziamenti. Da questo punto di
vista l’IA tratta gli esseri umani alla pari: come macchine da valutare,
ottimizzare o dismettere e sostituire con nuove unità.
Questo non è un fenomeno nuovo. Con l’avvento della rivoluzione industriale e
dell’automazione, l’introduzione di telai meccanici, filatoi e motori a vapore
consentì aumenti significativi della produzione, ma le conseguenze per gli
operai furono spesso drammatiche. Un esempio emblematico è quello dell’industria
tessile inglese dei primi dell’Ottocento, nella quale centinaia di migliaia di
tessitori artigiani qualificati persero il lavoro, sostituiti da un numero
inferiore di addetti alla gestione dei nuovi telai meccanici, pagati con salari
più bassi e costretti a condizioni di lavoro più alienanti.
> Ogni ondata tecnologica è stata inizialmente presentata come un’opportunità
> per produrre di più lavorando meno e in condizioni migliori. Tuttavia, la
> realtà ha spesso tradito queste aspettative.
E ancora, nelle fabbriche tessili e siderurgiche dell’Inghilterra vittoriana,
turni di dodici, quattordici ore giornaliere erano la norma, così come l’impiego
di manodopera femminile e minorile a bassissimo costo. I primi decenni dell’era
industriale e dell’automazione videro anzi un inasprimento dello sfruttamento:
solo dopo dure lotte sindacali e sociali si arrivò alle prime leggi sul lavoro
nel Regno Unito (cfr. il Factories Act del 1833) che limitarono i turni in
fabbrica a dieci ore e bandirono il lavoro minorile. Un dato interessante: gli
effetti benefici della maggiore produttività si fecero attendere per intere
generazioni. I salari medi in Inghilterra iniziarono infatti a crescere
sensibilmente solo dopo il 1850, quasi settant’anni dopo l’inizio della
rivoluzione industriale .
Nel corso del tardo Diciannovesimo secolo e poi nel Ventesimo secolo, dalla
meccanizzazione delle fabbriche fino all’informatizzazione e alla
digitalizzazione, ogni ondata tecnologica è stata inizialmente presentata come
un’opportunità per produrre di più lavorando meno e in condizioni migliori.
Tuttavia, la realtà ha spesso tradito queste aspettative. L’introduzione della
catena di montaggio negli stabilimenti automobilistici all’inizio del Novecento,
come nella Ford Motor Co., ne è un esempio: aumentò enormemente la produttività
ma rese il lavoro più ripetitivo e alienante. Gli operai vennero ridotti a
ingranaggi umani, con gesti sincronizzati al nastro trasportatore, una
condizione immortalata nel film di Charlie Chaplin, Tempi moderni, del 1936,
ispirato dalle misere condizioni nelle quali era sprofondata l’Europa durante il
periodo della Grande depressione.
Henry Ford fu costretto a raddoppiare i salari nel 1914, soprattutto per
compensare la durissima disciplina di fabbrica che causava alti tassi di
abbandono del personale. Ancora una volta, la tecnologia di per sé non umanizzò
il lavoro: furono necessarie pressioni sindacali e organizzative perché, ad
esempio, negli anni Venti e Trenta, insieme a salari più alti si affermasse la
giornata lavorativa di otto ore. Nonostante ciò, l’idea che la sola tecnologia
avrebbe liberato l’umanità dalla necessità del lavoro è rimasta a lungo
attraente. L’economista John M. Keynes nel suo Economic Possibilities for Our
Grandchildren del 1930, profetizzò che entro pochi decenni la settimana
lavorativa si sarebbe ridotta a quindici ore grazie all’aumento vertiginoso
della produttività . Analogamente, nel 1965, una commissione del senato USA
stimò che entro l’anno 2000 si sarebbe lavorato solo quattordici ore a settimana
.
> Per molto tempo si è creduto che la sola tecnologia avrebbe liberato l’umanità
> dalla necessità del lavoro.
Queste previsioni, come sappiamo, si sono rivelate errate: nei Paesi avanzati
del Ventunesimo secolo, la settimana lavorativa standard resta intorno alle 40
ore e in alcuni casi il trend si è invertito. Negli Stati Uniti, ad esempio, gli
impiegati qualificati spesso fanno straordinari ben oltre il classico orario
9-17, senza diritto ad alcun pagamento extra (cfr. Fair Labor Standards Act). Il
dividendo del progresso tecnologico non si è tradotto in più tempo libero per la
maggioranza, ma è stato in gran parte incamerato altrove. Come osservato dallo
storico Rutger Bregman nel suo libro Utopia per realisti. Come costruire davvero
il mondo ideale (2017, ed. or. 2014), la società dispone da tempo dei mezzi
tecnici per lavorare meno, eppure la riduzione dell’orario si è fermata: “ci era
stato promesso un futuro di tempo libero, ma ci siamo ritrovati in una
‘desertificazione del tempo libero’”, in cui molti lavoratori faticano a
ritagliarsi momenti di riposo.
La ragione di questo fenomeno è certamente legata a chi controlla la tecnologia
e a quale scopo. Sotto il capitalismo, le scelte sull’uso delle innovazioni sono
guidate prima di tutto dal profitto. Non è la tecnologia in sé a determinare
esiti equi o iniqui, ma il contesto socioeconomico in cui viene applicata.
Un’evidenza che spesso tendiamo a trascurare.
In passato, laddove vi sono state forti organizzazioni dei lavoratori e
interventi pubblici attenti alla giustizia sociale, i guadagni di una maggiore
produttività legata all’automazione sono stati distribuiti in modo relativamente
più ampio, ad esempio nel trentennio d’oro 1945-1975 in Occidente,
caratterizzato da crescita condivisa, salari in aumento e riduzione dell’orario
in alcuni Paesi. Al contrario, in assenza di contropoteri o di regolamentazioni,
le imprese tendono a usare l’automazione con più disinvoltura per ridurre i
costi e aumentare i margini di profitto, accentuando il divario tra chi possiede
il capitale e chi vende la propria forza lavoro.
L’IA e l’automazione avanzata potrebbero consentire realmente di produrre valore
con meno sforzo umano, aprendo la strada a orari di lavoro più brevi, salari più
alti e a una maggiore creatività dei lavoratori nei processi produttivi. A ciò
si aggiungono i vantaggi, molti, che questa tecnologia può portare nel campo
della ricerca, per esempio nel settore medico-scientifico. Tuttavia, in assenza
di cambiamenti strutturali, l’IA rischia di seguire la traiettoria delle
precedenti automazioni.
> Non è la tecnologia in sé a determinare esiti equi o iniqui, ma il contesto
> socio-economico in cui viene applicata.
Di fatto, molte implementazioni attuali di IA nelle aziende mirano
esplicitamente a tagliare costi e massimizzare l’efficienza, non a migliorare la
vita dei dipendenti, i quali ne sembrano già consapevoli: un sondaggio citato
dalla Brookings Institution rileva che circa metà degli americani si aspetta che
l’uso crescente dell’IA aumenti le disuguaglianze di reddito e polarizzi
ulteriormente la società . Anche istituzioni internazionali come l’OCSE
(Organizzazione per la Cooperazione e lo Sviluppo Economico) e l’FMI (Fondo
Monetario Internazionale) avvertono che senza adeguate politiche, l’IA potrebbe
accentuare i divari esistenti . Un segnale allarmante viene già dai dati
macroeconomici: uno studio della Bank for International Settelments (BIS) su 86
Paesi nel periodo 2010-2019 mostra che a maggiori investimenti in IA corrisponde
una maggiore disuguaglianza di reddito .
Inoltre, ancora secondo la BIS, l’adozione di IA si accompagna a una contrazione
dell’occupazione complessiva, a uno spostamento dell’occupazione verso posizioni
di alta qualificazione manageriale e – elemento cruciale – a una riduzione della
quota del lavoro sul reddito nazionale . Questo significa che una porzione
crescente del valore aggiunto prodotto va ai profitti e una porzione calante va
ai salari. In termini più banali, l’IA sta aiutando il capitale a prendere una
fetta sempre più grande della torta.
Questa dinamica non è nuova: dal tardo Novecento si osserva una divergenza
marcata tra produttività e salari medi. Negli Stati Uniti, ad esempio, come
riporta l’Economic Policy Institute, mentre la produttività del lavoro è
cresciuta costantemente grazie all’automazione (+61% circa dal 1979 al 2020), il
salario orario medio del lavoratore tipico è rimasto quasi fermo in termini
reali (+17% nello stesso periodo) . Il risultato è un gap crescente tra quanto
produce un lavoratore e quanto guadagna. In parallelo, la quota dei redditi da
capitale (profitti, dividendi, rendite) è aumentata, mentre la quota destinata
al lavoro ha raggiunto minimi storici in molte economie avanzate .
> Molte implementazioni attuali di IA nelle aziende mirano esplicitamente a
> tagliare costi e massimizzare l’efficienza, non a migliorare la vita dei
> dipendenti.
Uno studio dell’economista Daron Acemoglu (MIT, Massachusetts Institute of
Technology), conferma i dati dell’Economic Policy Institute sopra citati,
quantificando l’impatto dell’automazione sull’aumento delle disuguaglianze di
reddito negli Stati Uniti. Secondo la sua ricerca, l’automazione è responsabile
da sola di circa metà dell’aumento del divario salariale tra i lavoratori negli
ultimi quarant’anni . In altri termini, macchine e software che hanno
rimpiazzato il lavoro umano spiegano almeno il 50% della crescita della
disuguaglianza salariale registrata dal 1980 a oggi. L’intelligenza artificiale
sembra inserirsi in questo trend: invece di realizzare la storica utopia che
prevede lo sfruttamento delle macchine in favore di un maggiore benessere per
gli esseri umani, viene utilizzata soprattutto per aumentare ulteriormente i
profitti e il controllo sui dipendenti.
È il caso di citare alcuni esempi concreti per comprendere come l’IA, lontano
dall’aver inaugurato una nuova era di emancipazione, sia in continuità con le
forme di sfruttamento del passato. Un caso emblematico è quello di Amazon, il
colosso della logistica e del commercio elettronico, che ha integrato
l’intelligenza artificiale nei suoi magazzini con un livello di monitoraggio
senza precedenti. L’azienda utilizza sistemi algoritmici come ADAPT (Associate
Development and Performance Tracker), che tracciano ogni movimento dei
lavoratori in tempo reale, calcolando il loro time off task ‒ il tempo trascorso
senza eseguire operazioni di scansione o movimentazione merci. Se il sistema
rileva una quantità eccessiva di tempo inattivo, può inviare automaticamente un
avviso di performance insufficiente e generare lettere di licenziamento senza
intervento umano diretto.
Un fenomeno simile si osserva nella gig-economy, dove piattaforme come Uber,
Glovo e Deliveroo impiegano sistemi di gestione algoritmica per dirigere il
lavoro di autisti e rider. Come illustrato da un recente articolo di Robert
Booth sul Guardian, gli algoritmi assegnano automaticamente le consegne,
regolano le tariffe e monitorano le prestazioni di ciascun lavoratore attraverso
il GPS e altri dati raccolti dai dispositivi mobili. Il sistema impone ritmi
serrati e premia coloro che accettano più corse o consegne, mantenendo tempi
stretti e accumulando punteggi elevati. Chi rifiuta troppi incarichi o non
mantiene un certo livello di efficienza può essere escluso dall’assegnazione
delle chiamate, il che equivale a una sospensione o a un licenziamento di fatto,
senza che vi sia mai stato un contratto formale con la piattaforma.
> Macchine e software che hanno rimpiazzato il lavoro umano spiegano almeno il
> 50% della crescita della disuguaglianza salariale registrata dal 1980 a oggi.
Questo sistema riduce la possibilità di contrattazione collettiva e porta i
lavoratori a interiorizzare le regole dell’algoritmo, spingendoli a lavorare più
ore e ad accettare condizioni sempre più precarie per rimanere competitivi. In
alcuni casi, è stato documentato come rider e autisti siano portati a violare
regole del traffico o a mettere a rischio la propria sicurezza per rispettare le
tempistiche imposte dalla piattaforma.
Un altro ambito in cui l’IA sta ridefinendo in peggio le condizioni lavorative è
la grande distribuzione e il settore della ristorazione, dove vengono impiegati
sistemi di scheduling algoritmico per ottimizzare i turni del personale in base
alla domanda prevista. Software come Kronos, UKG e Shyft analizzano dati storici
di vendita, previsioni meteo e altri fattori per decidere quanti dipendenti
devono essere in servizio in ogni ora del giorno. Questa logica di just-in-time
scheduling (programmazione dei turni in tempo reale) consente ai datori di
lavoro di minimizzare il tempo in cui i dipendenti sono pagati senza produrre
valore diretto, riducendo i costi. Tuttavia, per i lavoratori significa orari
imprevedibili, turni comunicati all’ultimo minuto e flessibilità imposta
dall’alto.
Al di fuori di questi settori specifici, si stanno diffondendo anche forme di
sorveglianza digitale negli uffici, con l’adozione di bossware ‒ software di
monitoraggio avanzati che registrano ogni attività svolta dai dipendenti su
computer aziendali. Alcuni di questi sistemi, basati sull’IA, scattano
screenshot dello schermo a intervalli casuali, tracciano i movimenti del mouse e
registrano il tempo trascorso su ogni applicazione. Alcuni software più avanzati
analizzano persino il tono di voce degli operatori dei call center per suggerire
script o valutare automaticamente la loro performance.
Questi strumenti, introdotti per migliorare la produttività, finiscono per
aumentare la pressione psicologica sui lavoratori e riducono la loro autonomia.
Come riporta il Times, studi accademici hanno ampiamente dimostrato che
l’eccesso di sorveglianza tende a ridurre la produttività nel lungo periodo e ad
aumentare il turnover, poiché genera insoddisfazione e alienazione. Nonostante
ciò, molte aziende continuano a investire in questi strumenti, poiché nel breve
periodo permettono di spremere più lavoro dai dipendenti senza dover migliorare
salari o condizioni.
> Strumenti introdotti per migliorare la produttività finiscono per aumentare la
> pressione psicologica sui lavoratori e riducono la loro autonomia.
Questi esempi mostrano come l’IA venga oggi impiegata per rendere il lavoro più
frammentato, più sorvegliato e più precario senza alcuna discontinuità rispetto
al passato. Premi Nobel per l’economia come Paul Romer e Joseph Stiglitz
concordano su questa analisi, e hanno citato il concetto di “trappola di Turing”
per descrivere la tendenza delle imprese a investire in IA che replicano e
controllano il lavoro umano invece di sviluppare tecnologie per migliorarne le
condizioni. L’espressione trappola di Turing (coniata da Erik Brynjolfsson)
allude al fatto che puntare a sostituire l’uomo con la macchina può generare
profitti nell’immediato, ma lascia la società con meno posti di lavoro e una
domanda aggregata stagnante perché i lavoratori impoveriti consumano meno.
Questa, lo abbiamo detto, non è una traiettoria obbligata, ma il frutto di
scelte di politica tecnologica e incentivi economici distorti: ad esempio, negli
Stati Uniti attuali il costo del capitale (anche per vantaggi fiscali e
deregolamentazione) è relativamente basso rispetto al costo del lavoro, perciò
le imprese guardano all’automazione come una risorsa. Le aziende leader nell’IA
e nella tecnologia (Google, Amazon, Microsoft, Meta, Apple) sono oggi tra le più
ricche al mondo. Hanno profitti stratosferici e capitalizzazioni di borsa
enormi, in buona parte grazie a piattaforme e sistemi automatizzati che possono
essere estesi su scala globale senza richiedere un aumento proporzionale della
manodopera.
Allo stesso tempo, in aziende come Amazon ‒ dove sono state introdotte decine di
migliaia di unità-robot nei magazzini ‒ si continua a impiegare milioni di
lavoratori sparsi per il mondo, in condizioni precarie, con contratti
temporanei, salari di base modesti e un controllo asfissiante. L’automazione
consente a queste aziende di far crescere la produttività per dipendente senza
dover migliorare proporzionalmente le retribuzioni e le condizioni del
personale.
Sebbene sia solo un’unità di misura che riflette la valutazione complessiva
dell’azienda rispetto al numero dei suoi dipendenti, il valore di mercato per
dipendente di aziende come Google o Apple è di svariati milioni di dollari, ma
come sappiamo la paga media dei loro lavoratori è ben lontana da quelle cifre:
indice che la maggior parte del valore creato, ancora una volta, va al capitale
e non al lavoro. In settori come l’automotive o la manifattura avanzata, dove
l’automazione robotica è alta, si osserva spesso una riduzione dell’occupazione
e la creazione di pochi ruoli altamente specializzati. Ad esempio, una fabbrica
moderna di auto produce molte più unità per lavoratore rispetto a 30 anni fa e
impiega un numero inferiore di operai, mentre i profitti per auto venduta
tendono a crescere concentrandosi su capitale e management. Questo porta a meno
posti di medio reddito, più posti di alto livello (ingegneri, manager) e una
massa enorme di lavori a basso reddito (magari proprio i driver che portano in
giro i manager di cui sopra, coordinati da app come Uber).
> L’eccesso di sorveglianza tende a ridurre la produttività nel lungo periodo e
> ad aumentare il turnover, poiché genera insoddisfazione e alienazione.
L’IA, come altre tecnologie, tende a generare vantaggi che premiano pochi grandi
attori, quelli con accesso ai migliori algoritmi, alla mole di dati necessaria
per addestrarli e ai capitali per investirvi: ciò aumenta il potere di mercato
di queste imprese permettendogli di imporre le loro condizioni sul lavoro.
Quando questi attori acquisiscono anche un’influenza politica diretta, si pensi
a Elon Musk e al suo ruolo nel governo americano, il rischio si amplifica: Il
loro controllo sulle infrastrutture digitali e sui dati si traduce in un potere
di orientamento delle politiche pubbliche, influenzando le strategie nazionali
per l’IA, gli investimenti in innovazione e le scelte fiscali in favore delle
Big Tech. Inoltre, hanno un impatto decisivo sulla regolamentazione,
determinando il grado di protezione della privacy, le norme sulla gestione dei
dati, le leggi sulla concorrenza e le regole sull’impiego dell’IA nel lavoro e
nell’ordine pubblico. Infine, la loro posizione dominante incide sul dibattito
sociale, orientando la percezione pubblica sulle implicazioni etiche della
tecnologia, con il rischio di consolidare narrazioni che legittimano il loro
stesso potere.
In assenza di correttivi, questo continuerà a intensificare lo sfruttamento e la
concentrazione dei frutti della tecnologia nelle mani di pochi. Come abbiamo
visto, non si tratta di un esito ineluttabile causato dalla tecnologia in sé, ma
dal modo in cui è governata. Le stesse macchine che sotto certe condizioni
producono alienazione e sfruttamento, in altri scenari potrebbero realmente
offrire un contributo positivo di crescita condivisa e aggiungerei sostenibile,
laddove scelte etiche e non esclusivamente economiche intorno all’IA potrebbero
spingere a reinvestire i profitti nella ricerca di soluzioni che ne riducano
anche l‘impatto ambientale. La fine del lavoro sfruttato è possibile da molto
tempo: il problema rimane politico ed economico, non tecnico.
Redistribuire i benefici dell’automazione è la sfida cruciale. Ciò potrebbe
avvenire tramite varie strade discusse da autorevoli economisti contemporanei:
dalla riduzione dell’orario di lavoro (ad esempio sperimentando la settimana di
4 giorni senza taglio salariale), a sistemi di partecipazione agli utili per i
dipendenti, a una tassazione dell’automazione con cui finanziare redditi minimi
o formazione continua, fino a modelli più radicali di democratizzazione delle
decisioni tecnologiche in azienda, coinvolgendo i lavoratori nella scelta di
quali processi automatizzare e come. Senza interventi di questo genere, è
prevedibile che l’IA prosegua lungo il cammino storico tracciato dalla storia
delle automazioni: crescita della produttività accompagnata da un aumento del
divario economico tra chi possiede la tecnologia e chi ne subisce l’utilizzo.
Come cittadini abbiamo il compito di stimolare un dibattito su quali scelte
sociali fare attorno all’IA. Le recenti regolamentazioni europee in materia di
intelligenza artificiale sono già un buon esempio in questa direzione, le prime
al mondo a fissare i limiti etici dell’industria digitale a tutela dei cittadini
in materia di privacy, diritti umani, diritto d’autore, informazione,
concorrenza sleale. Si tratta di normative che hanno attirato le critiche degli
sviluppatori americani, i quali lamentano la difficoltà di adattare i loro
prodotti a regolamentazioni così scrupolose dimostrando, di fatto, la necessità
di tali provvedimenti per la protezione dei cittadini.
> La fine del lavoro sfruttato è possibile da molto tempo: il problema rimane
> politico ed economico, non tecnico.
Occorre ricordare che l’automazione può e deve avere uno sviluppo controllabile:
è la società nel suo insieme a doverla orientare verso il benessere collettivo,
non lo farà il mercato.
L'articolo Come l’IA (non) trasforma il lavoro proviene da Il Tascabile.
A ccanto al Centro visitatori dell’Apple Park di Cupertino in California ‒
questo immenso anello di quattro piani disegnato da Norman Foster per ospitare
più di dodicimila dipendenti ‒ c’è un uliveto. Nel 2023, l’artista Katie
Paterson e gli architetti Zeller & Moye vi hanno collocato Mirage, un’opera
d’arte composta da quattrocento colonne di vetro che misurano due metri di
altezza e che attraversano sinuosamente l’intero uliveto. Per realizzare le
colonne è stata raccolta sabbia da ogni deserto del pianeta, sviluppando una
serie di tecniche volte a tradurre le qualità di sabbia in colori e texture
diverse; in questo modo, “i deserti del mondo” sono stati “trasformati in
materiale liquido, che fluisce come una duna modellata dal vento”. Con un’opera
d’arte, Apple localizza, nel proprio quartier generale, un vero e proprio
deserto liquido, una sabbia del mondo che è in tutti luoghi senza essere in
nessuno in particolare. Osservare la luce che filtra attraverso le colonne,
dichiarano gli ideatori di Mirage, è “una forma di meditazione”. In Mirage c’è
già molto: tecnologia e architettura fluida, deserto e pratica d’estasi; come
scriveva Baudrillard a proposito della California: “la cultura stessa, laggiù, è
un deserto ‒ e occorre che la cultura sia un deserto perché le cose siano tutte
uguali e risplendano nella stessa forma soprannaturale”. Ma dove ci troviamo
esattamente quando parliamo di Cupertino?
Prima di diventare la città della Apple, Cupertino è stata gemellata con
un’altra mitologia: quello di san Giuseppe da Copertino. Fu il francescano fra
Pedro Font a battezzare “Arroyo de San José de Cupertino” il corso d’acqua lungo
il quale sarebbe sorto poi il piccolo villaggio rurale, adagiato sul bordo
occidentale della Santa Clara Valley in California; era il 1776, appena dieci
anni dopo la canonizzazione del “santo che volava”, avvenuta sotto il
pontificato di Clemente XIII. Pedro Font stava accompagnando, in qualità di
cartografo, la spedizione di Juan Bautista de Anza, un esploratore spagnolo che
fu governatore della provincia del New Mexico e che avviò la colonizzazione
europea dell’alta California. Tuttavia, per molto tempo Cupertino è stata
conosciuta con un altro nome: West Side. Si trattava di un territorio dominato
da piantagioni di prugne, susine, albicocche, ciliegie, solcato ‒ appena è stato
possibile ‒ da ferrovie, il cui impatto ha inevitabilmente accelerato la
rimodellazione del tessuto urbano. È però solo in seguito alla Seconda guerra
mondiale che la Santa Clara Valley, complice anche il boom demografico, si avvia
a diventare, da “Valley of heart’s delight” (un Eden di frutteti e piante) a
“Silicon Valley”, il motore pulsante dell’innovazione tecnologica americana.
Cupertino, con la sua “mela”, ne è ‒ almeno dagli anni Ottanta ‒ un simbolo, con
caratteristiche ugualmente edeniche.
Cosa è rimasto di quell’origine francescana risalente a fra Pedro Font? Nel 1963
è stato istituito un gemellaggio tra il borgo pugliese e la città californiana,
voluto dal sindaco Jewett di Cupertino e da Fernando Verdesca, allora sindaco di
Copertino. Il legame con il luogo di nascita del santo “volante” è in ogni caso
ben più che nominale. Here’s to the crazy ones: l’Apple Park, con la sua
struttura circolare e l’area immediatamente circostante, rappresenta il sogno di
una tecnologia che s’invola, che levita sopra il mondo; una spaceship (questo il
suo soprannome) alimentata dal sole, un tempio laico che circonda un bosco di
9.000 alberi resistenti alla siccità, con 309 varietà di specie autoctone ‒ come
in un altro giardino dell’Eden riconquistato, e insieme “a garden of pure
ideology”. Un luogo di lavoro imbevuto di magia, un regno artificiale che, come
moltissimi altri quartieri generali della Silicon Valley, si adatta a quella
strabiliante osservazione che all’inizio del Diciassettesimo secolo Martín
González de Cellorigo, figura di spicco nella Spagna dell’epoca, volle rivolgere
alla febbre di miracoli e santi che aveva invaso l’Europa cattolica: “sembra
come se si fosse voluto ridurre quei regni a una repubblica di esseri incantati,
che vivono al di fuori dell’ordine naturale delle cose”.
Torneremo presto a questa affermazione, e a quella che Brett T. Robinson chiama
Appletopia: l’immaginazione religiosa di Steve Jobs. Per ora però dobbiamo
inseguire il volo di San Giuseppe ‒ la sua tecnologia dell’estasi ‒ per vedere
cosa può ancora dirci sulla nostra contemporaneità.
Ma i santi volavano davvero?
Il primo pioniere del volo umano, Jean-François Pilâtre de Rozier, si avventurò
nel cielo di Parigi su di un pallone ad aria calda progettato dai fratelli
Montgolfier, partito da Château de la Muette. Un mese prima, il volo in
“mongolfiera” era stato testato alla Reggia di Versailles da un equipaggio
composto da un gallo, un agnello e un’anatra, lontani parenti del cane Laika,
dichiarati, a seguito del volo, “eroi dell’aria”. Siamo nell’ottobre 1783, quasi
vent’anni dopo la canonizzazione di San Giuseppe da Copertino, il santo che
levitava. Per confermare questa santità c’era voluto più di un secolo: la morte
era avvenuta nel 1663, e molto nel frattempo era cambiato; il volo di Pilâtre de
Rozier marca, infatti, un altro tipo di levitazione, “ancorata” a solide basi
scientifiche, che inaugura quell’umana conquista del cielo che dall’epoca dei
Lumi arriva fino al cosmismo contemporaneo di Elon Musk. Sciaguratamente,
Pilâtre de Rozier sarà ricordato anche come la prima vittima documentata di un
incidente aereo; egli morì tentando di traversare in mongolfiera la Manica verso
l’Inghilterra insieme a Pierre-Ange Romain, il 15 giugno 1785.
Pensare che una scienza del volo avesse interamente sostituito tutti i suoi
precedenti è però errato: più o meno nello stesso periodo della mongolfiera, un
altro congegno, una sedia a rotelle, viene vista sollevarsi in aria; la causa
non è dovuta a un meccanismo progettato da un essere umano, ma a una tecnologia
dell’estasi: a levitare con la sedia è infatti il vescovo italiano Alfonso Maria
de Liguori, oramai molto anziano e provato da numerose malattie. Il racconto
oculare proviene dal suo custode, padre Volpicelli; non è la prima volta che
questo eminente teologo, compositore e pensatore viene visto levitare: da tempo
de Liguori ha la nomea dell’uomo miracoloso, e verrà infatti proclamato santo da
papa Gregorio XVI, dopo un lungo processo di scrutinio. “Succedeva questo
all’alba della modernità” scrive Carlos Eire in They flew (2023), ovvero che
“due tipi molto diversi di levitazione si trovavano a coesistere”. Da un lato,
> una levitazione soprannaturale o preternaturale, raramente osservata e
> limitata a persone che si abbandonavano alla volontà di Dio o del diavolo;
> dall’altro, una levitazione puramente naturale, facilmente visibile a migliaia
> di persone e accessibile a chiunque avesse l’attrezzatura adeguata. Queste due
> forme di levitazione si basavano su concezioni della realtà contrastanti e
> apparentemente inconciliabili riguardo a ciò che era ritenuto possibile o
> impossibile. Erano anche radicate in diversi sistemi di credenze: uno più
> antico, che includeva Dio, un regno soprannaturale e santi levitanti, e che
> col tempo andava restringendosi e perdendo influenza; e uno più recente, che
> aveva poco o nessun bisogno di Dio, del soprannaturale o dei miracoli, e che
> continuava a espandersi, acquisendo un’influenza sempre più ampia.
Il saggio di Carlos Eire, professore di storia e studi religiosi all’Università
di Yale, è una lunga ponderazione sul fenomeno dei santi che volavano, o che
erano visti contemporaneamente in due luoghi diversi (bilocazione). Il titolo,
“Loro volavano”, lascia intuire già da subito lo spirito del libro, teso a
provocare non l’ingenua credulità dei fedeli, ma l’incredulità contemporanea
come partito preso. Eire invoca una “sospensione” dell’incredulità, invitando a
domandarci come mai, nonostante la quantità gigantesca di prove, processi e
testimonianze raccolte durante i secoli, i santi volanti sono stati relegati
“alla storia del ridicolo anziché alla storia dell’impossibile, o alla scienza
delle forze antigravitazionali”. La vicenda travagliata di Giuseppe Desa, santo
“illetterato et idiota” nato a Copertino nel 1603, è emblematica; sospeso per
tutta l’esistenza in una zona liminale tra la vergogna e il prodigio, “Frate
Asino” è stato il santo con più levitazioni documentate, non solo al chiuso, ma
anche all’aperto, in luoghi in cui difficilmente si potevano operare trucchi.
Come Teresa d’Avila prima di lui, anche Giuseppe pregò incessantemente affinché
gli attacchi estatici cessassero, senza tuttavia ottenere mai che le sue
preghiere fossero esaudite. Più volte inquisito, messo sotto processo, spedito
da un convento all’altro, venerato in vita come un santo da folle adoranti e
insieme disprezzato da chi ne temeva la carica sovversiva ‒ la soppressione
esplicita dell’ordine naturale ‒, san Giuseppe da Copertino fu visto volare da
religiosi e laici, uomini del popolo e figure regali, nonostante vivesse in
isolamento per tutta l’ultima parte della vita. “Alti prelati e nobili da ogni
angolo d’Europa” racconta Eire, “fecero il possibile per visitarlo e
testimoniarono di aver visto le sue levitazioni di persona o supplicarono invano
per il privilegio di visitarlo. Alcuni di questi personaggi appartenevano
all’élite intellettuale del cosiddetto Secolo dei Lumi, come il duca luterano
Giovanni Federico di Braunschweig-Lüneburg, patrono del razionalissimo
matematico e filosofo Gottfried Wilhelm von Leibniz, suo consigliere privato e
bibliotecario, e la regina luterana Cristina di Svezia, che impiegò il
matematico René Descartes come filosofo di corte, probabilmente perché sosteneva
che “tutto deve essere messo in dubbio”.
> La vicenda travagliata di Giuseppe Desa, santo “illetterato et idiota” nato a
> Copertino nel 1603, è emblematica; sospeso per tutta l’esistenza in una zona
> liminale tra la vergogna e il prodigio, “Frate Asino” è stato il santo con più
> levitazioni documentate.
Come altre tecnologie dell’estasi, la levitazione di san Giuseppe partecipava a
una cospirazione di agenti; era mossa – triggerata ‒ da eventi specifici, cause
particolari, stimoli sensoriali, come il gusto della comunione, l’odore
inebriante dell’incenso, il ripetersi musicale delle preghiere e dei canti
sacri; abitava indecidibilmente il teatro della carne, quello dello spirito e
quello della politica: se l’estasi mistica spingeva il corpo in una zona
sovrannaturale, sottratta al dominio biopolitico e fisicamente consegnata
all’alterità come preannuncio dell’esperienza ultraterrena, era poi lo stesso
potere terreno a ri-sequestrarla, facendola atterrare nel violento scontro tra
cattolicesimo e protestantesimo che infiammava l’Europa di quel periodo. La
conversione di Giovanni Federico duca di Brunswick-Lüneburg, che avvenne ad
Assisi nel 1651, fu proprio dovuta all’intervento indiretto di san Giuseppe da
Copertino, colto dal duca in una delle sue crisi estatiche.
Oltre alle questioni politiche, il volo di Frate Asino ‒ così come quello di
moltissime altre figure del periodo, sia santi che streghe ‒ intercettava anche
i nuovi scenari della scienza empirica, violando quelle stesse leggi che si
andavano progressivamente manifestando:
> Proprio nello stesso periodo in cui i cattolici canonizzavano santi levitanti
> e bruciavano streghe volanti, e i protestanti erano impegnati a gettare nelle
> fiamme anch’essi migliaia di streghe volanti, la scienza empirica moderna
> stava emergendo e creando dei propri cambiamenti di paradigma. Per qualche
> strana ragione, quindi, il periodo di massima diffusione degli esseri umani
> volanti nella storia occidentale coincide con lo sviluppo iniziale di un nuovo
> modo materialistico di pensare la realtà, che avrebbe respinto tutto questo
> “volare” come un nonsenso assolutamente impossibile.
Eppure, è proprio in questa specie di “nozze mistiche” tra dichiarate
impossibilità che si delinea il paesaggio dell’epoca contemporanea: non una
rottura con il passato, ma un suo irrompere ora con camuffamenti, ora con
richiami espliciti. Leggerezza, sospensione, estasi, velocità, bilocazione come
presenza in più luoghi contemporaneamente: sono diventate tutte formule a noi
più che note, dove s’incontrano insieme il volo di san Giuseppe e la forza di
gravità di Isaac Newton, con i suoi miti e le sue mele: Apple, insomma. Siamo di
nuovo a Cupertino, anche se la tortuosità di queste genealogie spesso sovrasta
la nostra capacità di leggere insieme fenomeni in apparenza disgiunti: “perché
abbiamo treni a levitazione magnetica ad alta velocità, ma sentiamo il bisogno
di mettere in dubbio tutti i resoconti su santi o streghe fluttuanti? Come
possono milioni di noi essere in più luoghi contemporaneamente tramite internet,
giorno dopo giorno, ma sentire ancora il bisogno di deridere la bilocazione?”
chiede sempre Eire, invitando a considerare che ogni epoca ha il suo regime di
credulità ‒ e d’incredibile.
Tanto nel Castello interiore quanto nella Vita, Teresa d’Avila spese moltissime
pagine per descrivere dall’interno i propri fenomeni estatici, spiegandone per
come possibile il funzionamento, la tecnologia, la fabula mistica, ciò che fa
abbattere il linguaggio contro il limite della significazione: arrobamiento,
arrebatamiento, vuelo de espiritu. I suoi voli, le sue estasi, le condizioni di
quasi-morte sono stati analizzati, contestati e scrutinati con criteri spesso
severissimi non solo dalla Chiesa, ma anche dalla stessa santa. La credulità,
sembrano dirci queste vecchie storie, è una questione assai più complessa, che
va situata di volta in volta nel suo contesto. Per esempio, la maggioranza delle
persone confida oggi nei dispositivi tecnologici ignorandone quasi completamente
il funzionamento, e anzi tutta una parte della loro efficacia immaginativa è
determinata proprio dal sostrato magico-religioso che veicolano, come dichiarato
apertamente in una pubblicità dell’IPad: “crediamo che la tecnologia dia il
meglio di sé quando è invisibile, quando sei consapevole solo di ciò che stai
facendo, non del dispositivo con cui lo stai facendo. Un iPad è la perfetta
espressione di questa idea. È semplicemente questo magico pannello di vetro che
può diventare qualsiasi cosa tu voglia”. Il tablet è forse soltanto un’altra
impressione del “Mystic writing-pad”, il “Wunderblock” (Blocco magico) tanto
amato da Freud come metafora della mente umana: una tavoletta magica che
riappare in forme continuamente rinnovate, dalle tabulae ceratae all’iPad ‒ che
infesta cioè la nostra cultura anche quando le sue tracce nella memoria
collettiva sembrano cancellate.
Iki-piirto, una variante finlandese del Printator, noto in lingua tedesca come
Wunderblock, descritto da Sigmund Freud nel suo saggio Una nota sul ‘blocco per
appunti mistico’, 1925.
Magia, superstizione, credulità, macchine mitologiche… Passando oltre il
ridicolo, la domanda veramente interessante dovrebbe essere: che cosa, della
tecnologia estatica, ci appartiene ancora, si trattiene in noi anche se facciamo
fatica a riconoscerla, o se la riteniamo datata, o offensiva? Elvio Fachinelli,
parlando della Mente estatica (1989), metteva in luce un fenomeno decisivo: con
il declino della religione come patto interpretativo del mondo, si verifica una
dinamica duplice. Da una parte, l’estasi viene relegata all’oblio, trascinando
con sé i vari contesti che un tempo le davano senso. Dall’altra, essa si
svincola dal tradizionale alveo religioso, riemergendo in spazi inaspettati e
assumendo configurazioni nuove e imprevedibili. “L’accelerazione crescente”
scriveva Fachinelli nella seconda metà del secolo scorso, “porta, per paradosso,
al crearsi di stati che finora sono stati legati perlopiù all’immobilità e alla
concentrazione individuale più intensa. Certo, si dirà queste esperienze su
larga scala non sono paragonabili a quelle individuali. Non è questo che
importa; importa quella faglia che si è aperta, grazie alla velocità crescente,
nella vita quotidiana della massa (e se è vero che nessuno di noi è massa, tutti
lo siamo)”.
> La maggioranza delle persone confida oggi nei dispositivi tecnologici
> ignorandone quasi completamente il funzionamento, e anzi tutta una parte della
> loro efficacia immaginativa è determinata proprio dal sostrato
> magico-religioso che veicolano.
Nel Ventunesimo secolo non è più solo la velocità, ma lo stato di allucinazione
permanente a movimentare le nostre esistenze. Notifiche lampeggianti come
demoni, scariche dopaminiche, glitch, lag, reflussi e collisioni di notizie che
rendono il fact-checking di fatto inutile: ad ogni loro stimolo, gli ecosistemi
tecnologici che abitiamo triggerano in noi realtà alternative, provocando uno
stato di trance a cui non si viene meno. Come i canti innescavano il volo di san
Giuseppe da Copertino, così su TikTok siamo sempre sospesi in uno scrolling
verticale ‒ tocchiamo il cielo con un dito. A questo punto potremmo chiederci:
come mai, se non siamo più capaci di sospendere l’incredulità ‒ di credere
nell’estasi come dimensione religiosa ‒, ci lasciamo catturare dalla “Macchina
algoritmica”? Che cosa di tutto questo riesce a vincolarci? Forse il successo
della trance nell’epoca della Silicon Valley risiede proprio nella
consapevolezza della sua artificialità ‒ in una forma patente di contatto con la
macchina, che ci dice che l’altrove non va guadagnato: è già qui. Jianwei Xun,
autore di Ipnocrazia (2025) chiama questo fenomeno meta-trance:
> Il fenomeno più inquietante è l’emergere di una meta-trance: uno stato
> alterato di coscienza che include la consapevolezza della propria natura
> artificiale. A differenza della trance tradizionale che richiedeva la
> sospensione dell’incredulità, la meta-trance opera precisamente attraverso la
> nostra consapevolezza della sua artificialità. Sappiamo che stiamo interagendo
> con una macchina, sappiamo che le sue risposte sono generate, eppure questo
> non spezza la trance ‒ la approfondisce. È come se l’IA avesse scoperto una
> forma di ipnosi che funziona non nonostante ma attraverso il nostro
> scetticismo.
L’estasi ‒ la sua manipolazione ‒ non si dà più come il rimosso della società,
ma come una delle sue più evidenti segnature.
Santi con l’iPod
Dalla donna in corsa col martello che libera il pubblico dallo stato ipnotico in
cui è gettato, esempio di pubblicità “gnostica” par excellence (datato non a
caso 1984) fino all’iPad presentato come tavoletta magica, il rapporto di Apple
con la pubblicità è sempre stato marcato da un tono religioso. Anzi, potremmo
addirittura dire che nell’universo concettuale di Steve Jobs la pubblicità
agisce come la segnatura che porta in evidenza, in un oggetto secolarizzato, la
sua dimensione sacrale ‒ ciò che emancipa il quotidiano dalla sua profanità.
Prendiamo l’arcinota campagna dell’iPod nel 2001: un tableau liturgico di corpi
astratti, dissolti nell’incandescenza del ritmo; le silhouette danzanti sono
ombre metafisiche, che vengono meno al loro nome proprio per incarnare
un’energia anonima, un fervore cinetico che pulsa al confine tra il rituale e il
miraggio. “Indossando gli auricolari bianchi e canalizzando gli dèi della
musica” scrive Brett T. Robinson in Appletopia, “l’ascoltatore dell’iPod si
inizia a un culto mobile, privato, anonimo, ormai assurto a universalità nella
liturgia digitale”.
Le cuffie bianche, quei fragili e luminosi filamenti che emergono dall’abisso
monocromatico degli spot, sono fili elettrici di una spiritualità sintetica.
Apple veicola una promessa di palingenesi, una riemersione dalla banalità del
quotidiano sotto forma di rinascita a portata di mano e d’orecchio. Il fondale,
superficie dove tutto il superfluo è tagliato fuori, richiama una grammatica
visuale d’ascesi. Non c’è distrazione, solo il ritmo, lo spazio e la silhouette:
una tridimensionalità che implode in un vuoto contemplativo pubblicizzabile come
architettura della meditazione. I ballerini, officianti del ritmo, manifestano
nei loro gesti l’energia numinosa che li attraversa. Qui ciò che è coreografato
è l’epifania tascabile dell’estasi, nel momento stesso in cui si offre a tutti
il suo facile accesso. Il design si rivela così metafisica concreta: “per molti
utenti dell’iPod” scrive ancora Brett T. Robinson, “il dispositivo ha acquisito
uno status sacro”. L’iPod è stato definito
> un “oggetto di devozione” che ha ispirato un “culto dell’iPod”. I proprietari
> di iPod commentano la capacità del dispositivo di farli sentire “cosmicamente
> connessi” alla loro musica e di rendere il loro ambiente più “spirituale e
> sacro.” […] La campagna pubblicitaria sui cartelloni è stata realizzata in
> centri urbani alla moda come Parigi, Berlino, New York, Amsterdam, Los Angeles
> e Montreal. Gli spettacoli torreggianti rappresentavano una netta rottura, non
> solo per Apple, ma anche per la pubblicità esterna in generale. Più che
> un’altra volgare tela del consumismo, le pubblicità dell’iPod sembravano opere
> d’arte installativa. Erano le vetrate delle cattedrali urbane. […] Le
> pubblicità lavorano miticamente evocando un’immagine di esperienza estatica,
> immergendola in una luce preternaturale e assegnando all’iPod il ruolo di
> oggetto sacramentale.
Pubblicità dell’iPod, 2006; fot. Christian Harding via Flickr.
L’iconografia della Apple non invoca questi meccanismi solo a un certo punto del
suo percorso, come armi strategiche; fin dall’inizio, Steve Jobs ha
deliberatamente fatto riferimento a una volontà di rivelare la materia
spirituale di un’industria che prima di lui era considerata perlopiù fredda,
disincantata, volontariamente atea (i computer come pesante lascito della
Seconda guerra mondiale). I suoi dispositivi, lucidi e minimali, sono vettori di
illuminazione. Ogni keynote diventa un sermone, ogni prodotto un’icona, ogni
utente un adepto di fronte alla luminosità dello schermo. In una forma
sincretica che mescola cristianesimo, sciamanesimo psichedelico e buddismo zen,
la Apple di Jobs trattiene moltissimo dell’universo religioso, inclusa la sua
carica redentiva, che rivolta contro la visiona catastrofica di una tecnologia
come cancellazione dell’essere umano: “la paradossale attrazione
dell’iconografia Apple è la sua capacità di identificare le tensioni sociali
provocate da un uso crescente della tecnologia, offrendo al contempo una
redenzione dalle sue conseguenze più pessimistiche” (Appletopia). Ciò che di
tale carica è sempre all’opera è forse, più ancora che la salvezza
dell’industria tecnologica, la redenzione del mondo dalla sua profanità:
emancipandolo dalla caduta del quotidiano, Apple fa della santificazione della
realtà il suo compito permanente. Si dirà che questa santificazione è satanica,
uno scadimento temibile e allucinato che corrompe la concezione stessa del
sacro. E tuttavia, essa agisce. In questo momento, serve a poco indugiare
ulteriormente in una critica allo scadimento della “tradizione” ‒ alla sua
commercializzazione. L’episteme che abitiamo non ci permette di pensare a
stanche rivolte contro il mondo moderno in forme di ritorno allo spirito
tradizionale. Lo spirito è già qui. Élemire Zòlla, in quel libro sublime e
nefasto che era Che cos’è la tradizione (1971) incominciava a dire che la
liturgia è diventata diritto, danza, canto, edilizia e arredamenti profani, “nei
quali si coglie un’eco più o meno fievole dell’origine”. Dell’origine non
sappiamo che farcene: ci rimane l’eco, che oggi è diventano un boato, in corsa
attraverso l’intero pianeta.
La santificazione della realtà
Una grande parte dell’opera di Pavel Florenskij, il filosofo, matematico e
presbitero russo fatto fucilare dal regime sovietico nel 1937, si muove attorno
all’idea del culto come dimensione centrale dell’attività umana; egli prende a
dimostrazione ‒ a metafisica concreta ‒ i riti della Chiesa orientale per
tracciare il rapporto tra culto, religione e cultura. Nella sua visione,
coesistono nell’uomo un’attività teorica che crea i concetti-termini (notiones),
una pratica che forma strumenti-macchine (instrumenta), e una liturgica, volta
alla produzione di cose sante (sacra), che possono essere sia azioni che parole,
reliquie, riti e sacramenti. Per Florenskij, nell’attività liturgica risiede il
cuore dell’attività dell’essere umano, e la filosofia è sempre Filosofia del
culto. Invertendo la logica che fa precedere tanto l’attività dell’intelletto
quanto l’attività produttiva-economica, Florenskij pensa al culto come la
scaturigine di tutto resto, e approda così a una forma di idealismo concreto,
una teoria sacrale nella quale “tutta l’esistenza è determinata da una specie di
rituale, incarnato nella religione”. Dalla scissione progressiva del culto
nascono senso e cosa, cultura, tecnica e scienza. Ogni concetto del mondo, per
quanto secolarizzato, continua a intrattenersi nel culto, che costituisce il suo
fondamento. Tempo e spazio derivano da esso: “il mondo è nel culto e non il
culto nel mondo”.
> Fin dall’inizio, Steve Jobs ha deliberatamente fatto riferimento a una volontà
> di rivelare la materia spirituale di un’industria che prima di lui era
> considerata perlopiù fredda, disincantata, volontariamente atea.
Nonostante il filosofo guardi con comprensibile disappunto allo scadimento
dell’attività liturgica, il percorso che egli traccia nel farlo è ‒ come di
consueto nella sua opera ‒ pregno di riflessioni che ci invitano a considerarle
proprio poiché conducono altrove da banali nostalgie, e servono anzi a gettare
uno sguardo diverso sulla questione del sacro nell’epoca della Silicon Valley.
Per Florenskij, il primo scadimento, “la prima crepa nella teurgia”, si produce
con la nascita del mito:
> Come l’edera rampicante si avvita attorno all’albero, così il mito avvolge le
> cose sacre. E come l’edera con i suoi viticci s’avviluppa tutt’intorno al
> fusto, per poi seccarlo e soffocarlo prendendone il posto, così il mito,
> ricoprendo di sé il sacro, lo cela e lo distrugge. Il mito rende mediata la
> ricezione del sacro, che di conseguenza perde la vitalità che gli è propria,
> perde il suo significato, essendosi separato da esso e avendolo oggettivato
> nel mito. Sotto il mito che lo soffoca e lo stringe crescendo dappertutto, il
> sacro si riduce in polvere e muore, distruggendo con sé anche il mito che
> viene a mancare della fonte della sua esistenza (Filosofia del culto).
I miti descritti da Florenskij sono formule ausiliarie alla liturgia, che in
principio servono a spiegare il culto; quando dipartono dal rito, esse diventano
cultura, dimensione laica, conoscenza letteraria, economica, scientifica. La
tecnica è dunque una scoria, un residuo del rito che ciononostante lo implica e
continua a segnarlo nel suo processo di secolarizzazione ‒ portando il marchio
di questa genealogia corrotta. La grandezza del linguaggio di Florenskij è
quella del suo fervido materialismo: “come l’argilla e la sabbia sono prodotti
dalla frantumazione del granito, così la scienza e la tecnica nascono a spese
delle teurgia”. Oggi, nel pieno del regime ipnocratico prodotto dalle nuove
tecnologie, assistiamo però a un movimento che non si limita più al semplice
proliferare di mitologie secolari, ma che, proprio attraverso la tecnica, opera
una nuova santificazione della realtà per trasfigurarla. Grazie a una
combustione permanente di immagini, bolle percettive, miti, messi in circolo
dalla macchina algoritmica, il “sacro” riemerge prepotentemente in ogni dove;
l’esempio evocato da Florenskij si conclude infatti così: “come nel bosco, sui
resti degli alberi crescono le edere e sui resti dell’edera caduta perché ormai
priva di sostegno crescono alberi, così nella religione i miti, perduto
l’appoggio, cadono, marciscono e si mutano in terreno fertile per nuove cose
sacre. Sulle ceneri del sacro [nascono] i miti, sulle ceneri dei miti nasce il
sacro”.
L’emancipazione algoritmica dalla profanità produce una redenzione del
quotidiano, non solo nel suo orientamento percettivo (l’estasi permanente
triggerata dai dispositivi abitati, gli occhiali magici che rivelano la “natura”
illusoria della realtà), ma anche nella materia stessa ‒ nella concretezza degli
oggetti che maneggiamo. Gli strumento del culto si distinguono dagli altri
strumenti per la loro alterità; così la nube dei dati, il flusso invisibile
dell’ipnocrazia attraversa ogni materia, e nel farlo, disloca e trasfigura
l’oggetto dal suo uso quotidiano, trasformandolo in un trasmettitore spirituale
connesso agli altri nell’“Internet of Things”. In questo movimento, l’intero
mondo è suscettibile di santificazione ‒ l’intero mondo diventa un dispositivo
connesso e alterato. In una canzonatura tanto cupa quanto trionfale, oggi
assistiamo ovunque a ciò che Florenskij attribuiva specificatamente al culto:
> Nel culto è santificata tutta la natura, in tutte le sue manifestazioni e
> direzioni, in tutti i suoi aspetti e dimensioni. […] Laddove la vita si
> orienta sul culto, allorché nel culto essa si ricristallizza, tutto ciò che è
> microcosmico si fa macrocosmico, e tutto ciò che è macrocosmico si fa
> microcosmico. […] Non esiste aspetto della vita che non sia santificato: sacri
> sono i tempi, i luoghi, le cose gli oggetti e i fenomeni. […] Non esistono
> confini definiti di una chiesa, poiché tutta la natura è una sua ininterrotta
> prosecuzione.
Il regime ipnocratico non ha centro (se non bucato) poiché esso già si
costituisce, in ogni suo punto, come natura del mondo.
Touching is believing
Un’altra celebre pubblicità dell’iPhone raffigurava il dispositivo sospeso in
aria, dentro uno sfondo di pura neritudine. Creato ex nihilo, lo smartphone,
come un’icona, diffonde luce, lasciando intravedere una mano che lo sfiora, lo
accarezza, danzando le dita sopra lo schermo. La scritta che leggiamo in basso è
dichiaratamente religiosa: touching is believing. L’immagine registra il
movimento delle mani, le costituisce nel movimento, ricordandoci che oggi “noi
non disponiamo di un’altra esperienza dell’essere che non sia l’operatività”
(Giorgio Agamben). Allo stesso tempo, il movimento rende la mano trasparente,
quasi diafana; così facendo, questa pubblicità esibisce apertamente il carattere
antinomico con cui s’investe: mischiando eterno e temporale, trasparenza e
opacità, l’iPhone si pone come un enigma, un mysterium che anima il mondo, a
patto di essere animato, toccato da qualcuno. La mano e l’iPhone entrano in un
rapporto d’interdipendenza in cui l’originato diventa senza origine: la
tecnologia della mano subisce una dislocazione operata dallo strumento, si fa
diafana di mondo, ricostituendosi come entità spirituale la cui realtà è
conferita proprio dall’oggetto luminoso che tocca ‒ che domanda di essere
toccato. Il punto d’origine è, allora, per-sempre-indeciso.
Rielaborazione di una pubblicità dell’iPhone; fot. Anthony Sigalas via Flickr.
Affrontando questo fenomeno, il filosofo Byung-chul Han adotta la sua solita
posizione critica. Egli legge, nel digitare e strisciare delle dita sullo
smartphone, “un gesto quasi liturgico con effetti ponderosi sul nostro rapporto
col mondo” (Le non-cose). Tale gesto implica per lui una manipolazione, un
trionfare dell’aptico che rende il mondo violentemente a portata di mano. “Lo
smartphon”, scrive nelle Non-cose, “fa il mondo, cioè se ne impadronisce
creandolo in forma d’immagini. L’obiettivo fotografico e lo schermo diventano
quindi elementi centrali dello smartphone in quanto forzano la trasformazione in
immagini del mondo”. Ciò che Han nota con disappunto è però una delle qualità
più interessanti della contemporaneità; lo smartphone, nel momento in cui ci
spinge a pensare la realtà non più come riproduzione ma come produzione
incessante, indispettisce l’idea che il mondo sia dato una volta per tutte.
> Oggi, nel pieno del regime ipnocratico prodotto dalle nuove tecnologie,
> assistiamo però a un movimento che non si limita più al semplice proliferare
> di mitologie secolari, ma che, proprio attraverso la tecnica, opera una nuova
> santificazione della realtà per trasfigurarla.
Compito di ogni processo immaginativo-simbolico è proprio la continua
resurrezione delle cose in immagini; lo schermo, quando non sigilla la realtà
nella falsa immediatezza del naturalismo, ci offre l’opportunità ‒ e il pericolo
‒ di questa resurrezione. Per questo Abbās Kiārostamī dedica il suo ultimo
film-testamento a 24 frames (2017), 24 cornici o schermi o schermi di schermi
(come in una delle scene dell’opera, dove è presente il monitor di un computer)
che non sono l’in-mediato, ma piuttosto la zona di mediazione attraverso la
quale accediamo al mondo ‒ con cui possiamo finalmente osservarlo. Peraltro, il
film di Kiarostami è fatto di fotografia e computer-graphic, poiché l’autore
iraniano, svegliandone la superficie, cerca di far formicolare le immagini con
una loro verità, che è prodotta e mai semplicemente data. Il cinema insegna cioè
quello che Marie-José Mondzain una volta ha espresso in questi termini: «non c’è
un’immagine vera, ma c’è una verità dell’immagine». Nell’epoca della macchina
algoritmica e della IA (Intelligenza Artificiale), molto più che il fact-cheking
è essenziale una dottrina che renda conto di come le immagini riescano a
vincolarci ‒ lo studio quindi dei campi ipnotici, per acquisire consapevolezza.
Ciò che occorre non è dismettere la tecnologia, ma vederla attraverso
un’iniziazione critica che conduca oltre la critica stessa.
> Nell’epoca della macchina algoritmica e della IA, molto più che il
> fact-cheking è essenziale una dottrina che renda conto di come le immagini
> riescano a vincolarci ‒ lo studio quindi dei campi ipnotici, per acquisire
> consapevolezza.
Tutto il bel libro di Byung-chul Han è permeato da questo equivoco. Il modo con
cui si rivolge all’IA è rappresentativo; per il filosofo, che qui riprende
Adorno, «la prima immagine di pensiero è la pelle d’oca ‒ proprio per questo
l’intelligenza artificiale non può pensare, perché non le viene la pelle d’oca».
La critica alla posa filosofica di Han ‒ al suo moralismo analogico ‒ potrebbe
essere a sua volta proprio quella di non aver saputo far rabbrividire i nuovi
strumenti, di non aver costruito, a partire da questi, un’idea di grana ‒ di
sapere commosso ‒ che la contemporaneità ci domanda come forma di insurrezione
contro una lettura univocamente sconsolante dei propri fenomeni. Nel reiterare
questa critica alle tecnologie della contemporaneità, Byung-chul Han “tocca”
però una questione decisiva per il nostro discorso; individua infatti, nel gesto
liturgico di strisciare le mani sullo smartphone, una differenza rispetto al
pregare, dove le mani invece sono congiunte tra loro; nell’uso delle nuove
tecnologie, “il senso del tatto annulla la distanza. […] Distrugge sia la
vicinanza, sia la lontananza, rendendo ogni cosa priva di distanza. La relazione
con l’Altro presuppone una distanza”.
Un mondo interamente santificato è un mondo che attua e subisce ‒ nello stesso
processo ‒ una crisi radicale della distanza.
Questo mondo: l’altro
La nascita dello spazio-tempo è un testo che Furio Jesi aveva concepito come
parte di un lavoro più esteso, Nuove ricerche sulle connessioni archetipiche,
rimasto però allo stato di frammento. Centrale in questo testo è lo sviluppo
della nozione di “distanza” nelle civiltà primitive, e la necessità di una
differenziazione atta a separare il mondo umano da quello extra-umano;
differenziazione che progressivamente si definisce nei termini di spazio e tempo
a noi più familiari e che, per Jesi, sancisce il primo strappo tra vita e
religione. Per lo storico, fino a un certo momento, religione “era stata una
vita consistente nella assoluta e totale adesione alla realtà del mondo, in ogni
elemento del quale era presente il divino; religione inevitabile”, in cui
l’elemento volitivo ‒ il patto laico di adesione o meno alla realtà religiosa ‒
ancora non si offriva come scelta, ma derivava “dall’azione incondizionata del
mondo ‘esterno’ sull’uomo”. L’affermarsi della civiltà si misura anche con
l’emancipazione dall’elemento terrifico, che deve essere, per così dire,
implicato in questo mondo e, insieme, tenuto a necessaria distanza nell’Altro.
Esplicita Jesi, in un passaggio seminale:
> Dal momento in cui il divino venne “concepito”, venne cioè inteso come la
> realtà di un Altro Mondo, con tutti i suoi caratteri terrifici, “influente
> incessantemente sul mondo e sul destino degli uomini” (Malinowski), l’adesione
> a cotesto Altro Mondo divenne atto volitivo, la religione fu solamente più
> “possibile” ma non “inevitabile” – nacque quindi l’evenienza (forse anche
> soltanto potenziale) di un “laicismo”. Ed ogni volta che l’elemento “divino”
> (questo termine viene da noi usato ora esclusivamente per indicare “ciò che
> appartiene all’altro mondo”) venne chiamato ad intervenire direttamente nel
> mondo umano, fino ad animarne ‒ e quindi snaturarne ‒ la realtà, come nelle
> pratiche di magia e nei fenomeni mistici, la nozione di spazio-tempo subì
> gravi alterazioni, non essendo più rispettata l’originaria “distanza” fra
> umano e divino, in funzione della quale essa era nata.
Si dà distanza dove l’atto di adesione non è più obbligato, ma volitivo; e
viceversa, assistiamo a una crisi di questo paradigma quanto la realtà coincide
con l’obbligazione, come nel regime dell’ipnocrazia descritto da Jianwei Xun.
Che la santificazione tecnologica permanente produca una pesante alterazione, e
che tale alterazione si rifletta in un attacco diretto alla nozione di
spazio-tempo è evidente nelle bolle di realtà (nei diversi stati alterati di
percezione) che abitiamo, e che sono contraddistinti dal loro essere out of
joint. In TikTok, per esempio, il flusso verticale incolla i diversi video tra
loro senza uno spazio di riflessione; con questo gesto, ogni “contenuto” è
strappato da una cronologia lineare per essere ridisposto in un qui che è
nient’altro che l’attimo della perenne citabilità ‒ la sua performance della
redenzione. Su TikTok, cioè, avviene in maniera perversa cioè che Benjamin,
nelle Tesi di filosofia della storia, attribuiva all’umanità nel momento della
redenzione: “vale a dire che solo per l’umanità redenta il passato è citabile in
ognuno dei suoi momenti. Ognuno dei suoi attimi vissuti diventa una ‘citation à
l’ordre du jour’ – e questo giorno è il giorno finale”. Piombiamo qui in una
realtà interamente redenta, santificata, definitiva ma senza fine (ogni giorno è
il giorno finale), da cui non si riesce ad allontanarsi.
La crisi della distanza ‒ ovvero la crisi di uno spazio di decoincidenza con la
realtà ‒ non avviene però esclusivamente per via dei nuovi dispositivi, ma si
colloca in un processo più esteso, di cui un acutissimo sociologo, Georg Simmel,
più di un secolo fa iniziava a tracciare la filosofia in due opere spartiacque
come La metropoli e la vita dello spirito (1903) e La filosofia del denaro
(1900). Per Simmel la metropoli, con il suo fluire incessante di stimoli,
opportunità, persone costrette a vivere in una prossimità mai sperimentata
prima, produce un intensificamento della vita nervosa dell’individuo che
comporta precise conseguenze. La prima è quella dell’essere blasé, ovvero di
un’indifferenza ostentata che reagisce al sovraccarico di stimoli con una
“scoloritura” percettiva; nell’atteggiamento blasé, la sensibilità rispetto alle
differenze tra le cose viene ridotta, “non nel senso che queste non siano
percepite ma nel senso che il significato e il valore delle differenze, e con
ciò il significato e il valore delle cose stesse, sono avvertiti come
irrilevanti. Al blasé tutto appare di un colore uniforme, grigio, opaco,
incapace di suscitare preferenze” (La metropoli e la vita dello spirito). La
sbadataggine e l’indifferenza dell’abitante metropolitano non sono perciò un
vizio di carattere o il solo risultato di un addomesticamento urbano dei sensi,
ma forme di reazione all’insistita sovrabbondanza degli stimoli subiti,
esattamente come la riservatezza è una difesa da quello stato di eccessiva
prossimità tra “estranei” che, se assecondato con le dinamiche sociali tipiche
dei piccoli paesi, produrrebbe negli abitanti una condizione psichica
insostenibile. La riservatezza è l’interiorizzazione di uno spazio ancora
possibile di distanza dall’Altro, una forma di barriera che Simmel articola in
maniera ancora più approfondita nella Filosofia del denaro, indicando questa
“barriera” come la sola a rendere possibile le moderne condizioni di vita:
> L’essere pressati l’uno accanto all’altro e il variopinto incrociarsi del
> traffico delle grandi città sarebbero semplicemente insopportabili senza
> quella distanziazione psicologica. Il fatto che nella civiltà urbana con i
> suoi traffici e le sue relazioni commerciali, professionali e sociali ci si
> muova così addossati l’uno all’altro, farebbe cadere l’uomo moderno, sensibile
> e nervoso, in uno stato di completa disperazione se l’oggettivazione dei
> rapporti sociali non determinasse anche un confine interno e un particolare
> tipo di riservatezza.
Queste righe ‒ scritte nel 1900 ‒ ci aiutano a capire meglio che cosa,
dell’attraversamento dello spazio metropolitano condotto con l’iPhone e le
cuffie, ci attrae; mentre “nientifica” la distanza fra estasi e realtà,
trasformando in sacro ogni cosa, il regime ipnocratico crea l’opportunità
(l’abito) di uno spazio di meditazione interna ‒ di riservatezza tecnologica. La
riservatezza, e insieme la crisi algoritmica del concetto stesso di privacy,
partecipano perciò a uno stesso meccanismo in cui le cose si danno mentre si
dileguano, vivendo una condizione di indistinzione tra ciò che è trovato e ciò
che è perduto: una condizione di imperdutezza.
> La sbadataggine e l’indifferenza dell’abitante metropolitano non sono un vizio
> di carattere o il solo risultato di un addomesticamento urbano dei sensi, ma
> forme di reazione all’insistita sovrabbondanza degli stimoli subiti.
A questo punto, è bene tornare a fare un breve accenno alla liturgia. In
Florenskij, tutti gli elementi che partecipano al rito sono sempre trattati come
componenti essenziali. Guardando al sacerdote, il filosofo non trascura il
tappeto che gli sta sotto i piedi, e neppure la veste liturgica (che prende lo
stesso nome del rivestimento dell’icona, riza): entrambi gli elementi
contribuiscono a creare livelli differenti di isolamento, a distanziare il
sacerdote dal mondo terreno: “così, al mondo sottratto, il sacerdote diventa
‘trascendente al popolo’, è ‘nel mondo ma non del mondo’, in una trascendenza
che ha molteplici stati e gradi possibili” (Filosofia del culto). Se pensiamo
alla tecnologia contemporanea come a un rivestimento liturgico dell’esistenza,
ne cogliamo così anche il potere di collocare l’utente in uno stato di
isolamento sospeso, per così dire, tra il mondo e la sua negazione estatica.
Capiamo anche come questo rivestimento isolante possa generare “una sfera
ripiena di realtà” in cui dimorare: “la veste è l’abitazione mobile,
l’abitazione è la veste immobile”. Domiciliandoci nel mondo e fuori di esso,
emarginandoci da una realtà da cui pure proviene (quella del “progresso”
capitalista, che passa per il trionfare della metropoli e arriva alla Silicon
Valley), l’estasi tecnologica può essere vista anche come una forma radicale di
adattamento ‒ di habitus ‒ che la vita dello spirito s’impone nell’epoca
contemporanea: una possibilità di automedicazione, una vera e propria
farmacologia elettronica ‒ con tutta la sua salute, con tutto il suo veleno.
Smart house: la cucina degli angeli
Finiamo questo viaggio in una cucina, dipinta tra il 1625 e il 1650 da Bartolomé
Esteban Murillo su commissione dai frati francescani di Siviglia. Nel quadro, Un
miracolo di frate Francesco, esposto oggi al Musée du Louvre di Parigi,
possiamo osservare un frate colto in un rapimento estatico, sospeso a mezz’aria
mentre gli angeli radunati in cucina si occupano miracolosamente di quei doveri
che il frate ha lasciato inadempiuti. Come non vedere, in questo dipinto, una
singolare prefigurazione del futuro estatico? Il carattere angelico della
tecnologia, la sua angelizzazione, consiste proprio in questa vita delle cose
animate per congedarsi dall’intervento diretto dell’essere umano. Mentre noi
siamo in estasi su TikTok, sospesi nello scrolling, gli angeli intelligenti
delle nuove “smart house” assolvono i compiti che abbiamo abbondonato, quelli
che non vogliamo più fare. Come nel Vilém Flusser citato nelle Non-cose, la
mancanza di appigli “cede il passo alla gaia leggerezza del gioco. L’essere
umano del futuro disinteressato alle cose non è un operaio (homo faber), bensì
un giocatore (homo ludens). Non deve superare faticosamente, col lavoro, le
resistenze della realtà materiale. Gli apparecchi da lui programmati si fanno
carico del lavoro. Gli uomini del futuro sono senza mani”. La santificazione del
mondo è l’emancipazione dell’umano dal compito terreno ‒ il suo volo estatico.
L'articolo Estasi a Cupertino tra Appletopia e Assisi proviene da Il Tascabile.
I l rapporto fra l’essere umano e la téchne, intesa come la capacità pratica di
operare per raggiungere un dato fine, è sempre stato storicamente un oggetto
d’indagine privilegiato per una riflessione multidisciplinare, per via delle sue
implicazioni insieme scientifiche e umanistiche. Con Umanamente insostenibile.
Il capitalismo nuoce gravemente ai sapiens, Luigi D’Elia e Nora Sophie Nicolaus
propongono un’interpretazione attualizzata del fenomeno, che parte dalla
necessità di riconoscere il ruolo ineluttabile del capitalismo nelle dinamiche
che orientano il progresso tecnologico e che stanno progressivamente minando la
nostra salute individuale e collettiva.
La premessa alla base del saggio scaturisce dall’evidenza antropologica di una
discrepanza fra la velocità imposta dalle evoluzioni tecnosociali a cui stiamo
assistendo e la lentezza della nostra mente paleolitica, che presenta un
apparato psicologico strutturalmente identico a quello dei nostri antenati.
Scrive D’Elia: “Condizione umana ed evoluzione umana hanno due velocità
estremamente diverse: la prima accelera a dismisura, la seconda procede
ecologicamente con la propria ancestrale lentezza, rispondendo esclusivamente ai
numerosi vincoli propri dell’evoluzione e al suo intrinseco bricolage.”
Le conseguenze di questa discrepanza agiscono su più piani: quello della salute
psicologica, che oggi più che mai deve sostenere l’insorgere di comportamenti
problematici più o meno inediti e intergenerazionali; quello degli stili di
vita, che si modificano e decostruiscono per assecondare ‒ o per contrastare ‒
questa velocità; quello dell’organizzazione politico-economica su scala globale,
continuamente soggetta a “bug di sistema” che minano da un lato la fiducia
dell’individuo nell’intrinseca lentezza dei modelli democratici e dall’altro ne
rivelano l’inadeguatezza ad anticipare delle risposte pertinenti alle sfide di
uno scenario economico e sociale dai contorni sfuggenti.
D’Elia e Nicolaus mostrano come da sempre ‒ ne è ricca testimone la mitologia ‒
ogni innovazione tecnologica abbia imposto alla specie umana un adattamento
etico e culturale, spesso lungo e laborioso, che consentisse di controllarne le
implicazioni problematiche. In questo senso, l’accelerazione autodistruttiva a
cui stiamo assistendo ha radici filosofiche, religiose, psicologiche ed
economiche, una miscela originata da fattori concomitanti. A partire da una
concezione del mondo che separa l’individuo dalla natura, legittimando il
dominio del primo sulla seconda, e dando corso alla falsa percezione che le
risorse che abbiamo a disposizione siano illimitate. Questa illusione
rappresenta un chiaro corto circuito di quella capacità narrativa tipicamente
umana che pure si rivela cruciale nell’anticipare scenari funzionali alla nostra
sopravvivenza. Un altro fattore è la vocazione intrinsecamente speculativa del
capitalismo, modello economico che deve il proprio successo alla capacità di
solleticare la nostra euforia dopaminergica e di reinventarsi camaleonticamente
una volta esaurito il proprio terreno di conquista. Non bisogna infine
trascurare la compatibilità di questa vocazione con le opportunità offerte da
una dimensione digitale in cui la tecnologia è ubiqua e in grado di raggiungerci
‒ e potenzialmente suggestionarci ‒ in modo istantaneo, pervasivo e spontaneo.
> D’Elia e Nicolaus mostrano come da sempre ogni innovazione tecnologica abbia
> imposto un adattamento etico e culturale che consentisse di controllarne le
> implicazioni problematiche.
In quest’ottica, il profondo cambiamento nel flusso di informazioni non può che
avere effetti rilevanti sull’essere umano, una creatura per la quale ottenerle
implica maggiori possibilità di sopravvivenza. Scrive sempre D’Elia:
> Il capitalismo realizza una forma di assuefazione profonda e silenziosa dei
> propri codici che sarebbero alla radice di ansia e depressione, disturbi di
> memoria e attenzione, bipolarismo ecc. Assistiamo allo smantellamento del
> tessuto sociale a causa dell’ideologia individualista, competitiva, alla
> precarietà lavorativa, all’assegnazione del tempo al lavoro anziché alla vita
> intima e famigliare. Si crea così una solitudine diffusa che appare anch’essa
> come risultante ineluttabile di sistema.
Su una scala collettiva, un fenomeno come la crisi climatica porta allo scoperto
le conseguenze della scissione fra suggestione e narrazione incentivata dal
modello capitalistico: da un lato il predominio delle ragioni del mercato sulle
ragioni della sopravvivenza (non è un caso che uno dei due autori sia di
Taranto, città segnata dal caso Ilva), tanto quanto l’idea tacita che prima o
poi riusciremo ad adattarci a qualsiasi situazione anche quando gli eventi
raccontano altrimenti; dall’altro l’inesorabile attecchire di una visione
individualista che privilegia il benessere del singolo rispetto a quello della
comunità.
Tutti questi fattori rendono complessa la comprensione del fenomeno. Come
prevedibile nel saggio viene ripreso il concetto, ideato dal filosofo britannico
Timothy Morton, di iperoggetto, ovvero un fenomeno la cui complessità è talmente
inafferrabile da non essere direttamente esperibile e sfuggire alle logiche di
comprensione della sfera umana (mi torna in mente l’imperscrutabile oceano del
pianeta Solaris descritto da Stanisław Lem).
Se i primi tre capitoli servono a delineare cause e conseguenze dello scenario
attuale da un punto di vista prima evolutivo e poi psicologico, l’ultimo, a cura
di Nicolaus, tenta di individuare possibili vie d’uscita attraverso la
comparazione speculativa di due manifestazioni agli antipodi come la cultura del
self-made man e la pratica giapponese dell’ikigai: il primo come apogeo
dell’individualismo competitivo che permea la società moderna, il secondo a
dimostrazione di un senso dell’esistenza che trova pieno appagamento nella
cooperazione.
Scrive Nicolaus: “Una qualsiasi organizzazione umana funziona e può dirsi
realmente “comunità” solo se valori, principi e obiettivi sono adottati
all’unanimità dal gruppo”. È dunque nella coltivazione di un’etica comunitaria e
nella promozione di un approccio conoscitivo transdisciplinare ‒ e
intersezionale, aggiungerei ‒ che possiamo trovare gli anticorpi per contrastare
l’attuale discrepanza tra i nostri bisogni come persone e la propulsione
performativa neoliberista. Intento assolutamente condivisibile, ma che nella
pratica chiede molto alla nostra capacità individuale e collettiva di compiere
decisioni responsabili, radicali e consapevoli.
> Per innescare un cambiamento agire sul piano culturale è sicuramente un
> passaggio indispensabile. Ma servono anche figure con capacità progettuali che
> sappiano lavorare sia sul livello individuale, che su quello organizzativo e
> su quello etico.
Qui mi permetto un inciso personale: per lavoro mi occupo di design e user
experience (disciplina che parte dall’analisi dei bisogni delle persone per
progettare prodotti e servizi digitali e fisici di valore), e conosco bene
quanto sia difficile aspettarsi dagli utenti un coinvolgimento spontaneo, anche
quando la posta in palio è assolutamente nobile. Per innescare un cambiamento
fondato sui valori e i principi invocati da Nicolaus, agire sul piano culturale
‒ come fa questo saggio, in scia a molta letteratura affine ‒ è sicuramente un
passaggio indispensabile. Ma, per rendere conseguibili gli obiettivi, servono
anche figure con capacità progettuali che sappiano lavorare su più livelli:
quello individuale, creando esperienze d’uso coerenti con le inclinazioni delle
persone a cui sono destinate; quello organizzativo, orientando i processi
decisionali in una prospettiva qualitativa e non manipolatoria; e quello etico,
considerando fin da principio l’impatto non solo individuale, ma anche sociale e
ambientale di ogni soluzione.
Si potrebbe facilmente obiettare che anche il progettista sia corresponsabile,
se non addirittura complice diretto dei processi capitalistici denunciati
(lettura che trova sponda nel lavoro critico sulla professione fatto da Mike
Monteiro in Ruined by design, 2019). La prima “buona notizia” è che esistono
diverse correnti all’interno del design che stanno ripensando sistematicamente i
modelli di produzione, proponendo delle alternative post-capitalistiche che
antepongono alla creazione di nuovi prodotti la manutenzione e il riutilizzo
dell’esistente, nonché incoraggiano il coinvolgimento fin dall’inizio delle
realtà marginalizzate nei processi decisionali e progettuali comunitari. Sono
spinte che devono comunque muoversi entro il perimetro concesso dai sistemi
stessi in cui si opera, ma nondimeno importanti per spostare alcuni equilibri
valoriali attraverso il progetto.
L’altra “buona notizia” è che, a differenza di quanto talvolta
deterministicamente viene affermato in questo saggio (che, a favore di tesi,
snocciola sbrigativamente le implicazioni benefiche della virtualizzazione,
quando abilitata da attori responsabili dentro modelli organizzativi maturi),
anche un piano capitalistico ben finanziato può fallire nei suoi intenti
seduttivi. Ad esempio, gli autori danno molta enfasi al ruolo del metaverso
(termine ombrello sotto il quale Mark Zuckerberg avrebbe voluto “brandizzare” la
realtà virtuale e mista) nella virtualizzazione tossica della nostra esistenza.
Sappiamo però che “quel” metaverso è già morto, seppellito dalle alte barriere
di adozione cognitiva ed economica richieste ai suoi potenziali fruitori (alta
connettività, un dispositivo costoso e pesante, un’offerta di servizi
numericamente povera e di scarso valore).
Se è vero che il capitalismo non vede l’ora di trasformare predatoriamente nuove
comunità in marketplace, va anche detto che il massimo che i brand più
prestigiosi sono riusciti a fare su Fortnite è stato vendere delle skin
griffate, mentre Apple conteneva le aspettative sui suoi visori e i primi
prodotti che si fondavano sull’AI come aspetto distintivo sono naufragati appena
messi alla prova del contesto d’uso. Alcuni anticorpi “spontanei” sembrano
quindi essere ancora in nostra dotazione come esseri umani. In questo senso,
Umanamente insostenibile fa un ottimo lavoro nel fornire degli strumenti
culturali efficaci con cui leggere la nostra condizione, ma è meno convincente e
approfondito quando specula sulle possibili vie d’uscita.
> In uno scenario in cui le sorti della tecnologia sono affidate al capitale,
> creare le condizioni perché ogni spinta trasformativa sia ricondotta a una
> prospettiva umanistica è un proposito difficile, ma non irraggiungibile.
Di fronte a questa dialettica sulla téchne sospesa fra ambizione salvifica e
pessimismo deterministico ‒ proprio come la nostra specie lo è fra istinto di
sopravvivenza e tensioni autodistruttive ‒ continuavo a pensare alla condanna
che lo scrittore Alasdair Gray ha messo in bocca allo scalpitante dottor Godwin
Baxter in Povere creature:
> Sono stato guidato da avidità e impazienza egoiste e QUESTO […] è il motivo
> per cui le nostre arti e scienze non possono migliorare il mondo, checché ne
> dicano i filantropi liberali. Le nostre nuove e importanti tecniche
> scientifiche vengono utilizzate per prima cosa dalle parti dannatamente avide,
> egoiste e impazienti della nostra natura e della nostra nazione, la parte
> premurosa, gentile e socievole arriva sempre per seconda.
In uno scenario in cui le sorti della tecnologia sono affidate al capitale,
creare le condizioni perché ogni spinta trasformativa sia ricondotta a una
prospettiva umanistica è un proposito difficile, forse controintuitivo, ma non
irraggiungibile, soprattutto se affrontato praticando collettivamente una
resistenza a lungo termine che coinvolga più espressioni della società: da
quella più riflessiva a quella più pratica, da quella più critica a quella più
ottimista.
L'articolo Umanamente insostenibile di Luigi D’Elia e Nora Sophie Nicolaus
proviene da Il Tascabile.