Tag - Scienze

L’evoluzione non ha una bussola
L a biologia evoluzionistica ha una storia strana. Per certi versi, la si potrebbe definire asimmetrica: dalla presentazione della teoria di Darwin e Wallace del 1858 (anche se, come i più appassionati sanno bene, il concetto di evoluzione non nasce certo lì), all’integrazione con la genetica mendeliana, la cosiddetta sintesi moderna intorno agli anni Trenta del Novecento, dagli sviluppi della genetica molecolare nel secondo dopoguerra, alle teorie sull’equilibrio punteggiato di Gould, alle recenti integrazioni con biologia dello sviluppo, epigenetica e le ultime scoperte in campo genetico (tra cui lo straordinario trasferimento genico orizzontale), l’impressione è che la materia sia nata come argomento da copertina, quasi pop, per diventare via via sempre più un tema di nicchia, adatto più che altro agli addetti ai lavori. È chiaro che il successo straordinario di L’origine delle specie di Darwin e il suo impatto sulla società sono praticamente impossibili da replicare ai giorni nostri, ma rimane il fatto che un tema che occupava le prime pagine dei giornali nella seconda metà del Diciannovesimo secolo sia, di fatto, quasi totalmente scomparso da quelli che sono i grandi temi del dibattito scientifico, sociale e culturale mainstream. Con un’unica eccezione: i continui attacchi e dibattiti sulla veridicità della teoria. Anche se alcuni di questi temi sanno un po’ di stantio per chi mastica bene la materia, è indubbio che un aspetto che ha sempre tenuto viva l’attenzione almeno di una parte del grande pubblico sulla biologia evoluzionistica sono state le continue critiche degli antievoluzionisti. La storia è ben nota: l’antievoluzionismo nasce nel Diciannovesimo secolo come reazione religiosa e culturale alle idee di Darwin, soprattutto in contesti cristiani conservatori. Poi, nel corso del Novecento, prende forma il creazionismo moderno, protagonista di scontri pubblici come il celebre processo Scopes del 1925 negli Stati Uniti. Col tempo, però, alcune posizioni si rivelano eccessivamente antiscientifiche per restare a galla e così, ironicamente, è lo stesso antievoluzionismo a evolversi: dagli anni Settanta si sviluppa il cosiddetto “disegno intelligente”, una versione aggiornata di questa dottrina, che continua a influenzare il dibattito pubblico, soprattutto sull’insegnamento dell’evoluzione delle scuole, ma non solo. Ma il dibattito, in certi casi, viene riacceso grazie anche ad alcuni studi scientifici tout-court, sfruttati ad arte. Ed è il caso di una recente ricerca. Uno studio condotto da un gruppo dell’Università di Haifa in collaborazione con ricercatori del Ghana ha infatti riacceso un dibattito antico quanto la biologia evolutiva: le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta di predisposizione interna a generare alcune mutazioni più di altre? La domanda non è banale, perché la casualità delle mutazioni è stata storicamente uno dei pilastri della sintesi moderna. Non solo: uno studio del genere potrebbe riportare in auge una sorta di finalismo nell’evoluzione, di lamarckiana memoria. E il povero Lamarck, grande biologo che fu tra i primi a dare dignità scientifica a tanti gruppi animali fino ai suoi tempi pressoché ignorati, meriterebbe di essere ricordato per ben altro. > Un nuovo studio ha riacceso un dibattito antico quanto la biologia evolutiva: > le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta > di predisposizione interna a generare alcune mutazioni più di altre? Lo studio in questione, concentrato su una mutazione del gene APOL1 (che conferisce resistenza a una forma di tripanosomiasi, meglio nota come malattia del sonno), mostra che la variazione non si distribuisce in modo uniforme in tutte le popolazioni umane: la mutazione, infatti, compare più frequentemente nelle popolazioni dell’Africa sub-sahariana, le stesse in cui la malattia è, o è stata, endemica. Gli autori propongono, con un linguaggio a tratti provocatorio, l’idea che le mutazioni possano seguire una sorta di “forza interna”, cioè un insieme di meccanismi intrinseci al genoma che, nel tempo, rendono più probabili alcune variazioni rispetto ad altre. L’elemento più interessante, e per certi versi destabilizzante, non è soltanto la correlazione tra mutazione e ambiente selettivo, ma il fatto che l’organizzazione del genoma stesso sembri creare canali preferenziali per l’innovazione genetica. Quando i ricercatori citano fenomeni come la “fusione genica”, intendono proprio questo: geni che interagiscono di frequente e che, trovandosi spesso fisicamente vicini all’interno della cromatina (il complesso formato da DNA e proteine che si trova nel nucleo delle cellule eucariotiche), hanno una probabilità maggiore di fondersi. Ne deriva, almeno sulla carta, una visione meno accidentale delle mutazioni, che non sarebbero soltanto il frutto di errori casuali durante la replicazione del DNA, ma anche il risultato di una struttura interna del genoma che orienta, in qualche misura, il tipo di variazioni che possono emergere. Nonostante la recente pubblicazione, lo studio sembra aver già sollevato l’interesse di più di un sostenitore del disegno intelligente. E non è un caso: è chiaro che una simile interpretazione può essere letta come una sfida alla sintesi moderna. Come accennato in precedenza quest’ultima, nella sua formulazione classica, si basa proprio sull’idea che la variazione genetica sia essenzialmente casuale, mentre la selezione naturale funge da filtro non casuale che amplifica le mutazioni vantaggiose. Ma quella che potrebbe apparire come un’arma in mano ai sostenitori del disegno intelligente, in realtà, non è di certo un’arma e forse nemmeno un proiettile. > Molti ricercatori lavorano già da tempo a un’estensione concettuale della > sintesi moderna che non nega la validità della selezione naturale, ma > riconosce che l’origine della variazione ereditaria non è riducibile solo a > mutazioni casuali. Da almeno quarant’anni i biologi evoluzionisti sviluppano teorie che rivelano come la realtà sia ben più complessa: lo sviluppo embrionale, l’epigenetica, la regolazione genica, la struttura cromosomica, la plasticità fenotipica, la costruzione di nicchia e la selezione multilivello sono tutti processi che introducono vincoli e direzioni che la Modern synthesis originaria non contemplava esplicitamente. Il che, da un certo punto di vista, non è di certo inaspettato: in fondo si parla di una teoria nata quasi cento anni fa e che dai tempi è stata integrata dall’apporto di centinaia di nuove scoperte. E infatti, da questo punto di vista, lo studio non rappresenta necessariamente una demolizione della sintesi moderna, quanto piuttosto l’ennesimo tassello che invita ad ampliarla. Del resto, molti ricercatori lavorano già da tempo in direzione di una Extended evolutionary synthesis, un’estensione concettuale che non nega la validità della selezione naturale, ma riconosce che l’origine della variazione ereditaria non è riducibile solo a mutazioni casuali. C’è un’intera costellazione di meccanismi regolativi che condizionano ciò che può variare e in che modo può farlo. La lettura proposta da alcuni critici, secondo cui scoperte di questo tipo aprirebbero le porte a un ritorno dell’ortogenesi, una teoria evolutiva oggi abbandonata secondo cui l’evoluzione seguirebbe una direzione predeterminata, guidata da una sorta di “forza” o impulso intrinseco alle specie, è però forzata. Non c’è nulla, nei dati disponibili, che implichi un orientamento finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, né tantomeno una qualche volontà interna dei genomi. Si può parlare, con più prudenza, di mutazioni non del tutto casuali nel senso statistico del termine: distribuzioni non uniformi, predisposizioni legate all’organizzazione cromatinica e alle pressioni ambientali. In altre parole, una complessità maggiore. Discorso ben diverso dalla teleologia, in cui gli eventi accadono in vista di un obiettivo prestabilito. Niente mutazioni che avvengono al fine di contrastare malattie endemiche, insomma. > Anche dai nuovi studi non emerge nulla che lasci pensare a un orientamento > finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, > né tantomeno una qualche volontà interna dei genomi. Nello specifico, lo studio è focalizzato su un caso molto particolare e non dimostra che le mutazioni in generale seguano schemi predittivi di questo tipo. Ci sono anche altre considerazioni da fare: la correlazione tra mutazione e ambiente non prova automaticamente che il genoma “scelga” di mutare in quella direzione. Chi studia i meccanismi di riparazione del DNA, per esempio, sa bene che certe regioni sono più esposte a rotture, altre più soggette a errori, altre ancora più accessibili o meno protette. In tutti questi casi ci si discosta dalla casualità “pura”, ma non per questo abbiamo mutazioni che operano con una direzione preferenziale. D’altro canto, è innegabile che il quadro si stia evolvendo verso una visione più complessa della variazione. A partire dagli anni Novanta, con l’emergere di concetti come il natural genetic engineering (termine coniato da James A. Shapiro per indicare i meccanismi attivi di ristrutturazione del materiale genico) o la facilitated variation, un’idea proposta da Marc Kirschner e John Gerhart per spiegare come gli organismi possano produrre nuove varianti evolutive in modo relativamente semplice ed efficiente grazie alla loro architettura biologica, l’idea di un genoma del tutto passivo ha perso credibilità. Gli organismi possiedono sistemi sofisticati per rispondere allo stress, limitare i danni, modificare pattern di espressione, attivare trasposoni o ricombinazioni non casuali. Questo non significa che tali sistemi abbiano un fine evolutivo consapevole, ma che l’evoluzione, nel corso di milioni di anni, ha selezionato organismi capaci di generare variazioni in modi più strutturati rispetto al semplice “errore”. Si parla sempre più spesso di evolvabilità, la capacità di un sistema biologico come un gene, un organismo o un’intera popolazione, di generare una variazione ereditabile su cui la selezione naturale può agire. L’evolvabilità stessa può essere selezionata: un organismo in grado di produrre variazioni utili (ad esempio grazie a una maggiore plasticità fenotipica) ha un vantaggio in ambienti particolarmente mutevoli. Vedendola sotto questa luce, la direzionalità dell’evoluzione non è un piano preordinato, ma l’effetto emergente di vincoli, strutture interne e pressioni selettive che rendono alcuni percorsi, molto semplicemente, più probabili di altri. Ragionando in questi termini, si potrebbe pensare alla direzionalità come a una proprietà statistica: non un tragitto obbligato, ma una certa tendenza a muoversi lungo percorsi più agevoli. L’organizzazione del genoma, i pattern di regolazione, la struttura delle reti metaboliche e di sviluppo, la storia evolutiva precedente (ciò che Stephen Jay Gould chiamava contingency) contribuiscono tutti a creare una direzionalità, ma tutto questo non implica un fine, né un progresso. Comporta invece che l’evoluzione non sia un cammino del tutto aperto, bensì un processo che si muove all’interno di un ventaglio di possibilità limitate. > Gli studi sulle mutazioni non casuali ci invitano a riconsiderare i meccanismi > interni del genoma: non dei banali replicatori che incappano in errori > casuali, bensì un sistema complesso che possiede vincoli, predisposizioni e > una storia che ha modellato la sua possibilità stessa di mutare. È ben difficile dire che la sintesi moderna sia morta o in declino. Al giorno d’oggi, invece, affermare che è incompleta è quasi un’ovvietà. Ha funzionato, e funziona tuttora, come un quadro teorico essenziale, ma il suo riduzionismo basato sulla genetica, che si rivelò cruciale nel periodo in cui fu elaborata, non è in grado di esaurire la complessità dei processi evolutivi emersi dalla genomica, dalla biologia dello sviluppo, dall’epigenetica e dalle scoperte biologiche più recenti. Siamo probabilmente in una fase di trasformazione, in cui la Modern synthesis sta diventando parte di una visione più ampia. Non si tratta di sostituirla completamente, ma di integrarla con nuovi concetti e nuove prove scientifiche. Il lavoro su APOL1 non annuncia il ritorno del lamarckismo né un nuovo “slancio vitale”, ma ricorda che l’evoluzione è un processo molto più ricco e dinamico rispetto allo schema che comprende una mutazione casuale unita alla selezione naturale. Ci invita a considerare i meccanismi interni del genoma non come dei banali replicatori che ogni tanto incappano in errori casuali, ma come un sistema complesso che possiede vincoli, predisposizioni e, soprattutto, una lunghissima storia antecedente, che ha modellato la sua possibilità stessa di mutare. Lo studio di Haifa, come ho già detto, non si rivela un’arma contro la sintesi moderna, ma forse nemmeno un proiettile. Anzi, è più probabile il contrario: potrebbe aggiungere un tassello in più in un’architettura sempre più meravigliosamente complessa e che solo in questi decenni si sta rivelando ai nostri occhi. L'articolo L’evoluzione non ha una bussola proviene da Il Tascabile.
Scienze
biologia
genetica
evoluzione
Capitalismo dopaminergico
S e negli ultimi decenni, grazie agli studi postcoloniali, è stato reso noto l’impatto del capitalismo sugli ambienti umani e non umani di tutto il mondo, esiste una colonizzazione ancora più profonda e pervasiva operata dal sistema economico imperante: quella delle menti – non solo in senso ideologico, ma anche puramente neuronale; e, con questa, la colonizzazione del tempo futuro, oltre che dello spazio. Su questo nucleo si concentra l’analisi che Matteo Motterlini fa in Scongeliamo i cervelli non i ghiacciai. Perché la nostra mente è l’ostacolo più grande nella lotta al cambiamento climatico (2025): un saggio tanto agevole quanto dettagliato sui meccanismi cognitivi, prima ancora che socio-politici, che hanno innescato la crisi ecologica in atto. Il capitalismo da finanziario si è fatto limbico: ha imparato ad attivare e sfruttare i circuiti dopaminergici degli esseri umani, le reazioni istintive, i riflessi emotivi e le tendenze comportamentali controllate dalle strutture cerebrali che vanno sotto il nome di sistema limbico, appunto. È il sistema dell’anticipazione del piacere, emotivo e reattivo, in tensione con i circuiti del controllo cognitivo e della pianificazione, in cui la corteccia prefrontale ha un ruolo centrale. Questo equilibrio dinamico, ci spiega Motterlini, è stato programmaticamente alterato, e i disequilibri ecologici e geopolitici che sono ormai sotto gli occhi di tutti ne sono una conseguenza su larga scala. La promozione di beni e servizi che incoraggiano l’eccesso e la dipendenza, attraverso ricompense rapide ma a breve termine, è alla base di un’economia (digitale e non) in cui la sovrabbondanza si maschera da scarsità percepita, alterando così il modo in cui pensiamo e prendiamo decisioni. E il paradosso è che l’edonismo sfrenato alla base dei consumi in costante crescita sfocia in realtà in un’anedonia solipsistica e nichilista. Scongeliamo i cervelli affronta questi e tanti altri meccanismi, attraverso dati ed esperimenti sociocognitivi che illuminano la profondità del pozzo in cui ci troviamo, ma anche molte possibili strategie per venirne fuori. In occasione dell’uscita del libro abbiamo dialogato con l’autore, professore ordinario di filosofia della scienza presso l’Università Vita-Salute San Raffaele di Milano, dove dirige il Centro di ricerca in epistemologia sperimentale e applicata. Da un lato l’attenzione del saggio si rivolge ai meccanismi neuronali che distinguono gli esseri umani dagli altri esseri viventi: in particolare, la pianificazione a lungo termine e i comportamenti da questa derivanti vengono presentati come capacità caratteristiche della sola nostra specie, distinguendoli dai comportamenti animali che sarebbero anticipatori solo come riflesso dell’evoluzione. Dall’altro lato è molto efficace, nel libro, la definizione della crisi climatica come crisi di astinenza in un sistema economico drogato di crescita, che suggerirebbe un parallelo tra il sistema cognitivo umano e il sistema planetario: la mente umana sarebbe quindi il motore di dinamiche globali che a loro volta influiscono sui (dis)funzionamenti cognitivi dei singoli. QUALI SONO I VANTAGGI DELLO SCORPORARE I MECCANISMI COGNITIVI UMANI DA QUELLI PIÙ-CHE-UMANI? IN CHE MISURA È NECESSARIO DISTINGUERE I NOSTRI MODI DI PENSARE – QUELLI VIRTUOSI MA SOPRATTUTTO QUELLI FALLACI – PER COMPRENDERE UNA CRISI CHE È IN LARGA PARTE ORIGINATA PROPRIO DA UN’ERRONEA LETTURA DELLA CENTRALITÀ DELL’ESSERE UMANO SULLA TERRA? Gli animali anticipano il futuro solo perché l’evoluzione li ha “programmati” a farlo. Noi, invece, possiamo rappresentarcelo, simularlo, immaginarlo. Questa capacità – che nasce dall’evoluzione, certo – è però fragile, discontinua, facilmente sabotata da impulsi più antichi. È lì che si determina un cortocircuito: abbiamo un cervello capace di pianificare il lungo periodo, ma lo usiamo poco, male e spesso contro noi stessi. L’incapacità di reagire alla crisi climatica nasce da una combinazione di miopia temporale, present bias e ambienti decisionali che amplificano le nostre debolezze. Il capitalismo della crescita infinita funziona perché parla direttamente al nostro sistema limbico, non alla parte riflessiva della mente. È una gigantesca macchina dopaminergica che trasforma una vulnerabilità biologica in un modello economico. In questo senso, quando descrivo la crisi climatica come una crisi di astinenza, non è una metafora azzardata: è una diagnosi cognitiva. Stiamo chiedendo a un sistema dipendente dai consumi di smettere, senza cambiare il contesto che lo rende dipendente. MA NON È LA RIFLESSIONE UMANA ESSA STESSA UNA CONSEGUENZA DELL’EVOLUZIONE? COSA POTREMMO IMPARARE DAL RIPENSARLA IN QUANTO TALE? Capire come funziona la nostra mente serve a decentrare l’umano, non a celebrarlo. Ci mostra che non siamo osservatori esterni del sistema Terra, ma una sua parte biologica, con limiti precisi, bias prevedibili e una capacità di autoinganno sorprendente. Pensarci come “speciali” perché razionali è uno degli errori che ci ha portato fin qui. La riflessività umana è un prodotto dell’evoluzione. Ma è un prodotto incompiuto. Non è una conquista definitiva, è una possibilità che va allenata, sostenuta da istituzioni, norme, incentivi, architetture di scelta. Se la lasciamo sola, perde quasi sempre contro l’urgenza del presente. È per questo che nel libro insisto tanto su regole, vincoli, default, cooperazione: non come limitazioni della libertà, ma come protesi cognitive. Strumenti che compensano ciò che l’evoluzione non ha avuto il tempo di perfezionare. Se siamo arrivati fin qui cambiando l’ambiente naturale, possiamo anche cambiare l’ambiente decisionale per non autodistruggerci. Non dobbiamo diventare “più buoni” o “più saggi”. Dobbiamo diventare più realisti su come funzioniamo davvero. È da lì che può nascere una risposta alla crisi climatica. IN BASE AL MODELLO ECONOMICO DELLO SCONTO ESPONENZIALE, OGNI INTERVALLO DI TEMPO RIDUCE IL VALORE DI UNA RICOMPENSA IN MODO PROPORZIONALE E COSTANTE, SECONDO UNA CURVA DECRESCENTE, REGOLARE E CONTINUA. TENDEREMMO QUINDI A PREFERIRE GRATIFICAZIONI IMMEDIATE PIUTTOSTO CHE LAVORARE CON LUNGIMIRANZA SULLA RISOLUZIONE DI PROBLEMI CHE SAPPIAMO ANDARE PEGGIORANDO. EPPURE, ALMENO NEL MONDO OCCIDENTALE, SI RISCONTRA UN’INCAPACITÀ DIFFUSA A GODERE DEL PRESENTE STESSO, AD ESSERNE SODDISFATTI, AD ATTRIBUIRE UN VALORE NON MONETARIO AL QUI E ORA. COME VEDE QUESTA DISSONANZA TRA I MODELLI ECONOMICI E L’EFFETTIVO MODO DI STARE AL MONDO DI MOLTI DI NOI IN QUESTA PARTE DEL MONDO? Lo sconto intertemporale non dice che il presente ci rende felici, ma che tende a pesare troppo nelle nostre decisioni. Sovrastimiamo i costi immediati e sottostimiamo i benefici futuri. Questo però produce un paradosso: non sappiamo rinunciare a gratificazioni rapide, ma al contempo non traiamo soddisfazione duratura da ciò che facciamo. Questa distorsione nasce da un conflitto interno: tra un sé orientato all’immediato, sensibile alle perdite e all’urgenza, e un sé proiettato nel futuro ma psicologicamente e politicamente debole. È per questo che rimandiamo scelte che sappiamo necessarie, e allo stesso tempo viviamo in una condizione di affanno permanente. Lo stesso meccanismo opera sul piano collettivo e intergenerazionale. Trattiamo le generazioni future come se contassero meno, come se avessero un valore ridotto. È una forma di miopia temporale che rende possibile la procrastinazione climatica: sappiamo che i costi arriveranno, ma non ricadranno su di noi, almeno non subito. Un presente governato dall’urgenza della crescita, dalla logica della performance e dall’illusione dell’ottimizzazione continua finisce per erodere le condizioni stesse del benessere, oggi e domani. È un presente che divora il futuro senza riuscire a nutrire chi lo vive. MI PARE CHE IL DISCORSO POSSA ESSERE AMPLIATO ANCHE ALL’OTTIMISMO IMPOSTO DALL’ALTO INSIEME A UN’IDEA DISTORTA DI PROGRESSO, IN NETTO CONTRASTO CON PESSIMISMO E CATASTROFISMO SEMPRE PIÙ DIFFUSI NEL MONDO REALE. L’ottimismo imposto dall’alto si inserisce come una narrazione rassicurante che promette progresso senza costi, soluzioni senza rinunce, tecnologia senza limiti. Ma, paradossalmente, proprio per questo genera sfiducia. Quando il racconto ufficiale è in contrasto con l’esperienza quotidiana, produce dissonanza. E la dissonanza, se non viene riconosciuta, si trasforma in cinismo o in fatalismo. Il pessimismo che vediamo emergere non è un rifiuto del futuro in sé, ma la percezione che il patto intergenerazionale sia stato rotto. Che qualcuno stia incassando oggi lasciando ad altri il conto di domani. La risposta, come sostengo nel libro, non è scegliere tra ottimismo e pessimismo, ma ricostruire istituzioni, regole e norme sociali capaci di rendere il futuro rilevante nel presente. IN PARTE COLLEGATA ALLA DOMANDA PRECEDENTE C’È UNA CURIOSITÀ SUL DATO DA LEI RIPORTATO IN BASE AL QUALE NEGLI ULTIMI VENTI ANNI IL BENESSERE SOGGETTIVO DI TUTTE LE FASCE D’ETÀ È DIMINUITO IN NORD AMERICA. SEMBRA DUNQUE CHE SI STIA RISVEGLIANDO UNA CONSAPEVOLEZZA DEI TANTI E VARI PROBLEMI INTRINSECHI AL COSIDDETTO SVILUPPO CAPITALISTA E ALLO STESSO SOGNO AMERICANO. COME MAI, SECONDO LEI, NON SI RIESCE A INCANALARE QUESTA PERCEZIONE IN UN CAMBIO DI ROTTA CULTURALE E POLITICO? CHE TIPO DI STRATEGIE COGNITIVE DOVREBBERO ESSERE SOLLECITATE PER GENERARE UN CAMBIO DI QUESTO TIPO? Il calo del benessere percepito che osserviamo negli ultimi vent’anni, soprattutto in Nord America e tra i più giovani, è un segnale forte perché smentisce l’idea che più crescita, più consumo e più stimoli dopaminergici coincidano automaticamente con più “felicità”. L’epidemia di obesità, l’aumento delle dipendenze, l’abuso di psicofarmaci e oppioidi mostrano che quando un ambiente è progettato per stimolare continuamente il circuito della ricompensa, il risultato non è la soddisfazione, ma l’assuefazione. E l’assuefazione non produce felicità: produce bisogno e, nei casi peggiori, dipendenza. È così che possiamo avere società sempre più ricche e individui sempre meno felici. Nel libro spiego perché questa non è una contraddizione, ma un effetto diretto del modo in cui definiamo e misuriamo il progresso. Il PIL registra flussi di produzione e consumo, ma ignora ciò che viene eroso per ottenerli. Conta come crescita ciò che in realtà è consumo di capitale – sociale e naturale. Se inquiniamo, degradiamo ecosistemi o compromettiamo la salute pubblica, il PIL sale comunque. Questo modello di crescita assomiglia sempre più a un ciclo di dipendenza: ricerca continua del piacere, illusione di eccessi senza conseguenze, rimozione sistematica dei costi reali. Funziona finché funziona. Poi il sistema non regge più. La sostenibilità non riguarda un flusso annuale, ma uno stock: il patrimonio complessivo che lasciamo in eredità. Confondere questi due livelli significa prendere decisioni pubbliche con una bussola che punta nella direzione sbagliata. Per tutelare davvero il benessere dei futuri abitanti del pianeta servirebbe una contabilità della ricchezza inclusiva, che consideri il capitale naturale e sociale come parte integrante della ricchezza collettiva. La “L” in PIL sta per lordo, non per “al netto” della distruzione di suolo, aria e biodiversità. È uno strumento utile per il breve periodo, ma inadatto a guidare scelte di lungo termine. Un Paese che aumenta il PIL distruggendo il proprio capitale naturale non sta diventando più ricco: sta firmando una cambiale a carico di chi verrà dopo di noi. E rimandare non elimina il costo, lo accumula. Quando il futuro presenterà il conto, la vera domanda non sarà quanto ci costerà cambiare, ma quanto ci è costato non averlo fatto prima. TROVO MOLTO PRODUTTIVA LA SUA DISCUSSIONE DEL MECCANISMO DEL PREIMPEGNO, CHE PREVEDE UN’AUTOIMPOSIZIONE DI VINCOLI CHIARI E IRREVERSIBILI A CUI OGNI NUOVO CICLO POLITICO DOVRÀ TENERE FEDE. LEI SPIEGA BENE COME LA SCELTA DI PREIMPEGNARSI A RIDURRE PRODUZIONE, CONSUMI E CRESCITA ECONOMICA PER TUTELARE L’AMBIENTE – E DUNQUE LIMITARE ALCUNE SCELTE NEL PRESENTE – SIA CONDIZIONE NECESSARIA PER LA SOPRAVVIVENZA DELLA STESSA CAPACITÀ DI SCELTA IN FUTURO, DECOSTRUENDO COSÌ LA RETORICA LIBERISTA SECONDO  CUI LE LIBERTÀ INDIVIDUALI DOVREBBERO ESSERE INATTACCABILI. QUALE FORMA DI GOVERNO, A SUO PARERE, SAREBBE LA PIÙ EFFICACE AD ACCOGLIERE UN CERTO GRADO DI DIRIGISMO AMBIENTALISTA, CONSIDERANDO I PROBLEMI CHE LEI STESSO EVIDENZIA NELLE DEMOCRAZIE ODIERNE, ORMAI SUCCUBI DI OLIGARCHIE FINANZIARIE E DIGITALI? Nel libro insisto su un punto che spesso viene frainteso: il preimpegno non è una limitazione della libertà, ma la condizione stessa affinché si intervenga a favore del clima. Se continuiamo a interpretare la libertà solo come assenza di vincoli nel presente, finiamo per distruggere proprio lo spazio entro cui le scelte future potranno essere esercitate. Da qui discende una conseguenza politica scomoda ma inevitabile. La questione ambientale non può essere affrontata da una forma di governo che viva in uno stato di campagna elettorale permanente, con l’orizzonte temporale fissato alle prossime elezioni o ai prossimi sondaggi. Le democrazie contemporanee, così come funzionano oggi, soffrono di una miopia strutturale: tendono a sovrappesare il consenso immediato e a sottovalutare i costi differiti. Questo le rende particolarmente esposte alla pressione di interessi concentrati, ben organizzati e finanziariamente potenti. La risposta non è né l’autoritarismo verde né una sospensione della democrazia. L’idea che serva “meno democrazia” per salvare il pianeta è una falsa alternativa. Il problema non è la democrazia in sé, ma una democrazia priva di vincoli credibili contro il “breve-termismo”. La forma di governo più efficace è una democrazia capace di autovincolarsi. Una democrazia che accetta alcune scelte fondamentali, rendendole non negoziabili a ogni cambio di maggioranza. È una logica molto semplice: se sappiamo che cederemo alla tentazione, l’unica soluzione razionale è toglierci la possibilità di farlo. Questo significa fissare obiettivi ambientali chiari e duraturi, sottrarli alla contingenza politica e affidarli a regole e istituzioni progettate per durare nel tempo: standard ambientali stringenti, politiche industriali coerenti, meccanismi fiscali che rendano costoso tornare indietro. Non perché qualcuno “comandi dall’alto”, ma perché senza vincoli il sistema deraglia. Come detto, è una questione di giustizia intergenerazionale. Chi pagherà il prezzo più alto delle scelte attuali non ha voce nel processo politico di oggi. Il preimpegno serve anche a questo: a rappresentare interessi assenti, a dare peso politico a chi oggi non può difendersi. L’idea che le libertà individuali siano intoccabili anche quando distruggono le condizioni materiali della loro stessa esistenza è una fallacia. La libertà di inquinare che consuma il futuro non è libertà: è mettere il pianeta in liquidazione. UN PREGIO DEL SUO LIBRO RISIEDE NELLA PROPOSTA DI SOLUZIONI, ALCUNE DELLE QUALI A PORTATA DI OGNUNO DI NOI, ALTRE RELATIVE ALLA GESTIONE DELLA COSA PUBBLICA. IL SUO STESSO LAVORO AGISCE NELL’ALVEO DI QUELLA CHE LEI DEFINISCE UN’EDUCAZIONE CIVICA EPISTEMICA, PRODUCENDO INFORMAZIONE SCIENTIFICA AFFIDABILE E ACCESSIBILE, CHE POSSA FARE DA BASE A SISTEMI VIRTUOSI DI GESTIONE COLLETTIVA. MI PIACEREBBE QUINDI FINIRE CON UN ESPERIMENTO IMMAGINATIVO. SE LE VENISSE AFFIDATO DOMANI UN RUOLO DECISIONALE ALL’INTERNO DEL GOVERNO DI UN PAESE OCCIDENTALE – L’ITALIA, PERCHÉ NO? – QUALI SAREBBERO I PRIMI TRE CAMBIAMENTI SU CUI LAVOREREBBE NELL’IMMEDIATO, E IN CHE MODO QUESTI ANDREBBERO AD AGIRE SUL MEDIO-LUNGO PERIODO? Il primo intervento riguarderebbe la visibilità del problema. Una delle ragioni per cui la crisi climatica non ci muove è che resta astratta, lontana, statisticamente corretta ma emotivamente irrilevante. Renderei salienti gli impatti locali, presenti, quotidiani delle scelte ambientali. Dati chiari, comparabili, territorializzati. Non “il pianeta”, ma l’aria che respiriamo, l’acqua che beviamo, i costi sanitari che paghiamo. Nel medio periodo questo crea una base di realtà condivisa, riducendo lo spazio per la dissonanza cognitiva e il negazionismo. La seconda leva sarebbe quella delle scelte per default. Non chiederei alle persone di diventare improvvisamente più virtuose o più informate. Cambierei ciò che accade quando non si sceglie. Energia, mobilità, edilizia, rifiuti: rendere l’opzione sostenibile quella standard, lasciando sempre la possibilità di opt-out, ma rendendo il comportamento dannoso più costoso, meno comodo, meno invisibile. È una misura poco ideologica e molto efficace, perché lavora con, non contro, i limiti cognitivi. Nel medio-lungo periodo questo normalizza comportamenti che oggi appaiono “sacrifici”. La terza azione riguarderebbe la fiducia. Senza fiducia nelle istituzioni, nella scienza e nei processi decisionali, nessuna transizione regge. Investirei subito in quello che nel libro chiamo educazione civica epistemica: non per insegnare alle persone “cosa pensare”, ma come distinguere informazioni affidabili da narrazioni manipolatorie. Questo significa rafforzare l’indipendenza delle autorità scientifiche, proteggere gli spazi di competenza dagli attacchi politici e rendere trasparenti i conflitti di interesse. Nel lungo periodo, è l’unico antidoto strutturale alla disinformazione e al complottismo. Sono interventi poco spettacolari, lo ammetto. Non promettono miracoli né salvezze rapide. Ma hanno un vantaggio decisivo: non richiedono un’umanità migliore, solo istituzioni un po’ più intelligenti e a misura di cittadino. E se c’è una cosa che ho imparato studiando decisioni e comportamenti è che, quando i contesti cambiano con “cognizione di causa”, le persone spesso fanno la cosa giusta senza neppure accorgersene. In fondo, sarebbe già un enorme passo avanti. L'articolo Capitalismo dopaminergico proviene da Il Tascabile.
Scienze
cambiamento climatico
capitalismo
consumismo
meccanismi cognitivi
Ripensare i dinosauri, di nuovo
I l 2025 verrà ricordato, quantomeno da chi ha la passione per cinema e dinosauri, come un anno dorato. In un genere tradizionalmente parco di proposte sono usciti ben due film di alto profilo con protagonisti i rettili mesozoici. Il primo, Jurassic World – La rinascita, di Gareth Edwards, è il settimo capitolo di una saga ultratrentennale e il quarto uscito negli ultimi dieci anni. Costato intorno ai 200 milioni di dollari, ne ha incassati più di 800, a dimostrazione che il franchise è uno dei pochi ancora in piena salute a Hollywood, almeno tra quelli storici. A fronte di questo successo, passa in secondo piano il fatto che i dinosauri del film non siano ormai più veri dinosauri, ma ibridi con altre specie (anche tassonomicamente distanti), o addirittura creature transgeniche con caratteristiche fisiche anatomicamente impossibili e nomi altisonanti come Distortus rex (un Tyrannosaurus rex a sei zampe). Il secondo film di dinosauri dell’anno, Primitive War di Luke Sparke, di milioni ne è costati appena sette, e non è arrivato a incassarne due. Tratto da un romanzo scritto da un vero appassionato del tema (l’americano Ethan Pettus, che ha anche collaborato alla sceneggiatura del film), è popolato, questo sì, di veri dinosauri, strappati alla loro epoca da un macchinario – costruito dai russi con lo scopo originario di teletrasportare i propri soldati in posizioni vantaggiose – che ha aperto svariati varchi nello spazio-tempo. Da questi varchi, strategicamente situati nel mezzo della giungla vietnamita nel 1968, sono uscite intere popolazioni di Utahraptor, Deinonychus, ovviamente Tyrannosaurus rex, e anche di creature che dinosauri non sono ma che hanno la loro stessa età e tutto quello che serve per partecipare al carnaio, come Quetzalcoatlus. Nonostante abbiano in comune un aspetto fondamentale, quindi, cioè la presenza dei dinosauri, Jurassic World – La rinascita e Primitive War hanno avuto risultati molto diversi, prevedibili entrambi, e che rispondono alle più basilari leggi del mercato cinematografico. Strizzando un po’ gli occhi, però, si potrebbe vedere dietro questa sproporzione anche un aspetto simbolico, e un avvertimento ai filmmaker di tutto il mondo: più i tuoi dinosauri sono realistici, meno successo avranno. > Per molto tempo la possibilità che i dinosauri avessero le piume rimase > sostanzialmente inesplorata, anche perché andava contro quella che era > l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia > aperte da cinema e letteratura. Cercare realismo e correttezza scientifica in un film nel quale i russi cattivi squarciano lo spazio-tempo può sembrare un esercizio sciocco, almeno quanto aspettarsi che un B-movie australiano ambientato in Vietnam abbia una funzione pedagogica. Eppure la storia dell’audiovisivo insegna che molte rappresentazioni della natura comparse su grande o piccolo schermo hanno contribuito, giuste o sbagliate che fossero, a plasmare il nostro immaginario. Nel 1958, il presunto documentario Artico selvaggio (White Wilderness) di James Algar, si inventò l’idea che i lemming fossero animali con istinti suicidi di massa; si scoprì poi che i roditori erano stati gettati apposta da una scogliera dagli stessi autori del documentario, ma lo scandalo non fu sufficiente per sradicare del tutto la diceria (ancora nel 2014 uscivano studi sul legame tra consumo di alcool e percezione del rischio che parlavano di “Lemming-effect”). Gli effetti de Lo squalo (Jaws, 1975) di Steven Spielberg sulla nostra immagine degli squali si sentono ancora oggi. Vogliamo allargare il campo all’intero ambito culturale? In Italia, la paura del lupo è quasi atavica, e Cappuccetto Rosso ha contribuito in maniera decisiva a definirla. Ed ecco perché un film come Primitive War ha attirato l’attenzione dei paleontologi anche più che dei cinefili: i suoi dinosauri sono piumati, e un eventuale successo dell’opera avrebbe potuto spalancare le porte a una rivoluzione che è in pausa da trent’anni. La questione delle piume La questione delle piume dei dinosauri è in realtà ben più vecchia di trent’anni. Le prime ipotesi sul legame tra dinosauri e uccelli risalgono al 1861, con la scoperta e descrizione di Archaeopteryx lithographica, il primo dinosauro piumato, da parte di Christian Erich Hermann von Meyer, e poi al 1870, quando Thomas Henry Huxley avanzò formalmente l’idea in un paper dall’esplicito titolo “Further Evidence of the Affinity between the Dinosaurian Reptiles and Birds”. Fino al 1969, però, la questione rimase sostanzialmente inesplorata, anche perché era in netto contrasto con l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia aperte da cinema e letteratura: quella che li vedeva come grosse lucertole lente e un po’ tonte, oppure grosse e voraci (ma altrettanto lente). Una visione nata in parallelo alla stessa paleontologia, portata avanti a cavallo tra Ottocento e Novecento dai più grandi nomi della disciplina e proposta anche al pubblico in giornali, riviste, mostre ed esibizioni: le storiche sculture del Crystal Palace Park di Londra, create nel 1854 da Benjamin Waterhouse Hawkins, definirono l’immagine pubblica dei dinosauri per più di un secolo. > I dinosauri sono stati considerati delle grosse lucertole lente e un po’ > tonte, finché, cinquant’anni fa, alcuni studi hanno suggerito che fossero > animali agili, a sangue caldo ed evolutivamente imparentati agli uccelli. La rivoluzione scoppiò a cavallo tra gli anni Sessanta e Settanta del secolo scorso. Prima, nel 1969, John Ostrom descrisse Deinonychus antirrhopus come un “dinosauro carnivoro molto particolare” con “una serie di caratteristiche che indicano un animale molto attivo e agile”, in contrasto quindi con lo stereotipo della lucertola lenta. Poi, nel 1975, Robert Bakker aprì così il suo storico articolo “Dinosaur Renaissance”: > I dinosauri sono, per la maggior parte della gente, l’epitome dell’animale > estinto, il prototipo della bestia talmente poco adatta ai cambiamenti > ambientali che non può che morire, lasciando fossili ma nessun discendente. I > dinosauri hanno una pessima immagine pubblica, che li vede simboli di > obsolescenza e pachidermica inefficienza […] Le ricerche più recenti stanno > riscrivendo questo dossier […] Le prove dimostrano che i dinosauri non si sono > estinti del tutto. Un gruppo resiste ancora. Li chiamiamo uccelli. L’articolo di Bakker proseguiva suggerendo che i dinosauri fossero omeotermi (“a sangue caldo”), che avessero un metabolismo paragonabile a quello dei mammiferi, ma anche, per esempio, che Archaeopteryx avesse le piume non per facilitarlo nel volo ma per questioni di isolamento termico. Tutte idee rivoluzionarie, anche provocatorie, che aprirono innumerevoli filoni di ricerca e contribuirono a modificare, e pure con una certa rapidità, il modo in cui la paleontologia immaginava i dinosauri: il legame con gli uccelli era ormai innegabile, e i loro antenati diventarono all’improvviso creature attive, agili, forse anche intelligenti. > Niente ha contribuito a segnare per sempre il nostro immaginario quanto > l’uscita, nel 1993, di Jurassic Park: un laboratorio a cielo aperto, un grande > aggiornamento collettivo per mettere il pubblico in pari con la scienza. E come già accaduto nell’Ottocento, anche queste novità filtrarono rapidamente nel cosiddetto immaginario collettivo. Il cartone animato di Don Bluth Alla ricerca della Valle Incantata (The Land Before Time), uscito nel 1988, avrebbe avuto dinosauri molto diversi se fosse uscito solo dieci anni prima. Provate a confrontare la versione cinematografica di Il mondo perduto (The Lost World) di Conan Doyle del 1960, diretta da Irwin Allen, con quella del 1992, di Timothy Bond: la prima è dominata dal Brontosaurus e i pericoli per i protagonisti sono rappresentati da una tribù di cannibali; nella seconda, oltre all’immancabile T. rex, compare un Herrerasaurus ischigualastensis, un grosso ma agile carnivoro con zampe da corridore e denti seghettati da predatore attivo. E ovviamente niente contribuì a segnare per sempre la nostra fantasia quanto l’uscita, nel 1993, di Jurassic Park. Tratto da un romanzo che calcava ancora di più la mano sulla nuova immagine dei dinosauri come grossi polli feroci, il film di Steven Spielberg portò a milioni di persone tutto quello di cui la paleontologia discuteva con passione da vent’anni. Sulla locandina campeggiava lo scheletro di un T. rex, ma i veri protagonisti, gli alfieri della rivoluzione, erano i Velociraptor: Rapidi, intelligenti, coordinati, si muovevano e cacciavano in branchi, e assomigliavano più a grossi uccelli che a lucertole terribili. Certo, il vero Velociraptor era più piccolo e meno minaccioso, e quelli che si vedevano nel film erano in realtà Deinonychus che avevano subìto un cambio di nome semplicemente perché “Velociraptor” suonava più cool. Resta che un predatore del genere in un film di dinosauri non si era mai visto: Jurassic Park fu un laboratorio a cielo aperto, un grande aggiornamento collettivo per mettere il pubblico in pari con la scienza. E infatti conteneva anche errori, omissioni e interpretazioni che poi sono state smentite: pensate solo al Dilophosaurus e alla sua abitudine di sputare veleno. Ma era un’opera (anche) didattica, e non a caso il consulente scientifico del film era il paleontologo Jack Horner, quello che ha suggerito più volte “se l’avessimo fatto davvero realistico, il Jurassic Park sarebbe stato un enorme pollaio” e che usò i mezzi e il talento di Spielberg per rendere globale la rivoluzione lanciata da Bakker. Una rivoluzione a metà Salutato come un miracolo dal mondo della scienza, accompagnato da un rinnovato interesse generale per i dinosauri e da un boom di iscrizioni nelle facoltà di paleontologia, Jurassic Park si rivelò però essere più che altro un punto d’arrivo. L’enorme successo della saga, e i suoi costi sempre maggiori e insostenibili per la concorrenza, ne stabilirono di fatto il primato incontrastato: nessun altro aveva più il coraggio (e i soldi) per fare film sui dinosauri, e con il passare dei capitoli la spinta innovativa e didattica del franchise si andò affievolendo. Ancora una volta, nulla lo dimostra meglio delle piume. Appena tre anni dopo l’uscita del film, nella provincia cinese di Liaoning, il cacciatore di fossili semi-professionista Li Yumin scoprì il primo esemplare fossile di Sinosauropteryx, il primo dinosauro piumato non-aviale (Avialae è il nome del clade che comprende gli uccelli e i dinosauri più strettamente imparentati con loro). Era la prova definitiva che le piume, o strutture simili, erano diffuse tra i dinosauri, non limitate a pochi, selezionati gruppi; negli anni a venire, la ricchezza appena scoperta dei giacimenti fossiliferi cinesi fece il resto, e paleontologia (e paleoarte) dovettero aggiornare un’altra volta il proprio immaginario. > La frattura tra la scienza dei dinosauri e la loro immagine pubblica è una > questione commerciale: i dinosauri piumati rischiano di risultare buffi e non > spaventosi. Inoltre, ricostruire il comportamento e le abitudini di animali > estinti è complicato, spesso si tende a non speculare per non rischiare > figuracce. Andiamo quindi al 2015, quasi vent’anni dopo la rivoluzione di Sinosauropteryx. In occasione dell’uscita di Jurassic World, che rilanciò la saga dopo 14 anni di iato, in un’intervista ad Atlas Obscura Jack Horner si ritrovò quasi a giustificarsi per il fatto che i dinosauri del film non fossero ancora piumati. “Bisogna restare coerenti tra film e film. Non puoi avere dinosauri senza piume nel primo film, poi riproporli nel quarto con le piume […] Ne ho parlato con Steven e, be’, ha ragione lui: un dinosauro con le piume colorate non è spaventoso come quelli del film”. Ed ecco il vero punto del discorso: la frattura profonda tra la scienza dei dinosauri e la loro immagine pubblica è, tristemente, una questione commerciale. I dinosauri attivi e intelligenti sono “really cool” come dice Horner: ecco perché i Velociraptor di Jurassic Park hanno avuto successo. I dinosauri piumati invece no: sono buffi, sembrano polli giganti, non sono spaventosi. Poco importa che le loro piume avessero poco a che fare con quelle di oche e galline (nella maggior parte dei casi erano poco più che filamenti, presenti solo sulle zampe e sulla coda, con funzioni di isolamento termico e forse di display visivo ma non adatte al volo): le squame sembrano una condizione irrinunciabile per portare al cinema un dinosauro efficace. La vexata questio delle piume è peraltro solo un aspetto, per quanto il più in vista, della rivoluzione mancata. Ancora nel 2012, il paleontologo Darren Naish e i paleoartisti John Conway e C.M. Kosemen sostenevano che la maggior parte delle rappresentazioni dei dinosauri fossero obsolete e conservatrici. Il loro esempio più famoso è quello relativo alla pelle in eccesso: osservando, per esempio, il cranio fossile di una gallina, è impossibile immaginarsi cresta e bargigli, e lo stesso discorso è applicabile ai dinosauri, che secondo Naish, Conway e Kosemen potevano avere labbra, gengive o altre parti molli che ne cambiavano radicalmente l’aspetto. Ci sono poi le questioni etologiche: ricostruire il comportamento e le abitudini di animali estinti da milioni di anni è complicato ma non impossibile, ma spesso si tende a non speculare per non rischiare figuracce. L’opera di Naish, Conway e Kosemen invitava invece a rischiare e immaginare, e fu prima di tutto una provocazione, raccolta principalmente da quella nicchia che è la paleoarte. Nicchia in espansione, certo: l’abbattimento dei costi tecnologici, e la disponibilità sempre maggiore sia di software, sia di dati anatomici e scansioni 3D di fossili, ha moltiplicato gli artisti che si cimentano nel campo, e che lavorano con attenzione sopraffina al dettaglio scientifico e alla plausibilità, oltre che all’aspetto artistico. Ma pur sempre nicchia: al cinema, nei fumetti, nei videogiochi, nei libri, siamo ancora fermi ai dinosauri squamosi. Come si compone la frattura? Il “Secondo Rinascimento” dei Dinosauri, dopo quello, efficacissimo, degli anni Settanta, è quindi per ora una rivoluzione mancata, ma questo non significa che sia morta: si tratta solo di trovare la chiave giusta per fare la proverbiale breccia nella fantasia di chi frequenta i dinosauri solo di striscio, e di solito davanti a uno schermo. > Oggi sappiamo molte più cose sul comportamento dei dinosauri rispetto a trenta > anni fa, e molte di queste (socialità, comportamenti di branco, > organizzazione, gerarchie) sarebbero un ottimo gancio per presentare un’idea > di dinosauro nuova, ma non per questo meno affascinante o commercialmente > efficace. In un certo modo un po’ obliquo e fin troppo antropomorfizzante, va ammesso che i primi capitoli della saga di Jurassic World ci hanno provato, mostrandoci un gruppo di Velociraptor addestrati come fossero cani di razza, spingendo quindi sul tema – già sfiorato nella trilogia originale – dell’intelligenza dei dinosauri. Una pura fantasia di potenza, certo, ma il fatto che sia stata inserita nel franchise riflette il fatto che negli ultimi vent’anni si siano moltiplicati gli studi di paleoetologia, lo studio del comportamento degli animali estinti. Uno studio argentino del 2021 per esempio ha proposto che i sauropodomorfi (“quelli grossi con il collo lungo”, quindi i vari Brontosaurus, Diplodocus, Argentinosaurus…) vivessero in greggi organizzate, vere e proprie colonie formate da gruppi sociali divisi per età. Nello stesso anno, uno studio statunitense ha avanzato l’ipotesi che gli stessi sauropodomorfi intraprendessero lunghe migrazioni di gruppo, non dissimili da quelle di certi grandi erbivori moderni, e la scoperta della Dinosaur Highway dell’Oxfordshire ha confermato che i grossi carnivori (e loro predatori) li accompagnavano nei loro viaggi per ovvi motivi. Per tornare all’argomento più caldo, una ricerca cinese suggerisce che le piume di Microraptor, un piccolo dinosauro con quattro ali, fossero di un nero iridescente simile a quello dei moderni corvi, e venissero usate per l’esibizione sessuale. Insomma: sappiamo molte più cose sul comportamento dei dinosauri di quante ne sapessimo ai tempi dell’uscita di Jurassic Park, e molte di queste (socialità, comportamenti di branco, organizzazione, gerarchie) sarebbero un ottimo gancio per presentare in un film un’idea di dinosauro nuova, o per lo meno aggiornata, e non per questo meno affascinante o cool. Ci sono comunque segnali di risveglio, anche potenti. La divulgazione via social, per esempio, collabora da anni con la paleoarte, soprattutto quella “dal basso”, per fare tutto quello che la Jurassic saga non fa più. Due anni fa, accompagnate dall’inimitabile voce di Sir David Attenborough, molte delle scoperte più recenti a tema dinosauri hanno preso vita in Prehistoric Planet, un documentario ambientato poco prima della caduta dell’asteroide Chicxulub;  per la prima volta la serie mostrava  a un pubblico vastissimo un altro lato dei dinosauri, per ora noto solo alla scienza e agli appassionati: ad esempio uno scontro tra maschi di Dreadnoughtus (un gigantesco erbivoro che arrivava a pesare 50 tonnellate) per conquistare una femmina, una caccia di coppia di (veri) Velociraptor e diversi casi di cure parentali. La sensazione, però, è che la vera scintilla debba ancora scoccare; che manchi un Jurassic Park contemporaneo, che convinca milioni di persone ad aggiornare la propria visione dei dinosauri. La mia teoria (e non solo la mia) è che dobbiamo ripartire dalle piume: una volta accettate quelle, il resto verrà di conseguenza. L'articolo Ripensare i dinosauri, di nuovo proviene da Il Tascabile.
Scienze
cinema
dinosauri
preistoria
Sembra IA
T ra i miei messaggi privati, in una chat che condivido con una persona a me cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche. Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo. Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche, compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video generati, in particolare, è investita da una mutazione rapidissima, un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A guardare i social media, si ha l’impressione di stare scivolando da un livello di simulazione a un altro più profondo. Dopo tre anni di entusiasmo, disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA è esattamente questo: le persone hanno la sensazione di essere in balia di qualcosa che sfugge senza controllo, come se proprio la realtà stesse deragliando da sotto i piedi. Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa, improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli futuri era già evidente, ma la produzione di video da parte degli utenti restava per lo più motivo di burla e sperimentazione estetica. > Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi > a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole > incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche > complesse non immediatamente evidenti. Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche complesse non immediatamente evidenti. Video familiari, agenti atmosferici bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che impastano la massa lievitata del pane: una categoria di video dal ricercato mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante. Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto da correggere o interpretare, ma una caratteristica anestetica sfruttata nella propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o porsi domande. Simulazioni. Pseudoeventi. Narrazioni Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa dignità. Nel suo libro America (1986), racconta una visita al museo delle cere di Buena Park, in California, dove vede esposte fianco a fianco le repliche di Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono identico trattamento: cura nei dettagli, realismo espressivo, attenzione scenografica. Le due figure sembrano appartenere allo stesso registro ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard, accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le questioni dell’aderenza al reale o dell’autenticità non sono prese in considerazione. Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni, dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili, appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica: la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA generative hanno esasperato questa abilità con una potenza esponenziale, rimescolando liberamente database di miliardi di dati visivi per reiterarne altri identici. È il simulacro perfetto. > Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora > dovremmo scandalizzarci all’idea di interagire apertamente con contenuti > artificiali? La velocità sequenziale nella stimolazione visuale, lo scroll, non consente costitutivamente la distinzione critica del vero dal falso. Esporsi a questo carosello senza confini e linee di separazione, vuol dire “perdere la coscienza storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede identico valore e statuto, il rischio è di smarrire la traccia di quanto realmente accaduto ‒ o  sta ancora accadendo. Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota come a una parte della popolazione preoccupata dall’incapacità di riconoscere i video generati con IA, risponde un pubblico altrettanto numeroso che invece non si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa adesione immediata ai video generati nell’ecosistema digitale? Molto prima dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo scandalizzarci all’idea di interagire apertamente con contenuti artificiali? La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità, un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque? Nello studio “How do users perceive AI? A dual-process perspective on enhancement and replacement” i ricercatori hanno indagato il valore percepito dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti percepiscono l’IA attraverso due processi cognitivi distinti: uno più immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati mostrano come la percezione immediata (sistema 1) prevale nella fruizione sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica. Inondati dai video generati, la soglia critica si riduce, ciò che importa è l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura volutamente naive, ma destinata a diventare quella prevalente nella fruizione dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento, non ciò che è. Il reale si riduce a un’interfaccia adattativa. > L’origine dei video non è più una condizione per stabilirne la veridicità: > accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo > già appartenere alle cose del mondo. In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione. Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore implicito al momento della lettura, un soggetto che sta “dietro” al testo, con le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra utenti, piattaforme, algoritmi e sistemi di prompt automatici. C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro origine ‒ non è più un a priori, una condizione per stabilirne la veridicità: accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo più in sintonia con le nostre aspettative. I video generati servono proprio a continuare a mostrarci ciò che siamo pronti a vedere. Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito chiuso, interviste falsificate con deepfake tra politici e celebrità, sono contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come “pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America. Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o provocati, per avvenire in un preciso momento e luogo, generalmente con l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e falsi nel panorama mediatico. L’assuefazione alla proliferazione degli pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali. Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto estetico ideale diventa un atto manipolatorio: il valore della testimonianza, nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà viene letta come cinema ‒ o respinta come una messinscena, anche quando autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee Nicole Good in Minnesota). La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata, mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia (1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso. Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal senso abbondano: dal turismo che ha riconfigurato le location scelte per la serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi non usa il mattarello come in quel video?”. La realtà è un effetto narrativo. > È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà > che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che > potrebbe accadere di lì a poco. Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è ingovernabile. È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che potrebbe accadere di lì a poco. Una questione di verosimiglianza Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and analysis of a recurring conflation” (2025) esplora il concetto di verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di vista della filosofia della scienza, e sottolinea come alcune teorie, pur false, risultino più verosimili di altre. In quest’ottica, anche un video generato può essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla nostra verità di quanto lo fosse la realtà precedente. Il problema, naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle nostre attese. Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non conta più la corrispondenza con un mondo esterno, quanto la relazione informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile” se è integrato nel flusso informativo che abitiamo. La soglia della verità ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒ come se lo fosse. Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media, soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di Baudrillard. Perniola intendeva il simulacro come una forma ludica dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto imitazione del reale, ma perché obbedisce a una propria logica di esistenza estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri immaginari e schemi percettivi. In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di queste tecnologie è in mano alle “corporation dell’imagineering”, le quali “hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia: l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale, con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo avviene attraverso la saturazione degli spazi di immaginazione, con una “produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si può immaginare. Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2 di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo che appare reale per frequenza e familiarità. In quel suo “funzionare” il sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale. > Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in > cui lo guardiamo – o da cui siamo guardati. La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma ‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta reale tanto quanto la realtà irreale nella quale viviamo. In questa superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli, interpretazioni, significati, immagini e dati, facendola sparire dietro a una foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il tempo di assimilarli. “Sembra IA”. La svolta percettiva I video generati da IA rappresentano l’emersione di un nuovo paradigma di simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo, l’infosfera agisce direttamente sul sistema nervoso della società, non si limita più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo materiale. Questo scenario impone di ripensare il concetto di “post-verità” estendendolo alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui siamo guardati. Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich identificava l’emergere del “realismo sintetico” come una cesura fondamentale, citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della transizione dal cinema fotografico al cinema digitale. La settima arte cambiava identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è solo una delle possibilità” annotava Manovich. Il cinema diventava un sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più la realtà, ma la riscriveva, inaugurando una nuova condizione visiva. Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio “True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996), introducendo il concetto di perceptual realism per descrivere come le immagini digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella nuova ondata di effetti speciali generati al computer. Prince cita la creatura acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito, “diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può comprendere sia immagini irreali che immagini referenzialmente realistiche. […] Le immagini irreali possono essere referenzialmente fittizie ma percettivamente realistiche”. Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio “Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma piuttosto attraverso l’“impressione di realtà”: un effetto costruito, intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia ontologica dell’indice (l’immagine fotografica considerata come traccia diretta del mondo) alla capacità delle immagini di simulare la percezione del reale. Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua efficacia percettiva. > Software come Sora non registrano, piuttosto restituiscono idee in forma di > immagine, spostando il baricentro dal filmato alla ricostruzione digitale > totale, senza alcuna mediazione umana. Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di generare un intero film. Software come Sora non registrano, piuttosto restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il film è ora nello sguardo di tutti. Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto, quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande macchina informatica o il robot umanoide, anche la più modesta estensione dello strumento quotidiano è stata integrata nella forma‑vita umana, trasformando abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale volume di informazioni e campi di competenza differenti, da svelare la loro natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di adottarle in ogni ambito della vita quotidiana, professionale, persino affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e mediazione. > Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le > intelligenze artificiali sono riconoscibili come non-umane non per via dei > loro limiti, ma in quanto troppo capaci. Mentre Manovich, Prince e Gunning riflettono sulla materialità e la percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I media, la memoria, il cinema (2008), si concentra sull’epistemologia dello sguardo: il ruolo del cinema nella costruzione della memoria e della testimonianza, e il rapporto tra evento e trasposizione mediatica. Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo: dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un film!” davanti alla realtà mediatizzata, culminata con la trasmissione televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale, l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si limita a ridurre la distanza tra significante e significato: diventa lente attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa per essere compresa, allora la distinzione tra reale e immaginario sembra essere esplosa del tutto. Dal passaggio iniziale del “Sembra vero” (cinema → sospensione dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt – a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con l’interpretazione di categorie e riferimenti astratti, più che in relazione con il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice soddisfacimento delle sue categorie. Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra IA”, dove non si indica la simulazione, ma nuove forme di autenticità e riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi, cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti. Go and touch grass Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà, tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa. È plausibile che il pubblico, davanti ai video generati con IA, semplicemente, smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile resistenza, se non addirittura un atteggiamento reazionario. > La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe > presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile > resistenza, se non addirittura un atteggiamento reazionario. Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato. Il capitale della nostra attenzione viene cooptato da un contenuto generato all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa che finalmente “qualcosa accada davvero” si sposta da un video a quello successivo, lasciandoci davanti allo schermo come consumatori, tragici, speranzosi, assopiti. Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma perché tale confusione è parte integrante del suo raccontarsi. Lo stesso Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e simulazioni non avessero azzerato la Storia: la produzione delle immagini non riesce ancora a nascondere e contenere la materialità viscerale del mondo. Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la rappresentazione della guerra e della violenza attraverso la fotografia e i media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che non può essere ridotta alla relazione spettacolo/spettatore, e della quale dobbiamo farci carico. Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze artificiali come a un destino ineluttabile. Le intelligenze artificiali non saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono sostituirci, vogliono tutta la nostra attenzione. Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera conflittuale, produrre scarti, glitch, narrazioni che espongano il programma sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla simulazione onnisciente. Una forma di détournement digitale, atti di deviazione e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle piattaforme e spostare altrove il potere simbolico. Infine, possiamo provare a contrapporre alla simulazione generativa un altro tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni. Martha Nussbaum, in libri come  Love’s Knowledge (1990) e Poetic Justice (1995), parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui, di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente. Parafrasandola, possiamo chiamare questo processo mentale come “simulazione morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui continuiamo a esercitare la nostra capacità morale. Una controsimulazione che non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali siano le sue condizioni. A patto che l’altro esista. L'articolo Sembra IA proviene da Il Tascabile.
Scienze
Intelligenza Artificiale
Non si butta via niente
O gni anno, in Europa, quasi 60 milioni di tonnellate di cibo finiscono nella spazzatura: oltre 130 chili per persona. Una parte consistente si accumula lungo la filiera, dalla produzione alla distribuzione, mentre l’altra metà si trasforma in scarto nelle nostre case, nei ristoranti, nelle mense. In Italia, ad esempio, l’industria del pomodoro genera ogni estate migliaia di tonnellate di bucce e semi che non per forza devono diventare semplici rifiuti. Oggi, grazie a nuove tecniche di estrazione sostenibile, da quei residui si possono infatti ottenere composti ad alto potere antiossidante, riutilizzati in alimenti, cosmetici o integratori: è la scienza dell’upcycling. Numerosi studi ne evidenziano da anni la solidità e le analisi del ciclo di vita, nella maggior parte dei casi, segnalano un impatto ambientale positivo. Ma il cosiddetto upcycling alimentare, ovvero i cibi “rigenerati”, prodotti nati dal recupero di scarti o eccedenze alimentari, può essere una risposta efficace alla riduzione degli sprechi solo se si riesce a garantire sostenibilità dei processi, sicurezza del prodotto, misurazione dei risultati e opportune economie di scala. In tutto questo, come vedremo nel corso dell’articolo, la fiducia di chi consuma è un ingrediente decisivo. Non basta che un alimento sia sostenibile: deve anche apparire tale, e ispirare sicurezza. Superare queste resistenze richiede una comunicazione chiara e coerente: servono dati condivisi, confrontabili, raccontati in modo comprensibile, e un linguaggio capace di costruire fiducia più che distanza, spiegando come e perché certi ingredienti vengono recuperati, e quale valore aggiunto porta questa scelta. Genealogia della circolarità In ambito agroalimentare, il concetto di economia circolare non è certamente nuovo. Esistono da millenni pratiche agronomiche e di trasformazione alimentare orientate alla circolarità, anche a livello domestico: tradizionalmente si è sempre cercato di riutilizzare tutto, limitando lo spreco di prodotti non più salubri. Esistono molti esempi, nella storia dell’alimentazione umana, che si basano su un uso oculato delle risorse e dei cosiddetti prodotti di scarto alimentare: basti pensare alla ricotta, ottenuta dal siero residuo della lavorazione del formaggio; ma anche al riuso delle vinacce, cioè le bucce e i residui solidi dell’uva, che venivano e vengono ancora riutilizzate per produrre distillati o come combustibile. Si tratta, in tutti i casi, di forme di economia circolare ante litteram, che tendono a un principio di equilibrio tra ciò che si produce, si consuma e si restituisce al ciclo naturale. > Oggi circa la metà della superficie abitabile del pianeta è destinata > all’agricoltura, e tra il 2000 e il 2022 la produzione di colture primarie è > più che raddoppiata, generando una quantità crescente di residui e scarti > lungo la filiera. Oggi, questo pensiero secolare riemerge nel panorama della bioeconomia, portando con sé l’urgenza della scarsità di risorse in un mondo di oltre otto miliardi di persone, e segnalandoci che ciò che chiamiamo “scarto” è spesso una miniera di composti bioattivi che la scienza ha imparato a estrarre, stabilizzare e trasformare, per incorporarli in prodotti con maggiori benefici per la salute. Da secoli, il modello economico dominante si fonda sul principio del take-make-dispose, traducibile in italiano come preleva, produci, consuma e getta. È un paradigma che ha plasmato l’agricoltura e l’industria alimentare, e che oggi mostra tutti i suoi limiti. Con una popolazione mondiale destinata a superare i nove miliardi di persone entro il 2050, non è più sostenibile continuare a utilizzare risorse naturali come se fossero infinite. Oggi circa la metà della superficie abitabile del pianeta è destinata all’agricoltura, per un totale di 48 milioni di chilometri quadrati di suolo, e tra il 2000 e il 2022 la produzione di colture primarie è più che raddoppiata, generando una quantità crescente di residui e scarti lungo la filiera. L’upcycling alimentare, come altre tecniche di bioeconomia, nasce dal bisogno di rivedere il rapporto fra produzione e consumo, in un’era in cui un terzo del cibo prodotto diventa scarto contribuendo al 58% delle emissioni di metano nell’atmosfera. > Nel panorama alimentare l’upcycling non è sinonimo di riciclo. Se riciclare > implica il recupero di materia per usi differenti, l’upcycling la restituisce > al cibo, reintroducendola nella filiera con un valore nutrizionale o > funzionale più elevato. Secondo la definizione della Upcycled Food Association, nata nel 2019 come rete di poche aziende pionieristiche, con l’obiettivo di dare una definizione condivisa a ciò che fino ad allora era solo una pratica frammentaria, si considerano upcycled foods quei prodotti che utilizzano ingredienti altrimenti destinati a non essere consumati dall’uomo, provenienti da filiere tracciabili e verificabili, e che generano un impatto ambientale positivo. Nel panorama alimentare, l’upcycling non è quindi, come si potrebbe pensare, sinonimo di riciclo. Perché se riciclare implica il recupero di materia per usi differenti, l’upcycling la restituisce al cibo, reintroducendola nella filiera con un valore nutrizionale o funzionale più elevato. Proviamo quindi a capire come funziona un ciclo di processo completo. Come funziona un ciclo completo Valorizzare uno scarto, in ambito agroalimentare, significa prima di tutto conoscerlo: analizzarne la composizione nutrizionale per capire quali componenti possano essere recuperati e riutilizzati. Da qui parte un processo che unisce ricerca scientifica, tecnologie sostenibili e controllo della qualità. L’estrazione dei componenti utili avviene oggi attraverso tecniche che si stanno muovendo verso un sempre minore impatto ambientale, come l’uso di solventi green o processi biotecnologici basati su enzimi e fermentazioni controllate. È così che, per citare uno dei tanti casi di ricerca italiani, residui oggi poco sfruttati, come quelli della coltivazione delle giovani piantine di ortaggi (microgreen) raccolte pochi giorni dopo la germinazione, vengono trasformati in ingredienti funzionali per alimenti come pane o yogurt, o in molecole bioattive per nuovi prodotti. > L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi > globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo > e rallentare il cambiamento climatico. Una delle sfide maggiori è stata negli anni di rendere sempre più sostenibili le tecniche di estrazione. Ad esempio, il settore sa bene che la produzione dei derivati industriali del pomodoro genera elevate quantità di scarti – quali bucce, semi e residui di polpa – che rappresentano circa il  2-5% della materia prima. Tuttavia, per ottenere questi composti si utilizzano ancora processi che fanno uso di sostanze chimiche non propriamente sostenibili. Per cui, al fine di ridurre l’impatto, vengono impiegate diverse tecniche di estrazione alternative e con minori ricadute ambientali. Tra queste, è stato valutato l’utilizzo di anidride carbonica (CO2) per il recupero degli scarti di pomodoro. Gli estratti ottenuti da bucce, semi e cascami interi sono stati analizzati per valutare il quantitativo di carotenoidi. I risultati hanno evidenziato che gli estratti ottenuti mediante l’utilizzo della CO2 avevano un elevato potere antiossidante, con rese elevate. Le buone ragioni dell’upcycling L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo e rallentare il cambiamento climatico. Questi sistemi possono inoltre avere un bilancio di carbonio negativo: assorbono più CO₂ di quanta ne emettano, soprattutto quando le operazioni si basano su fonti rinnovabili e filiere locali. Da questo punto di vista, la scienza dell’upcycling si sta ben radicando: le ricerche sono solide e le tecnologie sempre più affidabili. I metodi di estrazione sostenibile (ultrasuoni, campi elettrici pulsati, anidride carbonica supercritica), ad esempio, permettono già da tempo di recuperare da vinacce, bucce o crusche sostanze di grande valore biologico, tra cui fibre, polifenoli e antiossidanti. Parliamo di procedure che sono arrivate a garantire rendimenti elevati e un’efficienza energetica competitiva. > Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto > ottenuto dai residui del melograno possiede effetti cardiovascolari benefici, > paragonabili a quelli di un farmaco antipertensivo. Anche i cosiddetti bioprocessi stanno dimostrando che la fermentazione selezionata (ad esempio con lieviti, batteri lattici, funghi) aumenta la biodisponibilità di minerali e vitamine e migliora la digeribilità delle proteine. Le sperimentazioni condotte in Italia lungo le filiere del vino e del riso ci dicono che la sinergia tra agricoltura, industria e ricerca può tracciare percorsi di innovazione sia dal punto di vista tecnico, sia da quello economico e della sostenibilità ambientale. Inoltre sono sempre più documentati gli effetti benefici sulla salute. Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto ottenuto dai residui del melograno possiede effetti cardiovascolari paragonabili a quelli di un farmaco antipertensivo. Il panorama dell’upcycling italiano Una recente ricerca pubblicata sul Journal of Environmental Chemical Engineering mostra come l’Italia disponga già di un sistema articolato di pratiche e tecnologie per trasformare scarti agricoli e alimentari in risorse di valore, da compost e biogas fino a bioplastiche e biocarburanti. Accanto ai processi industriali più consolidati, come il compostaggio e la digestione anaerobica, stanno emergendo filiere innovative basate su pirolisi, gassificazione o fermentazioni biologiche, spesso sviluppate in centri di ricerca del centro e del sud Italia. Queste nuove soluzioni, ancora in fase pilota, promettono di ridurre sprechi, emissioni e dipendenza da fonti fossili, ma richiedono molti investimenti, coordinamento tra territori e un quadro normativo capace di favorirne la diffusione. > La transizione alimentare non è solo una questione di tecnologie o ricette > sostenibili: è, prima di tutto, una questione di fiducia. Insomma: la tecnologia funziona, ed è a ridotto impatto ambientale, ma il passaggio a una scala più ampia rimane una sfida per niente scontata. Occorre garantire flussi continui, tenere sotto controllo le spese energetiche e integrare in modo coerente tutta la filiera. Per quanto l’upcycling sia pronto a decollare, senza un’infrastruttura adeguata non potrà crescere. Fiducia, neofobia e linguaggio La transizione alimentare non è solo una questione di tecnologie o ricette sostenibili: è, prima di tutto, una questione di fiducia. Quando si parla di cibi “rigenerati” le difficoltà non stanno tanto nei costi o nelle norme, ma nella percezione. Lo mostra chiaramente un’analisi internazionale pubblicata nel 2024 sulla rivista Food Quality and Preference: a frenare l’upcycling alimentare non sono i regolamenti, ma le persone. O meglio, alcune paure radicate, come la neofobia alimentare, cioè la diffidenza verso i cibi nuovi o poco familiari, e la tecnofobia, la paura che dietro certi processi si nascondano manipolazioni poco naturali. Eppure, l’interesse c’è. Più di un consumatore su due, soprattutto tra i più giovani, è curioso di assaggiare prodotti upcycled. Ma la curiosità si traduce in acquisto solo se il racconto è convincente. Funzionano le etichette chiare, i dati trasparenti, un linguaggio diretto che spiega come e perché certi ingredienti vengano recuperati. Al contrario, quando la comunicazione è ambigua o troppo moralistica, scatta il sospetto. > Quando il valore degli scarti viene spiegato bene, la gente non lo respinge: > lo riconosce come una forma di intelligenza collettiva, un modo concreto e > contemporaneo di pensare al futuro del cibo. Non è lo “scarto” a spaventare, ma il modo in cui se ne parla. Le persone reagiscono più all’ambiguità che all’origine del prodotto. Ciò che convince davvero è la coerenza: sapere da dove arriva il cibo, come è stato trattato, perché è sicuro. Serve un’esperienza sensoriale credibile e la sensazione che dietro ci sia un progetto autentico, non una trovata di marketing. E qui entra in gioco il linguaggio. Raccontare il valore del recupero in modo sobrio, legato alla concretezza ambientale e alla tradizione del “non sprecare”, colpisce più di qualsiasi slogan sulla virtù o sul senso di colpa. Quando il valore degli scarti viene spiegato bene, la gente non lo respinge: lo riconosce come una forma di intelligenza collettiva, un modo concreto e contemporaneo di pensare al futuro del cibo. Il discorso politico Anche la dimensione politica e il dibattito d’opinione contribuiscono a modellare le percezioni dei consumatori. Nel contesto italiano, l’innovazione alimentare è oggi filtrata attraverso una lente marcatamente identitaria. Si tende a privilegiare il valore simbolico del “cibo vero” e della filiera nazionale, e si è cauti se non avversi alle forme di innovazione percepite come “non tradizionali”, dai novel food (cioè alimenti o ingredienti nuovi per il mercato europeo, non consumati in modo significativo prima del 1997), alla carne coltivata, fino all’upcycling. Pur senza opposizione esplicita, il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche estranee alla cultura del made in Italy, quando in realtà, come abbiamo visto, rappresentano una continuità con la tradizione del riuso e della frugalità tipica delle culture locali. Il dibattito attuale riflette ancora una tensione ideologica e irrisolta tra la necessità di innovare e la volontà di preservare, più che una reale integrazione tra le due prospettive. > Il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche > estranee alla cultura del made in Italy, quando in realtà rappresentano una > continuità con la tradizione del riuso e della frugalità tipica delle culture > locali. Nel complesso, la traiettoria politica e culturale attuale mostra un rallentamento della spinta trasformativa: la transizione agroalimentare non è ferma, ma procede in modo più frammentato e difensivo.  Soprattutto dopo le elezioni europee del 2019, quando l’agenda del Green deal, il patto verde che mira alla neutralità climatica entro il 2050, ha subito un processo di revisione per cui la Commissione ha spostato l’accento dalla spinta ambientale alla semplificazione normativa e alla competitività delle imprese agricole, introducendo margini di flessibilità che rallentano le ambizioni iniziali. Anche nel dibattito sugli organismi geneticamente modificati e sulle nuove tecniche genomiche, come l’editing con CRISPR-Cas9 o il prime editing, sono emersi chiari segnali di ambivalenza. Mentre la Commissione e il Consiglio europeo hanno aperto, nel 2025, a una regolamentazione più flessibile per le New genomic techniques (NGT), una parte dell’opinione pubblica e del mondo politico continua a guardare con sospetto a ogni intervento percepito come “artificiale”. Cosa dice (e non dice) la legge Sul piano regolatorio la situazione è ancora più complessa. Per gli alimenti upcycled non esiste oggi una categoria giuridica specifica né a livello europeo né nazionale: non c’è una norma che li definisca esplicitamente, né un percorso autorizzativo dedicato. Questo significa che tali prodotti rientrano nel perimetro della legislazione alimentare generale (sicurezza, tracciabilità, etichettatura, igiene) e, quando necessario, nelle regole sui novel food, se gli ingredienti derivati dal recupero non hanno un uso alimentare documentato prima del 1997. In altre parole, l’upcycling vive in un terreno di normativa implicita: tutto ciò che non è vietato è possibile, purché sia sicuro e conforme ai requisiti esistenti. > Nei laboratori italiani stanno prendendo forma tecnologie capaci di cambiare > il destino degli scarti agroalimentari: dalla pirolisi che “cuoce” residui > agricoli, alle larve di mosca che trasformano rifiuti organici in proteine e > fertilizzanti. Parallelamente, però, agiscono cornici concettuali che, pur non avendo valore giuridico, influenzano la percezione pubblica e le strategie industriali. È il caso del sistema NOVA, una classificazione sviluppata in ambito accademico per studiare il rapporto tra grado di processazione e salute, sempre più citata nel dibattito pubblico. Secondo questo schema molti prodotti upcycled possono essere assimilati ai cibi ultraprocessati non per la loro qualità nutrizionale o ambientale, ma per la natura dei processi utilizzati. Oltre la tecnologia L’upcycling, più che di nuove tecnologie, ha bisogno di infrastrutture di conoscenza: osservatori, banche dati, criteri comuni di rendicontazione e soprattutto informazioni chiare. È qui che si gioca la partita tra sperimentazione e sistema. L’innovazione, fuori dalle retoriche soluzioniste, è un processo collettivo che coinvolge saperi, politiche e responsabilità diffuse. È la capacità di costruire connessioni stabili tra ricerca, impresa e istituzioni, di trasformare la sperimentazione in infrastruttura e la tecnologia in cultura. E in effetti l’innovazione circolare del cibo procede. Nei laboratori e nei distretti sperimentali italiani stanno prendendo forma tecnologie capaci di cambiare il destino degli scarti agroalimentari: la pirolisi, che “cuoce” residui agricoli per ottenere biochar, una sorta di carbone vegetale utile a restituire carbonio e fertilità ai suoli; le larve della mosca soldato nera, che trasformano rifiuti organici in proteine e fertilizzanti; e poi ancora i bioprocessi microbici, le fermentazioni controllate, le estrazioni con CO₂ supercritica. Tutto questo disegna una nuova idea di produzione più circolare e responsabile. Ma la transizione non può poggiare solo sull’efficienza tecnica. Ha bisogno di una strategia condivisa, sostenuta da politiche industriali coerenti, incentivi mirati e norme capaci di evolvere con l’innovazione, e soprattutto di una relazione di fiducia con i consumatori. E per costruire questa fiducia serve un cambio di prospettiva culturale. Vale per l’upcycling come per tutta la transizione ecologica: senza un nuovo modo di pensare il valore delle risorse, anche le soluzioni più avanzate rischiano di non uscire dai cassetti dei laboratori. L'articolo Non si butta via niente proviene da Il Tascabile.
Scienze
sostenibilità
cibo
economia circolare
upcycling
Animali in guerra
U n rivolo di sangue sgorga dal muso di una capra. È distesa su un fianco, sul terreno umido a tratti tappezzato di muschio e ricoperto da una pioggia di frammenti di legno, metallo e vetro. Un occhio aperto, lo sguardo nel vuoto, la pelliccia sporca e la pelle squarciata. Poco più lontano è visibile un altro esemplare, perso tra i detriti, anche lui privo di vita. Intorno a loro c’è neve e distruzione: finestre rotte, tetti divelti da cui spuntano murature decorate e totem colorati. Il Feldman Ecopark, uno zoo alla periferia di Charkiv, in Ucraina, il 2 marzo 2025 è stato colpito durante l’attacco russo di droni Shahed, armi kamikaze a lungo raggio. I due ungulati uccisi, tra cui una femmina gravida, erano stati precedentemente salvati da una zona di combattimento e portati nel parco, con la speranza che potessero sopravvivere. Gli animali sono spesso considerati vittime di serie B della guerra, che la società ci insegna a far passare in secondo piano rispetto al dramma umano, sebbene sopportino una violenza dirompente, spaventosa e per loro incomprensibile. I conflitti armati possono esasperare l’ambiguità che caratterizza il nostro rapporto con gli altri animali. Sono una lente impietosa sugli abissi della nostra morale. Il massacro di Londra e i gatti di Gaza Dai primi mesi del conflitto russo-ucraino, i media hanno diffuso immagini di profughi costretti ad abbandonare casa e affetti. Alcuni sono accompagnati dagli animali con cui, fino a quel momento, avevano condiviso la propria vita, allo stesso tempo simbolo e incarnazione di una dimensione familiare. Quelle mostrate nei telegiornali e sulle piattaforme social sono rappresentazioni accoglienti, che suscitano empatia e fanno quasi dimenticare il prezzo da sempre pagato dagli animali da compagnia in zone di guerra, che invece, spesso, sono considerati oggetti da sacrificare o legami da rompere per disumanizzare il nemico. > Gli animali sono spesso considerati vittime di serie B della guerra, che la > società ci insegna a far passare in secondo piano rispetto al dramma umano, > sebbene sopportino una violenza dirompente, spaventosa e per loro > incomprensibile. Era il 3 settembre 1939 quando la BBC annunciò che la Gran Bretagna aveva dichiarato guerra alla Germania. Siamo agli albori della Seconda guerra mondiale. Alla cittadinanza venne chiesto di prepararsi ai raid aerei e una precauzione su tutte probabilmente raggelò il sangue degli inglesi: il governo li sollecitò a portare i propri animali domestici nelle campagne e, nel caso non ci fossero stati vicini disponibili a occuparsi di loro, a sopprimerli con l’aiuto di un veterinario. Senza curarsi dell’opposizione di alcuni gruppi di protezione animale, circa 400.000 tra gatti, cani, uccelli e conigli vennero eliminati, come racconta la storica Hilda Kean nel suo libro The Great Cat and Dog Massacre (2017). Ci fu chi obbedì forse con pochi scrupoli, chi soppresse i propri compagni non umani per risparmiare loro la sofferenza dei bombardamenti, chi li graziò e, in qualche modo, ne riconobbe l’individualità e una forma di agentività, condividendo con loro il cibo, gli spazi, la paura e il dolore. Quest’ultimo caso ci porta a Gaza, ai giorni nostri. Le immagini che ci sono giunte mostrano gatti feriti e traumatizzati dallo scoppio delle bombe, dalla perdita di un rifugio, dalla fame e dalla sete, ma anche salvati da medici e veterinari, aiutati e accolti dai palestinesi o, ancora, con le loro famiglie umane mentre vivono insieme piccoli momenti di spensieratezza. Neha Vora, docente di antropologia nel Dipartimento di Studi internazionali dell’American University of Sharjah negli Emirati Arabi Uniti ha commentato così queste storie: > Quello che i gatti di Gaza ci insegnano è che il trauma della Palestina è un > trauma multispecie. Non ci insegnano che anche i palestinesi sono umani, > poiché questa è un’affermazione che continua a definire l’umano contro > qualcosa che non è, qualcosa che sarà sempre escluso, abietto e quindi > eliminabile. Credo che i palestinesi e i loro gatti siano così coinvolgenti > per molti di noi perché sfidano le visioni liberali dell’umanità e le > smascherano come modi coloniali di definire il mondo, la soggettività e le > fantasie di libertà. L’“Umanità” non ci condurrà mai a una giustizia e pace > universali. Umanità. È una parola che apparentemente si collega allo stesso universo semantico della compassione e della pietà, ma che in realtà si nutre di una visione gerarchica del mondo naturale, in cui l’animale è inferiore, e animale diventa o deve diventare chiunque incarni il nemico da combattere. Una prospettiva che, in parte e non a caso, ritroviamo nella struttura e nella gestione degli zoo, in cui le sbarre o altre barriere separano gli esseri umani dalle altre specie esposte e nei quali siamo sempre noi a poter decidere delle loro esistenze secondo le nostre necessità Un’ingannevole arca di Noè Nel volume World War Zoos. Humans and Other Animals in the Deadliest Conflict of the Modern Age (2025), lo storico John M. Kinder ricostruisce la vita degli zoo dal periodo della Grande depressione alla Seconda guerra mondiale, fino ai primi anni della guerra fredda. Kinder illustra come la visione gerarchica degli esseri viventi, e in particolare la disumanizzazione di determinati gruppi, fosse un aspetto centrale dell’ideologia nazista, evidente nel modo in cui venivano trattati sia gli esseri umani sia gli animali. > Le metafore legate agli animali sono servite e servono ancora oggi a > giustificare i delitti commessi e a comprendere e articolare azioni aberranti. Un esempio emblematico è quello del campo di concentramento di Buchenwald e del suo giardino zoologico. Il progetto, sostenuto sin dall’inizio da Karl-Otto Koch, a capo del campo dal 1937 al 1941, era pensato come luogo ricreativo ed edificante per le SS e le loro famiglie e come una fonte di umiliazione e tormento per i prigionieri. Lo zoo serviva, infatti, a ricordare loro la presunta inferiorità rispetto agli animali in gabbia: gli umani reclusi erano spogliati della dignità, resi sacrificabili per qualsiasi contingenza e costretti persino a finanziare la struttura con “contributi volontari”. Gli animali di Buchenwald ricevevano un’alimentazione migliore dei prigionieri, tanto che molti di loro cercavano di lavorare nello zoo per ottenere una razione extra. Kinder spiega: > Il legame retorico tra animali ed Ebrei, l’obiettivo principale della > Soluzione finale di Hitler, giocò un ruolo importante nel legittimare > l’Olocausto agli occhi dei suoi esecutori. Esisteva una lunga storia di > equiparazione degli Ebrei ad animali (maiali, cani) e a malattie, amplificata > dai propagandisti nazisti. Le metafore legate agli animali sono servite e servono ancora oggi a giustificare i delitti commessi e a comprendere e articolare azioni aberranti. Per descrivere l’uccisione da parte di privati cittadini di civili indifesi nell’assedio di Sarajevo, durante la guerra in Bosnia ed Erzegovina degli anni Novanta, si usano termini come “attività venatoria”, “cacciatori”, “prede” e “safari”. Le notizie parlano di gruppi di cecchini/cacciatori che spendevano cifre nell’ordine di grandezza di decine di migliaia di euro per sparare a persone indifese, trasformate in target classificati in base a un tariffario, esattamente come accade nei safari di caccia in Africa. Se nel vecchio continente gli obiettivi più costosi sono specie iconiche e minacciate dall’estinzione, come leoni, elefanti e rinoceronti, nei Balcani sembra che bambine e bambini fossero in cima al listino. Non più vite, solo trofei da collezionare. Allo stesso modo, come evidenziato da Kinder nel suo libro, durante il secondo conflitto mondiale e anche in seguito, gli zoo offrirono alle persone metafore per aiutarle a comprendere le esperienze di prigionia, impotenza e degradazione. In quegli anni le gabbie divennero teatro di orrore, dolore e ideologia. I destini di gran parte degli esemplari rinchiusi negli zoo furono impietosi. Alcuni riuscirono a esser trasferiti in luoghi più protetti, mentre molte delle specie più pericolose, quelle carnivore o velenose, furono uccise per evitare che costituissero un’ulteriore minaccia in caso di fuga dopo un bombardamento. La stessa sorte toccò agli animali più costosi da mantenere, tra cui quelli marini. Molti altri rimasero intrappolati, senza la possibilità di mettersi in salvo: morirono di fame e di sete tra atroci sofferenze, subirono le esplosioni riportando ferite, orribili mutilazioni e danni psicologici irreparabili o divennero oggetto di saccheggio e di improvvisate battute di caccia. Accadde proprio questo nel 1939, durante l’invasione della Polonia da parte dell’esercito nazista. Il direttore dello zoo di Berlino, Lutz Heck, dopo aver messo da parte gli esemplari più pregiati dello zoo di Varsavia, permise ad alcune SS di usare gli animali ancora in gabbia come bersagli per la notte di Capodanno. > Un tempo i giardini zoologici erano perlopiù luoghi di intrattenimento, e una > dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni > esemplari provenivano. Oggi gli obiettivi dichiarati sono l’educazione, la > ricerca e la conservazione. Ancora oggi gli animali degli zoo sono costretti a spostarsi sotto i bombardamenti, le loro vite vengono distrutte dalle esplosioni, dalla fame e dalla sete, o diventano cibo per soldati. Nella prima parte del Ventesimo secolo, i giardini zoologici erano per lo più luoghi di intrattenimento e una dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni esemplari provenivano. Attualmente i tre principali obiettivi di queste istituzioni sono l’educazione, la ricerca e la conservazione. Quest’ultimo scopo prevede la tutela di specie a rischio di estinzione attraverso progetti in situ, in cui gli esemplari sono protetti nei loro habitat, e attività ex situ, che prevedono la detenzione di individui in cattività per il mantenimento di popolazioni di animali che potrebbero scomparire in natura. Gli zoo sono, quindi, una sorta di arca di Noè la cui efficacia, secondo Kinder, è dubbia, soprattutto in tempi di guerra: > Se gli zoo vogliono sopravvivere ai conflitti di questo secolo, devono > abbandonare la metafora dell’arca. Di fronte alla minaccia di catastrofiche > perturbazioni climatiche, il mondo non ha bisogno di una flotta di scialuppe > di salvataggio progettate per aiutare specie selezionate ad attraversare > quaranta giorni e quaranta notti metaforiche di tumulto. Piuttosto, abbiamo > bisogno di una strategia per sopravvivere a un clima alterato a tempo > indefinito. Come minimo, dobbiamo porci domande difficili sul fatto che i > vantaggi degli zoo superino i loro evidenti svantaggi, incluso il disagio > fisico e mentale sopportato dalle specie in cattività. La promessa di salvezza degli zoo sembra ancora più debole nelle zone di conflitto, dove ai danni apportati a queste strutture e ai loro occupanti si sommano ingenti disastri ambientali. I pericoli per la fauna selvatica e il reato di ecocidio Le lotte armate hanno spesso luogo in ecosistemi fragili e hotspot di biodiversità, producendo conseguenze devastanti su molte specie di animali selvatici. Nella Repubblica Democratica del Congo, anni di guerra hanno ridotto significativamente la popolazione di ippopotami: dai circa 30.000 esemplari, presenti nel 1974, si è passati a meno di 1000 verso la fine della guerra civile congolese, nel 2005. Gli esemplari sono poi aumentati fino a 2500 nel 2018, per poi essere nuovamente minacciati dai gruppi di ribelli, che hanno iniziato a cacciarli di frodo per venderne la carne e finanziare le loro attività. A oggi la popolazione di questi mammiferi si attesta intorno ai 1200 esemplari, sui quali incombono nuovi pericoli, come l’avvelenamento da antrace. In Mozambico la guerra civile, combattuta tra il 1977 e il 1992, ha portato all’uccisione di circa il 90% degli elefanti, le cui zanne in avorio erano vendute per sovvenzionare i combattenti. La caccia intensa avrebbe addirittura favorito la mutazione genetica associata alla mancata formazione delle zanne nelle femmine. In Iraq, nel 2016, l’ISIL (Islamic State in Iraq and the Levant) ha attaccato una raffineria di petrolio. Poco meno di venti pozzi esplosi hanno causato l’innalzamento di una nube tossica e una massiccia fuoriuscita di petrolio. Il risultato è stato la contaminazione di suolo e acque, un ostacolo concreto alla sopravvivenza della vicina cittadina di Qayarrah e un gravissimo danno per la fauna della regione. Le invasioni militari possono persino portare all’introduzione volontaria o accidentale di specie aliene, in grado di esercitare impatti negativi sugli ecosistemi delle aree conquistate e sui loro abitanti. Oggi sappiamo bene quanto queste azioni possano produrre danni irreparabili all’ambiente, con un effetto domino che potrebbe estendersi globalmente, eppure non abbiamo a disposizione strumenti abbastanza efficaci per arginarli. Lo Statuto di Roma della Corte penale internazionale, nell’articolo 8 (2)(b)(iv) sui crimini di guerra, prevede che sia considerato reato lanciare attacchi deliberati nella consapevolezza di produrre “danni diffusi, duraturi e gravi all’ambiente naturale che siano manifestamente eccessivi rispetto all’insieme dei concreti e diretti vantaggi militari previsti”. Una norma eccessivamente generica, una lacuna giuridica che si sta cercando di colmare da decenni spingendo per il riconoscimento del reato di ecocidio. > Oggi sappiamo quanto le guerre possano produrre danni irreparabili > all’ambiente, con effetti di portata globale, eppure non abbiamo a > disposizione strumenti efficaci per arginarli. Il riconoscimento del reato di > ecocidio è un passo importante in questa direzione. Il termine è stato utilizzato per la prima volta dal biologo Arthur Galston, negli anni Settanta, per descrivere la deforestazione su larga scala causata dall’uso dell’Agent Orange da parte degli Stati Uniti d’America durante la guerra del Vietnam. Negli anni Duemila il concetto è stato riproposto dall’avvocata Polly Higgins e infine, nel 2021, è stata presentata una definizione legale alla Corte penale internazionale, per cui “‘ecocidio’ significa atti illegali o arbitrari commessi nella consapevolezza di una sostanziale probabilità di causare un danno grave e diffuso o duraturo all’ambiente con tali atti”. Sono crimini non riconosciuti che continuano a essere perpetrati senza la certezza di un processo e di un’eventuale condanna dei colpevoli: alcuni esempi recenti sono la distruzione della copertura arborea e dei terreni agricoli di Gaza, con fattorie e uliveti abbattuti, suolo, falde acquifere, mare e aria inquinati, e l’impatto sugli ecosistemi e la biodiversità del conflitto in Ucraina. Gli animali non umani sembrano quasi invisibili in questi scenari, sebbene la loro esistenza presente e futura venga cancellata attraverso le uccisioni e la distruzione degli habitat in cui prosperano. Violenze necessarie: al punto di dissoluzione del Diritto internazionale umanitario Non sono solo gli animali da compagnia, quelli degli zoo e la fauna selvatica a subire gli effetti degli scontri. Gli animali allevati vengono macellati, rubati, bombardati o lasciati morire di fame. Esistono specie utilizzate direttamente nei conflitti come mezzi di trasporto, tra i quali ci sono i cavalli, gli asini, i muli, gli elefanti e i cammelli, mammiferi addestrati a rilevare esplosivi, quali elefanti, cani e ratti, oppure cetacei preparati per cercare sottomarini e lasciati esplodere per distruggerli, tra cui i delfini. Come illustra l’articolo “Animals in War: At the Vanishing Point of International Humanitarian Law”, pubblicato nel 2022 nell’International Review of the Red Cross, malgrado la loro vulnerabilità nelle situazioni appena descritte, gli animali sono ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che rimane prevalentemente antropocentrico. Essi non godono di uno status legale esplicito, non ne viene riconosciuta la senzienza, né sono concessi loro diritti, nonostante ci siano alcuni Paesi i cui ordinamenti giuridici hanno cominciato a considerare la soggettività e la capacità di provare dolore di questi esseri viventi. Anne Peters e Jérôme de Hemptinne, autori della pubblicazione, suggeriscono due strategie principali per affrontare la mancanza di una specifica protezione nel diritto internazionale umanitario. La prima consisterebbe nell’applicare in modo più efficace le norme già esistenti, ampliandone l’interpretazione per includere gli animali nelle categorie protette previste: potrebbero essere assimilati a combattenti o prigionieri di guerra, a civili, oppure a oggetti. Tale approccio prevederebbe la rilettura delle disposizioni relative alla difesa dell’ambiente, del patrimonio culturale e delle aree protette, riconoscendo che gli animali sono esseri viventi capaci di provare sofferenza e grave disagio (distress). La seconda strategia contempla l’adozione di un nuovo strumento internazionale volto a riconoscere specifici diritti agli animali, in particolare il divieto di utilizzarli come armi. Si tratta di una prospettiva di lungo periodo, ancora lontana, poiché richiederebbe a molti Stati di superare profonde barriere concettuali riguardanti la personalità giuridica degli animali non umani e di accettare eventuali limitazioni nella conduzione dei conflitti armati per proteggerli. Il tutto in un contesto in cui i precedenti tentativi di varare una convenzione internazionale sul benessere animale non hanno finora riscontrato grande successo. > Malgrado la loro estrema vulnerabilità nei teatri di guerra, gli animali sono > ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che > rimane prevalentemente antropocentrico. Però, come il giurista inglese Hersch Lauterpacht ha scritto in passato, il DIU è “al punto di dissoluzione del diritto internazionale” e gli autori del paper sostengono che in questo sia simile al diritto animale, con i debiti cambiamenti, e che la loro intersezione, seppure foriera di estreme difficoltà, non dovrebbe fermarci dal voler perseguire un’“utopia realistica” per gli animali a livello mondiale. È possibile partire dall’attuale situazione internazionale per poi cercare di ampliare quelli che sono considerati i limiti della praticabilità politica. Il DIU e il diritto legato al benessere animale sono entrambi corpi normativi che non vietano la violenza, ma concedono lo spazio a una violenza ritenuta “necessaria”, di fatto legittimandola. Sebbene, come sottolinea l’articolo, questa somiglianza dovrebbe facilitare l’estensione del campo di applicazione del DIU agli animali non umani, certamente fa emergere quella ambiguità che, anche in condizioni di pace, esiste nei trattamenti che riserviamo loro. La percepiamo quando accettiamo le condizioni in cui versano negli allevamenti intensivi oppure  la cattività e la scelta di sopprimere alcuni esemplari negli zoo per calcolo economico, perché spazio e risorse delle strutture sono limitate, o per esigenze di conservazione, al fine di mantenere l’equilibrio tra maschi e femmine di una specie o prevenire il rischio di consanguineità. O ancora, quando acconsentiamo alla sperimentazione animale. > I conflitti armati rendono ancora più tangibile l’ambiguità che caratterizza > il nostro rapporto con gli altri animali, anche e soprattutto in tempo di > pace. Il confine tra amore, rispetto per la vita degli animali non umani, violenza e sopravvivenza può farsi eccezionalmente labile. Lo spiega Kinder, sempre attingendo dall’esperienza del campo di concentramento di Buchenwald, quando parla del poema satirico Eine Bären-Jagd im KZ Buchenwald (in italiano Una caccia all’orso nel campo di concentramento di Buchenwald), scritto e illustrato dal sopravvissuto al campo Kurt Dittmar nel 1946. L’opera ripercorre la breve vita di Betti, un’orsa allevata nello zoo del campo, dall’arrivo come cucciolo alla morte per mano di un comandante. L’orsa è inizialmente servita e riverita dai detenuti per ordine delle SS, si nutre di buon cibo, gode di spazio all’interno della sua gabbia ed è per questo oggetto di invidia da parte dei prigionieri. Con il trascorrere del tempo la milizia nazista aggiunge alla collezione dello zoo altri animali e Betti, stanca della nuova compagnia, abbatte il recinto elettrico e fugge nella foresta. I detenuti tentano invano di catturarla, finché il vicecomandante non la uccide e ne riporta indietro il corpo come un trofeo. L’illustrazione di Dittmar raffigura alcuni prigionieri sconvolti davanti alla carcassa dell’orsa, consapevoli di condividere il suo destino di preda braccata. Costretti ad arrostirne le carni per la festa delle guardie, non ne assaggiano neanche un boccone, ma continuano a sognare: la libertà, il cibo e la giustizia contro i loro aguzzini. Nonostante sia ispirato a eventi reali, il poema non è un resoconto storico, ma conserva in sé una realtà difficile da accettare. Scrive l’autore di World War Zoos: > Ciò che otteniamo invece è qualcosa di più interessante: una riflessione sul > potere e sui limiti dell’empatia. Nel racconto di Dittmar, i prigionieri umani > di Buchenwald riconoscono che la vita di Betti è sempre appesa a un filo, che > lei è preziosa fino al momento in cui le SS decidono diversamente. Pure lei è > una prigioniera, anche se ha pasti migliori e una gabbia più bella. Ma questo > non significa che non proveranno a rubarle il cibo o a rosicchiare le sue ossa > spolpate. Nella Buchenwald di Dittmar, i prigionieri possono sia piangere per > l’uccisione di Betti sia sbavare affamati sul suo cadavere sfrigolante. L'articolo Animali in guerra proviene da Il Tascabile.
Scienze
animali
guerra
ecocidio
Ricordare per procura
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La scrittura appare immobile, incapace di adattarsi all’interlocutore come invece fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza generare la memoria e la saggezza che nascono dall’interazione dialettica. È, infine, un “gioco bellissimo” ma assai distante dalla serietà del processo dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo “vera” filosofia, per Platone la scrittura è uno strumento a essa necessario, così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità richiamare alla mente un’informazione. Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella intuizione con il concetto di cognitive offloading. Con questa espressione si indicano tutte le pratiche attraverso cui gli individui delegano a un supporto esterno parte dei propri processi cognitivi, come ad esempio la funzione di ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come segnare una lista della spesa, annotare un compleanno su un calendario o ricorrere al proverbiale nodo al fazzoletto. > Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur > non essendo “vera” filosofia è uno strumento che le è necessario, così com’è > necessaria per la capacità di richiamare alla mente un’informazione. Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un forte impulso la comparsa e la diffusione della rete, e delle tecnologie digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le possibilità di delega della funzione cognitiva del ricordo, ma le loro pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di benefici e costi di queste pratiche a favore dei secondi. I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il cui lavoro è stato fondamentale per cristallizzare nella nostra cultura l’immaginario del digitale ‒ funzionano come una vera e propria protesi della nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui, appunto, la memoria. In un paper intitolato The benefits and potential costs of cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G. Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli esperimenti più significativi nell’ambito del cognitive offloading. Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere un ampio numero di azioni quotidiane, le persone si affidano a due tipi di memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare questa funzione a un supporto esterno. Questo spiega il motivo per cui la maggior parte delle persone intervistate nei contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di cognitive offloading per compensare peggioramenti nelle proprie performance mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di ferro, sono stato costretto, passati i quaranta e diventato genitore per due volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare impegni e scadenze. > Con l’espressione cognitive offloading si indicano le pratiche attraverso cui > gli individui delegano a un supporto esterno la funzione di ricordare > informazioni, trasformando strumenti e tecnologie in estensioni delle proprie > capacità mnemoniche. Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più specifiche, non ha bisogno di una formazione mirata. Per un adulto con una percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto intuitivo e immediato, che non richiede ulteriore carico cognitivo. La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in rassegna nello studio mostrano come l’offloading cognitivo generi benefici per entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di informazioni non archiviate tramite meccanismi di associazione mentale: una persona che ha segnato sulla propria lista della spesa di acquistare un barattolo di alici ha più probabilità di ricordarsi di acquistare il burro rispetto a una persona che non lo ha fatto, anche se il burro non è presente nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di offloading cognitivo siano d’ausilio alla memoria. Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.  Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni “scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che l’accesso può esser negato, le performance mnemoniche si dimostrano più efficaci. Un altro costo è la possibilità di favorire la formazione di falsi ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa. > Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria. > Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior > difficoltà a reperire informazioni quando viene improvvisamente a mancare > l’accesso all’archivio esterno. Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di cognitive offloading comportano costi e benefici. Da questa prospettiva, la diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle informazioni, nonché sullo sviluppo del loro pensiero critico. Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA aggiungono all’esperienza utente la capacità di processare e presentare le informazioni, senza doversi confrontare direttamente con le relative fonti. Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666 partecipanti di età e percorsi formativi differenti. Questo studio analizza la relazione tra uso di strumenti di intelligenza artificiale e capacità di pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di offloading cognitivo. Per pensiero critico si intende la capacità di analizzare, valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate, incluse le abilità di problem solving e di valutazione critica delle situazioni. Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla velocità di accesso ai dati alla presentazione semplificata delle risposte ‒ scoraggiano l’impegno nei processi cognitivi più complessi. > La diffusione dell’intelligenza artificiale sta mettendo in luce come questo > strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul > modo in cui le persone si rapportano alle informazioni e sviluppano pensiero > critico. Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la necessità, per questi professionisti, di esercitare analisi critica. Una dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo processo, sollevando ulteriori interrogativi sul possibile declino delle capacità di ritenzione perché, anche in questo caso, la loro capacità di sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una conversazione umana Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in ambito militare, dove lo sviluppo di sistemi automatizzati di comando e controllo pone dubbi di natura etica, politica e psicologica. I test effettuati confermano che l’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive offloading che, pur alleggerendo il carico cognitivo e liberando risorse mentali, si associano a un declino della capacità di pensiero critico, in particolare nelle fasce più giovani. Questo declino viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva Diane F. Halpert e misura le abilità di pensiero critico (come  valutazione della probabilità e dell’incertezza,  problem solving decisionale,  capacità di trarre conclusioni basate su prove), grazie a un set di domande aperte e a risposta multipla applicate a uno scenario di vita quotidiana. > L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive > offloading che, pur alleggerendo il carico cognitivo, si associano a un > declino della capacità di pensiero critico, in particolare nelle fasce più > giovani. Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti, producono i loro benefici quando attivano la mente delle persone che le utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una delle tecniche di gestione della conoscenza più conosciute. Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento, lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura di testi non fiction e rafforzare la memoria delle proprie letture, che prevede di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega Sonke Ahrens in How to take smart notes, uno dei principali testi di divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo. Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento produce perciò un beneficio proprio perché impegna chi lo esegue sia a confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò introdurre in quest’ultima attività una componente di frizione e di impegno, che sono la base della sua efficacia. > Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del > tempo necessario affinché un’informazione si depositi nella nostra memoria > fino a diventare un pensiero originale. A differenza della maggior parte delle interfacce attraverso cui interagiamo con le tecnologie, in particolare con quelle digitali e di intelligenza artificiale, il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che stimola la nostra mente, la attiva e produce benefici sulle nostre capacità cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web e l’interazione uomo-computer. Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la scrittura che un metodo come lo Zettelkasten prescrive come base per la sua efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare in costi i benefici che esse possono apportare alla nostra capacità di ricordare e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo necessario affinché un’informazione si depositi nella nostra memoria fino a diventare un pensiero originale. Prendere atto di questa contraddizione significa spostare l’attenzione dalla dimensione neurologica a quella culturale e sociale. Perché è vero che invocare interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma senza porsi il problema dell’accesso al capitale culturale necessario per un uso consapevole e critico delle tecnologie, tali soluzioni rischiano di restare lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il capitale culturale ed economico per permettersi di limitare il proprio l’accesso alla tecnologia e chi, al contrario, finisce per subire in modo passivo le scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano star costruendo l’immaginario dei loro strumenti di intelligenza artificiale. > Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi > capaci di potenziare creatività e pensiero critico, quanto scorciatoie per > aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta. Per come vengono presentati nella comunicazione corporate, gli strumenti di intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di presentazione degli strumenti di scrittura “smart” della sedicesima iterazione dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato protagonista dello spot, li usa proprio per dare un tono professionale al testo dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia working class è in realtà una visione in cui l’automazione non ha liberato l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non essere costretto a pensare prima di agire. Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una questione che andrebbe rimessa al centro del dibattito sull’intelligenza artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e integrati che ancora sembra dominarlo. L'articolo Ricordare per procura proviene da Il Tascabile.
Scienze
scrittura
neuroscienze
Intelligenza Artificiale
cognitive offloading
Il malato immaginato
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo, redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente una parodia, fu preso sul serio da numerosi media, che lo diffusero come una scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu costretto a svelare lo scherzo poche ore dopo la pubblicazione. Il caso del MoDeD divenne un esempio emblematico di come la definizione di malattia possa essere facilmente ampliata o manipolata, trasformando aspetti della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e anticipava molte delle discussioni successive sulla costruzione mediatica e sociale della malattia. Possiamo spiegare il successo della notizia con la tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di salute ciò che prima consideravamo semplici varianti naturali della configurazione corporea. Questo processo è noto come medicalizzazione, ed è particolarmente evidente nell’ambito della medicina estetica. La patologizzazione della bruttezza Una piega palpebrale assente, un naso prominente, denti non perfettamente allineati, una pelle dalla texture irregolare. Nella medicina contemporanea molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma radicale: da semplici variazioni non desiderabili, da accettare passivamente, sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non solo perché si applicano competenze e strumenti propri di questa disciplina, ma anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la patologia è rappresentata da compromissioni funzionali, in altri casi essa coincide con il disagio psicologico e sociale che, anche in assenza di disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni estetici dominanti. In queste circostanze si interviene dunque sul corpo per guarire una “malattia dell’anima”. > Per medicalizzazione si intende la tendenza a trattare come problemi medici > alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti > normali. Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James Aquino identifica come patologizzazione della bruttezza, si nutre di un meccanismo duplice. Da un lato, la medicina si è appropriata di una sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere percepito simultaneamente come in salute, virtuoso, giovane e attraente; al contrario, caratteristiche che deviano dagli standard vengono lette come limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono strategie attive per inquadrare la chirurgia estetica non come pratica migliorativa, ma come intervento terapeutico. In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni della malattia. Malattia come danno, disfunzione e deviazione La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici giustificavano le correzioni dei tratti corporei che causavano disagio psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si è spostata sul modello della disabilità, considerando la bruttezza come uno svantaggio invalidante che può limitare le opportunità socioeconomiche. In entrambi i casi emerge una concezione normativista della malattia, che fonda il concetto di salute sul vissuto personale e su valori socialmente condivisi. Questa visione si intreccia con i meccanismi sociali di riconoscimento e valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce qualità positive agli individui fisicamente attraenti. In virtù di questi pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali e professionali tangibili, tra cui migliori risultati scolastici, lavori di status più elevato e maggiori probabilità di successo nelle relazioni. > Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi > economici, sociali e professionali tangibili, tra cui migliori risultati > scolastici, lavori di status più elevato e maggiori probabilità di successo > nelle relazioni. La seconda accezione si basa sul concetto di disfunzione: la bruttezza ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale, entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto ai normali processi biologici di un organismo, indipendentemente da percezioni soggettive o valori culturali. La terza accezione si basa sul concetto di deviazione: la caratterizzazione patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a una norma statistica o un canone numerico. Un esempio è il rapporto aureo, utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una caratteristica si colloca oltre i limiti di questa norma, si parla di “deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma statistica è spesso uno strumento per naturalizzare standard culturali, mascherandoli da criteri biologici universali. La crescente patologizzazione della bruttezza mette in crisi la distinzione tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i criteri di legittimità dell’intervento chirurgico: ciò che un tempo era giustificato solo dal ripristino di una funzione corporea mancante o danneggiata oggi può essere autorizzato anche dalla richiesta di colmare un presunto svantaggio biologico o sociale. Quello che sta accadendo con la medicina estetica è considerato da molti un esempio evidente di disease mongering, concetto spesso reso in italiano come “mercificazione della malattia”: si espande il dominio del patologico e quindi il raggio d’azione della medicina, spesso con l’obiettivo di allargare il mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò induce nel pubblico una certa percezione di rischio e deficit, aumentando le possibilità del mercato di identificare target di pazienti-clienti a cui proporre prodotti sanitari come integratori, test diagnostici, programmi di benessere e trattamenti. > Siamo di fronte a un esempio evidente di disease mongering, o mercificazione > della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti, > più diventa facile creare a tavolino nuove patologie. La ridefinizione concettuale dei confini tra salute e malattia non è però esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella crescente espansione dei codici ICD (International Classification of Diseases), la Classificazione internazionale delle malattie dell’OMS (Organizzazione Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli anni Settanta. L’osteoporosi e altre zone grigie Un caso particolarmente dibattuto nella letteratura scientifica è quello relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con l’introduzione di criteri diagnostici basati su soglie di densità minerale ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha comportato la classificazione di milioni di donne in menopausa come malate o a rischio, dal momento che i loro valori si discostavano dalla “norma statistica”, nonostante il rischio concreto di frattura fosse molto basso nella maggior parte dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla necessità di ridurre l’impatto economico-sociale delle fratture sul sistema sanitario, ha alimentato la commercializzazione di nuovi farmaci. Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto di soluzioni farmacologiche anziché all’adozione di strategie preventive più semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche analoghe, per citare solo qualche esempio. > Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto > la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni > farmacologiche anziché l’adozione di strategie preventive più semplici ed > efficaci. Alcuni teorici ritengono che al disease mongering abbiano contribuito i progressi nel campo della biochimica, in particolare la scoperta di indicatori biologici (geni, molecole, cellule, parametri come la pressione o la frequenza cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare determinate patologie. In un recente contributo pubblicato su Frontiers in Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica stia sempre più influenzando le definizioni di malattia, proponendo di diagnosticare condizioni come l’Alzheimer o il Parkinson in individui completamente asintomatici, solo sulla base della presenza di biomarcatori nel sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra bisogni reali dei pazienti e interessi commerciali. La riflessione di Reddy non riguarda solo le malattie neurologiche: in oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici che potrebbero non progredire mai verso una malattia sintomatica. In psichiatria, test ematici per marker infiammatori legati alla depressione potrebbero patologizzare risposte emotive normali. Nel caso del diabete, biomarcatori avanzati per la resistenza insulinica potrebbero classificare individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi farmaci. L’era della subsalute L’espansione del perimetro della medicina ha profondamente trasformato il rapporto degli individui con il proprio corpo e la propria salute. Sempre più spesso, la prevenzione non si limita a promuovere comportamenti sani o a monitorare situazioni ad alto rischio, ma diventa una strategia di ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea. Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale” impegnato in screening, check-up, test genetici, autovalutazioni e consulti per scoprire e correggere il più piccolo scostamento dalla normalità. La promozione della salute, così, non si configura più solo come tutela dal rischio, ma come dovere di perseguire un ideale di benessere ottimale e durevole, da certificare e monitorare costantemente attraverso dispositivi, tecnologie, esami strumentali e consulenze mediche. Il risultato è che l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni segnale di inefficienza, vulnerabilità o affaticamento. > Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su > ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un > “paziente potenziale” impegnato in check-up, test e consulti per scoprire e > correggere il più piccolo scostamento dalla normalità. È all’interno di questo scenario che ha preso corpo il costrutto di salute subottimale, concepito come un vero e proprio spazio liminale tra salute piena e malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le percezioni di disagio psicofisico di una crescente fetta della popolazione, soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i criteri clinici, riportano un generale senso di salute incompleta o precaria, accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng, studiosa di sociologia della salute all’Università di Sheffield, ha esplorato l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di “sospensione biografica” all’interno delle routine della vita quotidiana. La subsalute risulta particolarmente appetibile dal punto di vista commerciale, poiché non si basa su parametri oggettivi e misurabili ma su un vissuto soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti, tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è generalmente concepita come una fase reversibile, a patto di intervenire sullo stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa rappresenta una vera e propria “zona di transizione”, dove l’individuo si configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai ripari e rivedere le proprie abitudini prima che possano evolvere in malattie conclamate. Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di risposte sociali, cliniche e commerciali. Il potere del discorso Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità dei concetti di salute e malattia per costruire legittimità e consenso attorno a nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi istituzionali sono in grado di conferire consistenza scientifica apparente a concetti privi di un sostegno empirico robusto. > Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al > pubblico, a volte vengono costruite, negoziate e legittimate attraverso > pratiche linguistiche, narrative e mediatiche che possono prescindere dalla > solidità delle evidenze. Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma non universalmente riconosciuta come disturbo autonomo e spesso descritta come variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio, basato su articoli e contenuti online, mostra come l’uso di termini tecnici, sigle, casi-studio concreti, dati numerici e citazioni di esperti dia l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati, ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da MoDeD, fornendo così un dato quantitativo che rende la portata della malattia più fondata e tangibile. Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla comprensione precedente (“per tutta la vita hai creduto di essere pigro; in realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere dalla solidità delle evidenze. Se persino una malattia inventata può risultare verosimile, quali strumenti abbiamo per distinguere ciò che è fondato scientificamente da una patologia costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare la consapevolezza che salute e malattia sono sempre, anche, categorie discorsive, sociali, politiche e commerciali. Riconoscere questa multidimensionalità significa smettere di cercare confini immutabili e oggettivi e interrogarsi invece su chi ha il potere di tracciare quei confini, e a vantaggio di chi. L'articolo Il malato immaginato proviene da Il Tascabile.
Scienze
malattia
medicina
patologia
salute
Il malato immaginato
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo, redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente una parodia, fu preso sul serio da numerosi media, che lo diffusero come una scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu costretto a svelare lo scherzo poche ore dopo la pubblicazione. Il caso del MoDeD divenne un esempio emblematico di come la definizione di malattia possa essere facilmente ampliata o manipolata, trasformando aspetti della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e anticipava molte delle discussioni successive sulla costruzione mediatica e sociale della malattia. Possiamo spiegare il successo della notizia con la tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di salute ciò che prima consideravamo semplici varianti naturali della configurazione corporea. Questo processo è noto come medicalizzazione, ed è particolarmente evidente nell’ambito della medicina estetica. La patologizzazione della bruttezza Una piega palpebrale assente, un naso prominente, denti non perfettamente allineati, una pelle dalla texture irregolare. Nella medicina contemporanea molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma radicale: da semplici variazioni non desiderabili, da accettare passivamente, sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non solo perché si applicano competenze e strumenti propri di questa disciplina, ma anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la patologia è rappresentata da compromissioni funzionali, in altri casi essa coincide con il disagio psicologico e sociale che, anche in assenza di disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni estetici dominanti. In queste circostanze si interviene dunque sul corpo per guarire una “malattia dell’anima”. > Per medicalizzazione si intende la tendenza a trattare come problemi medici > alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti > normali. Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James Aquino identifica come patologizzazione della bruttezza, si nutre di un meccanismo duplice. Da un lato, la medicina si è appropriata di una sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere percepito simultaneamente come in salute, virtuoso, giovane e attraente; al contrario, caratteristiche che deviano dagli standard vengono lette come limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono strategie attive per inquadrare la chirurgia estetica non come pratica migliorativa, ma come intervento terapeutico. In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni della malattia. Malattia come danno, disfunzione e deviazione La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici giustificavano le correzioni dei tratti corporei che causavano disagio psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si è spostata sul modello della disabilità, considerando la bruttezza come uno svantaggio invalidante che può limitare le opportunità socioeconomiche. In entrambi i casi emerge una concezione normativista della malattia, che fonda il concetto di salute sul vissuto personale e su valori socialmente condivisi. Questa visione si intreccia con i meccanismi sociali di riconoscimento e valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce qualità positive agli individui fisicamente attraenti. In virtù di questi pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali e professionali tangibili, tra cui migliori risultati scolastici, lavori di status più elevato e maggiori probabilità di successo nelle relazioni. > Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi > economici, sociali e professionali tangibili, tra cui migliori risultati > scolastici, lavori di status più elevato e maggiori probabilità di successo > nelle relazioni. La seconda accezione si basa sul concetto di disfunzione: la bruttezza ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale, entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto ai normali processi biologici di un organismo, indipendentemente da percezioni soggettive o valori culturali. La terza accezione si basa sul concetto di deviazione: la caratterizzazione patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a una norma statistica o un canone numerico. Un esempio è il rapporto aureo, utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una caratteristica si colloca oltre i limiti di questa norma, si parla di “deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma statistica è spesso uno strumento per naturalizzare standard culturali, mascherandoli da criteri biologici universali. La crescente patologizzazione della bruttezza mette in crisi la distinzione tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i criteri di legittimità dell’intervento chirurgico: ciò che un tempo era giustificato solo dal ripristino di una funzione corporea mancante o danneggiata oggi può essere autorizzato anche dalla richiesta di colmare un presunto svantaggio biologico o sociale. Quello che sta accadendo con la medicina estetica è considerato da molti un esempio evidente di disease mongering, concetto spesso reso in italiano come “mercificazione della malattia”: si espande il dominio del patologico e quindi il raggio d’azione della medicina, spesso con l’obiettivo di allargare il mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò induce nel pubblico una certa percezione di rischio e deficit, aumentando le possibilità del mercato di identificare target di pazienti-clienti a cui proporre prodotti sanitari come integratori, test diagnostici, programmi di benessere e trattamenti. > Siamo di fronte a un esempio evidente di disease mongering, o mercificazione > della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti, > più diventa facile creare a tavolino nuove patologie. La ridefinizione concettuale dei confini tra salute e malattia non è però esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella crescente espansione dei codici ICD (International Classification of Diseases), la Classificazione internazionale delle malattie dell’OMS (Organizzazione Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli anni Settanta. L’osteoporosi e altre zone grigie Un caso particolarmente dibattuto nella letteratura scientifica è quello relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con l’introduzione di criteri diagnostici basati su soglie di densità minerale ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha comportato la classificazione di milioni di donne in menopausa come malate o a rischio, dal momento che i loro valori si discostavano dalla “norma statistica”, nonostante il rischio concreto di frattura fosse molto basso nella maggior parte dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla necessità di ridurre l’impatto economico-sociale delle fratture sul sistema sanitario, ha alimentato la commercializzazione di nuovi farmaci. Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto di soluzioni farmacologiche anziché all’adozione di strategie preventive più semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche analoghe, per citare solo qualche esempio. > Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto > la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni > farmacologiche anziché l’adozione di strategie preventive più semplici ed > efficaci. Alcuni teorici ritengono che al disease mongering abbiano contribuito i progressi nel campo della biochimica, in particolare la scoperta di indicatori biologici (geni, molecole, cellule, parametri come la pressione o la frequenza cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare determinate patologie. In un recente contributo pubblicato su Frontiers in Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica stia sempre più influenzando le definizioni di malattia, proponendo di diagnosticare condizioni come l’Alzheimer o il Parkinson in individui completamente asintomatici, solo sulla base della presenza di biomarcatori nel sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra bisogni reali dei pazienti e interessi commerciali. La riflessione di Reddy non riguarda solo le malattie neurologiche: in oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici che potrebbero non progredire mai verso una malattia sintomatica. In psichiatria, test ematici per marker infiammatori legati alla depressione potrebbero patologizzare risposte emotive normali. Nel caso del diabete, biomarcatori avanzati per la resistenza insulinica potrebbero classificare individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi farmaci. L’era della subsalute L’espansione del perimetro della medicina ha profondamente trasformato il rapporto degli individui con il proprio corpo e la propria salute. Sempre più spesso, la prevenzione non si limita a promuovere comportamenti sani o a monitorare situazioni ad alto rischio, ma diventa una strategia di ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea. Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale” impegnato in screening, check-up, test genetici, autovalutazioni e consulti per scoprire e correggere il più piccolo scostamento dalla normalità. La promozione della salute, così, non si configura più solo come tutela dal rischio, ma come dovere di perseguire un ideale di benessere ottimale e durevole, da certificare e monitorare costantemente attraverso dispositivi, tecnologie, esami strumentali e consulenze mediche. Il risultato è che l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni segnale di inefficienza, vulnerabilità o affaticamento. > Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su > ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un > “paziente potenziale” impegnato in check-up, test e consulti per scoprire e > correggere il più piccolo scostamento dalla normalità. È all’interno di questo scenario che ha preso corpo il costrutto di salute subottimale, concepito come un vero e proprio spazio liminale tra salute piena e malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le percezioni di disagio psicofisico di una crescente fetta della popolazione, soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i criteri clinici, riportano un generale senso di salute incompleta o precaria, accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng, studiosa di sociologia della salute all’Università di Sheffield, ha esplorato l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di “sospensione biografica” all’interno delle routine della vita quotidiana. La subsalute risulta particolarmente appetibile dal punto di vista commerciale, poiché non si basa su parametri oggettivi e misurabili ma su un vissuto soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti, tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è generalmente concepita come una fase reversibile, a patto di intervenire sullo stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa rappresenta una vera e propria “zona di transizione”, dove l’individuo si configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai ripari e rivedere le proprie abitudini prima che possano evolvere in malattie conclamate. Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di risposte sociali, cliniche e commerciali. Il potere del discorso Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità dei concetti di salute e malattia per costruire legittimità e consenso attorno a nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi istituzionali sono in grado di conferire consistenza scientifica apparente a concetti privi di un sostegno empirico robusto. > Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al > pubblico, a volte vengono costruite, negoziate e legittimate attraverso > pratiche linguistiche, narrative e mediatiche che possono prescindere dalla > solidità delle evidenze. Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma non universalmente riconosciuta come disturbo autonomo e spesso descritta come variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio, basato su articoli e contenuti online, mostra come l’uso di termini tecnici, sigle, casi-studio concreti, dati numerici e citazioni di esperti dia l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati, ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da MoDeD, fornendo così un dato quantitativo che rende la portata della malattia più fondata e tangibile. Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla comprensione precedente (“per tutta la vita hai creduto di essere pigro; in realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere dalla solidità delle evidenze. Se persino una malattia inventata può risultare verosimile, quali strumenti abbiamo per distinguere ciò che è fondato scientificamente da una patologia costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare la consapevolezza che salute e malattia sono sempre, anche, categorie discorsive, sociali, politiche e commerciali. Riconoscere questa multidimensionalità significa smettere di cercare confini immutabili e oggettivi e interrogarsi invece su chi ha il potere di tracciare quei confini, e a vantaggio di chi. L'articolo Il malato immaginato proviene da Il Tascabile.
Scienze
malattia
medicina
patologia
salute
La vita prima della vita
D a secoli filosofi, teologi e scienziati si chiedono come abbia avuto origine la vita sulla Terra. La questione è tutt’altro che semplice, e oggi una moltitudine di laboratori in giro per il mondo dedica la propria ricerca a trovare una risposta capace di soddisfare ogni dubbio. Si trovano ad andare indietro nel tempo, sino a quando la Terra doveva ancora compiere il suo primo miliardo di anni, quando gli oceani ribollivano per l’attività vulcanica e l’aria era percossa da fulmini. È lì che idrogeno e anidride carbonica hanno alterato la storia del nostro pianeta, dando vita a molecole organiche. Ed è da queste basi chimiche ‒ attraverso fasi intermedie ‒ che riteniamo si svilupparono gli acidi nucleici. Un punto di svolta dev’essere stato la comparsa degli aminoacidi e la loro incorporazione nel codice genetico come lo conosciamo oggi, con le sequenze di DNA e RNA che custodiscono l’informazione e i ribosomi che la traducono in proteine, ossia catene di aminoacidi che rappresentano i mattoni fondamentali per la vita. Ma per affrontare la questione, bisogna innanzitutto stabilire cosa si intenda con “vita”, e in secondo luogo perché alcune delle molecole indispensabili siano apparse ben prima che esistessero le prime cellule. L’essere umano prova a replicare le condizioni per la nascita della vita almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller progettarono un apparato di vetro per simulare le condizioni della Terra primordiale. I due crearono un sistema chiuso; riscaldarono acqua con idrogeno, metano e ammonio, e simularono l’effetto dei fulmini con scariche elettriche. Lasciarono che il miscuglio gassoso si condensasse e cadesse di nuovo in acqua come pioggia. Nel giro di una settimana, il finto oceano che avevano creato era diventato marrone per le biomolecole e gli aminoacidi che si erano formati. Oggi, oltre settant’anni dopo l’esperimento, il risultato principale rimane valido: nelle condizioni simulate dai ricercatori, la materia abiotica – ovvero non vivente – può dare origine a molecole organiche. Tuttavia, sappiamo che probabilmente la composizione atmosferica della Terra primordiale era differente da quella considerata da Urey-Miller. Per esempio, i due non inclusero nell’esperimento lo zolfo, elemento che oggi sappiamo essere stato fondamentale al tempo della nascita delle prime forme di vita. L’esclusione dello zolfo rende impossibile la formazione della metionina, un aminoacido che invece, stando al lavoro di Sawsan Wehbi e colleghi, sarebbe una delle prime molecole a essere incorporate nel codice genetico. > L’essere umano prova a replicare le condizioni per la comparsa della vita > almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller > progettarono un apparato di vetro per simulare le condizioni della Terra > primordiale. Un’altra teoria ipotizza che la vita abbia avuto origine nelle sorgenti idrotermali di profondità marine, ferite sul fondale degli oceani da cui fuoriesce acqua calda e ricca di minerali. Qui, il ferro minerale reagisce con l’acqua per produrre idrogeno che, a sua volta, potrebbe reagire con l’anidride carbonica per produrre formiato, acetato e piruvato – molecole organiche fondamentali per il metabolismo di una cellula. Tuttavia, anche su questo rimangono aperti vari punti: secondo alcuni studiosi non è possibile che la vita primordiale potesse tollerare temperature tanto alte, e ricerche recenti esplorano anche le sorgenti termali terrestri come possibile culla della vita. In uno studio del 2024, pubblicato su Nature Communications, i ricercatori hanno sintetizzato solfuri di ferro in scala nanometrica, incluse forme pure e versioni arricchite con elementi come manganese, nichel, titanio e cobalto. Hanno esposto questi campioni all’idrogeno gassoso e all’anidride carbonica in condizioni che simulavano quelle delle sorgenti calde, con temperature comprese tra 80 e 120 gradi Celsius. Così facendo sono riusciti a produrre metanolo da solfuri di ferro con manganese. Sembra inoltre che anche luce e vapore acqueo ricoprano un ruolo cruciale: la luce UV nello spettro del visibile può facilitare le reazioni, abbassando l’energia di attivazione; la presenza di vapore acqueo, pur in alcuni casi ostacolante a basse temperature, può favorire la sintesi alle temperature più alte. Una volta formatesi le molecole organiche, ci troviamo di fronte a un dilemma spesso paragonato a quello dell’uovo e della gallina: è venuto prima il materiale genetico o le proteine? Per lungo tempo, si è guardato all’RNA come candidato favorevole, poiché oltre a essere una molecola codificante è in grado di catalizzare reazioni chimiche, come fanno le proteine. Tuttavia, bisogna capire se una struttura fragile come quella dell’RNA possa essere sorta nelle dure condizioni del brodo primordiale e, sinora, nessuno è riuscito a ottenerlo in condizioni ambientali che simulassero quelle del mondo prebiotico. Ma esiste un’altra possibilità, esplorata di recente, secondo cui sarebbero invece le proteine ad aver visto la luce per prime. Fra i promotori di questa teoria c’è Andrew Pohorille, direttore del Center for Computational Astrobiology and Fundamental Biology della NASA, scomparso nel 2024. Le proteine sono molecole più semplici da produrre rispetto agli acidi nucleici, il problema è che le catene amminoacidiche non sono in grado di replicarsi da sole. L’ipotesi di Pohorille prevede che esse siano diventate nel tempo un sistema di conservazione delle informazioni, non replicabile e meno complesso di quello odierno basato sugli acidi nucleici, e che la loro presenza abbia favorito la comparsa dell’RNA. Quest’ultimo avrebbe poi preso il sopravvento. Un indizio su questo fronte arriva da uno studio congiunto della Stony Brook University e del Lawrence Berkeley National Laboratory. È possibile che sulla Terra primordiale avvenisse la sintesi di corti polimeri, ovvero molecole formate da più unità, dette monomeri, a formare sequenze casuali. Non è chiaro, tuttavia, come possa essere avvenuto il salto a catene più lunghe con sequenze particolari in grado di autocatalizzarsi, ovvero di aumentare la propria concentrazione nell’ambiente. I ricercatori Elizaveta Guseva, Ronald Zuckermann e Ken Dill hanno investigato i processi fisici e chimici alla base di questo passaggio, basandosi su un modello di ripiegamento di polimeri che Dill aveva sviluppato in precedenza. Hanno scoperto che alcune piccole catene possono collassare a formare strutture compatte in acqua. La maggior parte delle molecole si ripiega in modo da esporre solo le parti idrofile, ma alcune si comportano diversamente: espongono parti idrofobe che attraggono le parti simili di altri polimeri. Di qui può avvenire la formazione di molecole più complesse, che si ripiegano e possono anche diventare catalizzatori. Per quanto rare, queste molecole tenderebbero a crescere nel brodo prebiotico e potrebbero avere un ruolo nella nascita della vita. > Le proteine potrebbero essere emerse come prime molecole organiche, fornendo > un sistema di conservazione delle informazioni, non replicabile e meno > complesso di quello basato sugli acidi nucleici, e la loro presenza potrebbe > aver favorito la comparsa dell’RNA. La questione, quindi, è duplice: dapprima è necessario comprendere che aspetto avesse il mondo primordiale e poi si può investigare quali delle molecole disponibili si rivelarono essenziali per lo sviluppo delle prime forme di vita. Uno studio del 2000 provò a stabilire in quale ordine siano apparsi i venti aminoacidi odierni. Ben nove dei dieci trovati con l’esperimento di Urey-Miller erano in cima alla lista; ciò fu considerato una riprova dell’importanza dell’esperimento, e del fatto che questo non si limitava a dimostrare che la sintesi abiotica degli aminoacidi fosse possibile. Edward N. Trifonov, autore dello studio, partiva dal presupposto che gli aminoacidi più diffusi prima dell’origine della vita fossero stati i primi a essere incorporati nel codice genetico. Ma, osservando le antiche sequenze, questo si rivela non essere del tutto vero. Uno studio recente, condotto presso l’Università dell’Arizona, ha messo in discussione l’idea che il codice genetico sia nato seguendo l’ordine di reclutamento degli aminoacidi comunemente accettato. Supponendo che le sequenze più antiche siano più ricche di quegli aminoacidi che sono stati incorporati per primi, e non per forza degli aminoacidi che erano presenti in maggior quantità 4 miliardi di anni fa, si trovano risposte diverse. Ci sono aminoacidi che non erano abbondanti, ma che le antiche forme di vita sono riuscite a utilizzare comunque, probabilmente perché hanno funzioni uniche e importanti. “Siamo partiti da un assunto: che l’antica Terra poteva produrre tanti aminoacidi, ma non tutti venivano necessariamente utilizzati dalle forme di vita primitive”, mi racconta Sawsan Wehbi, tra gli autori dello studio. “Non eravamo soddisfatti degli studi precedenti. Volevamo riaprire la domanda sull’ordine di reclutamento degli aminoacidi, che fino a oggi è stato considerato come un assioma”. > Secondo alcune stime, il nostro ultimo antenato comune universale (LUCA), > risalirebbe a 4,2 miliardi di anni fa, il che implicherebbe che la sua > comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto > all’origine della Terra. L’idea del gruppo di ricerca era viaggiare indietro nel tempo fino al momento in cui il codice genetico stava prendendo vita. Parliamo del periodo in cui è apparso LUCA (acronimo di Last Universal Common Ancestor), una cellula da cui si ipotizza siano derivate tutte le forme di vita odierne. Recentemente, si è stimato che LUCA sia vissuto 4,2 miliardi di anni fa e quindi che la sua comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto all’origine della Terra. Tracce di come doveva essere questo organismo primordiale vivono dentro ognuno di noi, dentro gli alberi, i funghi e i batteri. La cellula si è duplicata, poi le sue figlie si sono duplicate e loro figlie hanno fatto lo stesso, e nel tempo le mutazioni e la selezione naturale hanno guidato la differenziazione degli organismi. Studiare LUCA è complicato perché il nostro antenato non esisteva in un mondo vuoto. Aveva dei predecessori, la cui storia evolutiva non ci è ancora chiara, e appare come un caotico e incessante trasferimento di geni. Oltretutto, non è detto che LUCA fosse un solo organismo. Potrebbe anche essere stato una comunità di organismi che condividevano geni e caratteristiche utili alla sopravvivenza. In questa lettura, più che un singolo ente biologico, LUCA rappresenterebbe un periodo di tempo. Wehbi e colleghi hanno deciso di guardare non agli aminoacidi che esistevano nell’ambiente, ma solo a quelli che le prime sequenze biotiche scelsero di incorporare. Dunque, hanno considerato come evento spartiacque proprio la nascita del codice genetico, e hanno paragonato sequenze che risalgono a poco prima con sequenze che risalgono a poco dopo. Possiamo supporre che le catene più antiche che incontriamo siano ricche di quegli aminoacidi che il codice genetico scelse per primi, e povere di quelli che furono scelti per ultimi. E non è tutto: dentro un’antica sequenza di aminoacidi Sawsan Wehbi e i suoi colleghi hanno trovato segmenti che si sono duplicati varie volte e si sono conservati. Questo significa che esistono sequenze così antiche che appartengono a un tempo in cui le proteine venivano tradotte in altri modi. È un dato cruciale, perché presuppone l’esistenza di codici genetici più antichi degli acidi nucleici, e viene a cadere l’idea che il corrente sistema di trascrizione e traduzione dell’informazione genetica sia l’unica possibilità. Lo studio ha rivelato anche che la vita primordiale preferiva aminoacidi più piccoli, mentre gli aminoacidi che contengono atomi di metallo sono stati incorporati molto prima di quanto si pensasse in precedenza. “Sapere quali aminoacidi furono usati al principio della vita sulla Terra è importante perché ci permette di sapere che tipo di mondo biotico c’era. Ci sono tanti tipi diversi di aminoacidi che il pianeta può produrre, ma questo non significa che la vita li utilizzerà”, spiega Wehbi. “La cosa che mi ha stupito di più è stata scoprire che quello che studiamo ha implicazioni in tantissime aree della scienza. Questa ricerca è stata utilizzata in diversi ambiti di ricerca, non solo nella biologia, ma si è rivelata utile anche per come concepiamo la vita nello spazio, per le missioni della NASA, per la ricerca di molecole organiche lontano dal suolo terrestre. Abbiamo cambiato il paradigma”. > L’esistenza di proteine antecedenti all’RNA presuppone l’esistenza di codici > genetici più antichi degli acidi nucleici, e mette in discussione l’idea che > il corrente sistema di trascrizione e traduzione dell’informazione genetica > sia l’unica possibilità. Tutto questo è possibile perché gli studiosi oggi sono in grado di ripercorrere le tracce di LUCA e analizzare le sequenze del periodo in cui il codice genetico era in costruzione. Lo si fa attraverso un lavoro di ricerca nei database e di sequenziamento proteico per ricostruire la storia evolutiva delle sequenze – di fatto, si guarda alla radice dell’albero filogenetico di una sequenza e si cerca di capire a quando risale. Nel caso di questo studio, i ricercatori hanno scelto di focalizzarsi sui domini proteici, che sono generalmente più antichi delle proteine che compongono. LUCA probabilmente aveva altre forme di vita intorno a sé, ma non sono sopravvissute e non ci hanno lasciato indizi. Retrocedendo nel tempo, le domande si fanno più intricate e le risposte più nebulose. Chi è comparso per primo, l’RNA, il DNA o le proteine? E com’è arrivato il DNA a diventare il ricettario favorito dalle forme di vita? Ancora più indietro nel tempo, rimane da capire come arrivarono le prime molecole organiche a polimerizzare, a formare DNA, RNA e aminoacidi, e di lì come fecero le sequenze a duplicarsi o tradursi in proteine. Le macromolecole hanno bisogno di allungarsi e ripiegarsi per funzionare e l’ambiente precoce avrebbe impedito la formazione di stringhe così lunghe. Non a caso, la vita prese piede quando comparvero le membrane, che si richiusero intorno alle macromolecole e le protessero dall’ambiente esterno. E dunque come, e quando, comparvero le membrane? Come fu la prima duplicazione di una cellula? Avvenne in un unico luogo geologico, o in molti posti simultaneamente? “La cosa più bella”, commenta Sawsan Wehbi, “è che per ognuna di queste domande esiste almeno un laboratorio nel mondo dedicato interamente a studiarla”. L'articolo La vita prima della vita proviene da Il Tascabile.
Scienze
biologia
chimica
genetica
origine della vita