L a biologia evoluzionistica ha una storia strana. Per certi versi, la si
potrebbe definire asimmetrica: dalla presentazione della teoria di Darwin e
Wallace del 1858 (anche se, come i più appassionati sanno bene, il concetto di
evoluzione non nasce certo lì), all’integrazione con la genetica mendeliana, la
cosiddetta sintesi moderna intorno agli anni Trenta del Novecento, dagli
sviluppi della genetica molecolare nel secondo dopoguerra, alle teorie
sull’equilibrio punteggiato di Gould, alle recenti integrazioni con biologia
dello sviluppo, epigenetica e le ultime scoperte in campo genetico (tra cui lo
straordinario trasferimento genico orizzontale), l’impressione è che la materia
sia nata come argomento da copertina, quasi pop, per diventare via via sempre
più un tema di nicchia, adatto più che altro agli addetti ai lavori.
È chiaro che il successo straordinario di L’origine delle specie di Darwin e il
suo impatto sulla società sono praticamente impossibili da replicare ai giorni
nostri, ma rimane il fatto che un tema che occupava le prime pagine dei giornali
nella seconda metà del Diciannovesimo secolo sia, di fatto, quasi totalmente
scomparso da quelli che sono i grandi temi del dibattito scientifico, sociale e
culturale mainstream. Con un’unica eccezione: i continui attacchi e dibattiti
sulla veridicità della teoria.
Anche se alcuni di questi temi sanno un po’ di stantio per chi mastica bene la
materia, è indubbio che un aspetto che ha sempre tenuto viva l’attenzione almeno
di una parte del grande pubblico sulla biologia evoluzionistica sono state le
continue critiche degli antievoluzionisti. La storia è ben nota:
l’antievoluzionismo nasce nel Diciannovesimo secolo come reazione religiosa e
culturale alle idee di Darwin, soprattutto in contesti cristiani conservatori.
Poi, nel corso del Novecento, prende forma il creazionismo moderno, protagonista
di scontri pubblici come il celebre processo Scopes del 1925 negli Stati Uniti.
Col tempo, però, alcune posizioni si rivelano eccessivamente antiscientifiche
per restare a galla e così, ironicamente, è lo stesso antievoluzionismo a
evolversi: dagli anni Settanta si sviluppa il cosiddetto “disegno intelligente”,
una versione aggiornata di questa dottrina, che continua a influenzare il
dibattito pubblico, soprattutto sull’insegnamento dell’evoluzione delle scuole,
ma non solo. Ma il dibattito, in certi casi, viene riacceso grazie anche ad
alcuni studi scientifici tout-court, sfruttati ad arte. Ed è il caso di una
recente ricerca.
Uno studio condotto da un gruppo dell’Università di Haifa in collaborazione con
ricercatori del Ghana ha infatti riacceso un dibattito antico quanto la biologia
evolutiva: le mutazioni sono davvero eventi casuali? Oppure il genoma possiede
una sorta di predisposizione interna a generare alcune mutazioni più di altre?
La domanda non è banale, perché la casualità delle mutazioni è stata
storicamente uno dei pilastri della sintesi moderna. Non solo: uno studio del
genere potrebbe riportare in auge una sorta di finalismo nell’evoluzione, di
lamarckiana memoria. E il povero Lamarck, grande biologo che fu tra i primi a
dare dignità scientifica a tanti gruppi animali fino ai suoi tempi pressoché
ignorati, meriterebbe di essere ricordato per ben altro.
> Un nuovo studio ha riacceso un dibattito antico quanto la biologia evolutiva:
> le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta
> di predisposizione interna a generare alcune mutazioni più di altre?
Lo studio in questione, concentrato su una mutazione del gene APOL1 (che
conferisce resistenza a una forma di tripanosomiasi, meglio nota come malattia
del sonno), mostra che la variazione non si distribuisce in modo uniforme in
tutte le popolazioni umane: la mutazione, infatti, compare più frequentemente
nelle popolazioni dell’Africa sub-sahariana, le stesse in cui la malattia è, o è
stata, endemica. Gli autori propongono, con un linguaggio a tratti provocatorio,
l’idea che le mutazioni possano seguire una sorta di “forza interna”, cioè un
insieme di meccanismi intrinseci al genoma che, nel tempo, rendono più probabili
alcune variazioni rispetto ad altre.
L’elemento più interessante, e per certi versi destabilizzante, non è soltanto
la correlazione tra mutazione e ambiente selettivo, ma il fatto che
l’organizzazione del genoma stesso sembri creare canali preferenziali per
l’innovazione genetica. Quando i ricercatori citano fenomeni come la “fusione
genica”, intendono proprio questo: geni che interagiscono di frequente e che,
trovandosi spesso fisicamente vicini all’interno della cromatina (il complesso
formato da DNA e proteine che si trova nel nucleo delle cellule eucariotiche),
hanno una probabilità maggiore di fondersi. Ne deriva, almeno sulla carta, una
visione meno accidentale delle mutazioni, che non sarebbero soltanto il frutto
di errori casuali durante la replicazione del DNA, ma anche il risultato di una
struttura interna del genoma che orienta, in qualche misura, il tipo di
variazioni che possono emergere.
Nonostante la recente pubblicazione, lo studio sembra aver già sollevato
l’interesse di più di un sostenitore del disegno intelligente. E non è un caso:
è chiaro che una simile interpretazione può essere letta come una sfida alla
sintesi moderna. Come accennato in precedenza quest’ultima, nella sua
formulazione classica, si basa proprio sull’idea che la variazione genetica sia
essenzialmente casuale, mentre la selezione naturale funge da filtro non casuale
che amplifica le mutazioni vantaggiose. Ma quella che potrebbe apparire come
un’arma in mano ai sostenitori del disegno intelligente, in realtà, non è di
certo un’arma e forse nemmeno un proiettile.
> Molti ricercatori lavorano già da tempo a un’estensione concettuale della
> sintesi moderna che non nega la validità della selezione naturale, ma
> riconosce che l’origine della variazione ereditaria non è riducibile solo a
> mutazioni casuali.
Da almeno quarant’anni i biologi evoluzionisti sviluppano teorie che rivelano
come la realtà sia ben più complessa: lo sviluppo embrionale, l’epigenetica, la
regolazione genica, la struttura cromosomica, la plasticità fenotipica, la
costruzione di nicchia e la selezione multilivello sono tutti processi che
introducono vincoli e direzioni che la Modern synthesis originaria non
contemplava esplicitamente. Il che, da un certo punto di vista, non è di certo
inaspettato: in fondo si parla di una teoria nata quasi cento anni fa e che dai
tempi è stata integrata dall’apporto di centinaia di nuove scoperte.
E infatti, da questo punto di vista, lo studio non rappresenta necessariamente
una demolizione della sintesi moderna, quanto piuttosto l’ennesimo tassello che
invita ad ampliarla. Del resto, molti ricercatori lavorano già da tempo in
direzione di una Extended evolutionary synthesis, un’estensione concettuale che
non nega la validità della selezione naturale, ma riconosce che l’origine della
variazione ereditaria non è riducibile solo a mutazioni casuali. C’è un’intera
costellazione di meccanismi regolativi che condizionano ciò che può variare e in
che modo può farlo.
La lettura proposta da alcuni critici, secondo cui scoperte di questo tipo
aprirebbero le porte a un ritorno dell’ortogenesi, una teoria evolutiva oggi
abbandonata secondo cui l’evoluzione seguirebbe una direzione predeterminata,
guidata da una sorta di “forza” o impulso intrinseco alle specie, è però
forzata. Non c’è nulla, nei dati disponibili, che implichi un orientamento
finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, né
tantomeno una qualche volontà interna dei genomi. Si può parlare, con più
prudenza, di mutazioni non del tutto casuali nel senso statistico del termine:
distribuzioni non uniformi, predisposizioni legate all’organizzazione
cromatinica e alle pressioni ambientali. In altre parole, una complessità
maggiore. Discorso ben diverso dalla teleologia, in cui gli eventi accadono in
vista di un obiettivo prestabilito. Niente mutazioni che avvengono al fine di
contrastare malattie endemiche, insomma.
> Anche dai nuovi studi non emerge nulla che lasci pensare a un orientamento
> finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità,
> né tantomeno una qualche volontà interna dei genomi.
Nello specifico, lo studio è focalizzato su un caso molto particolare e non
dimostra che le mutazioni in generale seguano schemi predittivi di questo tipo.
Ci sono anche altre considerazioni da fare: la correlazione tra mutazione e
ambiente non prova automaticamente che il genoma “scelga” di mutare in quella
direzione. Chi studia i meccanismi di riparazione del DNA, per esempio, sa bene
che certe regioni sono più esposte a rotture, altre più soggette a errori, altre
ancora più accessibili o meno protette. In tutti questi casi ci si discosta
dalla casualità “pura”, ma non per questo abbiamo mutazioni che operano con una
direzione preferenziale.
D’altro canto, è innegabile che il quadro si stia evolvendo verso una visione
più complessa della variazione. A partire dagli anni Novanta, con l’emergere di
concetti come il natural genetic engineering (termine coniato da James A.
Shapiro per indicare i meccanismi attivi di ristrutturazione del materiale
genico) o la facilitated variation, un’idea proposta da Marc Kirschner e John
Gerhart per spiegare come gli organismi possano produrre nuove varianti
evolutive in modo relativamente semplice ed efficiente grazie alla loro
architettura biologica, l’idea di un genoma del tutto passivo ha perso
credibilità. Gli organismi possiedono sistemi sofisticati per rispondere allo
stress, limitare i danni, modificare pattern di espressione, attivare trasposoni
o ricombinazioni non casuali. Questo non significa che tali sistemi abbiano un
fine evolutivo consapevole, ma che l’evoluzione, nel corso di milioni di anni,
ha selezionato organismi capaci di generare variazioni in modi più strutturati
rispetto al semplice “errore”.
Si parla sempre più spesso di evolvabilità, la capacità di un sistema biologico
come un gene, un organismo o un’intera popolazione, di generare una variazione
ereditabile su cui la selezione naturale può agire. L’evolvabilità stessa può
essere selezionata: un organismo in grado di produrre variazioni utili (ad
esempio grazie a una maggiore plasticità fenotipica) ha un vantaggio in ambienti
particolarmente mutevoli. Vedendola sotto questa luce, la direzionalità
dell’evoluzione non è un piano preordinato, ma l’effetto emergente di vincoli,
strutture interne e pressioni selettive che rendono alcuni percorsi, molto
semplicemente, più probabili di altri.
Ragionando in questi termini, si potrebbe pensare alla direzionalità come a una
proprietà statistica: non un tragitto obbligato, ma una certa tendenza a
muoversi lungo percorsi più agevoli. L’organizzazione del genoma, i pattern di
regolazione, la struttura delle reti metaboliche e di sviluppo, la storia
evolutiva precedente (ciò che Stephen Jay Gould chiamava contingency)
contribuiscono tutti a creare una direzionalità, ma tutto questo non implica un
fine, né un progresso. Comporta invece che l’evoluzione non sia un cammino del
tutto aperto, bensì un processo che si muove all’interno di un ventaglio di
possibilità limitate.
> Gli studi sulle mutazioni non casuali ci invitano a riconsiderare i meccanismi
> interni del genoma: non dei banali replicatori che incappano in errori
> casuali, bensì un sistema complesso che possiede vincoli, predisposizioni e
> una storia che ha modellato la sua possibilità stessa di mutare.
È ben difficile dire che la sintesi moderna sia morta o in declino. Al giorno
d’oggi, invece, affermare che è incompleta è quasi un’ovvietà. Ha funzionato, e
funziona tuttora, come un quadro teorico essenziale, ma il suo riduzionismo
basato sulla genetica, che si rivelò cruciale nel periodo in cui fu elaborata,
non è in grado di esaurire la complessità dei processi evolutivi emersi dalla
genomica, dalla biologia dello sviluppo, dall’epigenetica e dalle scoperte
biologiche più recenti. Siamo probabilmente in una fase di trasformazione, in
cui la Modern synthesis sta diventando parte di una visione più ampia. Non si
tratta di sostituirla completamente, ma di integrarla con nuovi concetti e nuove
prove scientifiche.
Il lavoro su APOL1 non annuncia il ritorno del lamarckismo né un nuovo “slancio
vitale”, ma ricorda che l’evoluzione è un processo molto più ricco e dinamico
rispetto allo schema che comprende una mutazione casuale unita alla selezione
naturale. Ci invita a considerare i meccanismi interni del genoma non come dei
banali replicatori che ogni tanto incappano in errori casuali, ma come un
sistema complesso che possiede vincoli, predisposizioni e, soprattutto, una
lunghissima storia antecedente, che ha modellato la sua possibilità stessa di
mutare. Lo studio di Haifa, come ho già detto, non si rivela un’arma contro la
sintesi moderna, ma forse nemmeno un proiettile. Anzi, è più probabile il
contrario: potrebbe aggiungere un tassello in più in un’architettura sempre più
meravigliosamente complessa e che solo in questi decenni si sta rivelando ai
nostri occhi.
L'articolo L’evoluzione non ha una bussola proviene da Il Tascabile.
Tag - Scienze
S e negli ultimi decenni, grazie agli studi postcoloniali, è stato reso noto
l’impatto del capitalismo sugli ambienti umani e non umani di tutto il mondo,
esiste una colonizzazione ancora più profonda e pervasiva operata dal sistema
economico imperante: quella delle menti – non solo in senso ideologico, ma anche
puramente neuronale; e, con questa, la colonizzazione del tempo futuro, oltre
che dello spazio. Su questo nucleo si concentra l’analisi che Matteo Motterlini
fa in Scongeliamo i cervelli non i ghiacciai. Perché la nostra mente è
l’ostacolo più grande nella lotta al cambiamento climatico (2025): un saggio
tanto agevole quanto dettagliato sui meccanismi cognitivi, prima ancora che
socio-politici, che hanno innescato la crisi ecologica in atto.
Il capitalismo da finanziario si è fatto limbico: ha imparato ad attivare e
sfruttare i circuiti dopaminergici degli esseri umani, le reazioni istintive, i
riflessi emotivi e le tendenze comportamentali controllate dalle strutture
cerebrali che vanno sotto il nome di sistema limbico, appunto. È il sistema
dell’anticipazione del piacere, emotivo e reattivo, in tensione con i circuiti
del controllo cognitivo e della pianificazione, in cui la corteccia prefrontale
ha un ruolo centrale. Questo equilibrio dinamico, ci spiega Motterlini, è stato
programmaticamente alterato, e i disequilibri ecologici e geopolitici che sono
ormai sotto gli occhi di tutti ne sono una conseguenza su larga scala. La
promozione di beni e servizi che incoraggiano l’eccesso e la dipendenza,
attraverso ricompense rapide ma a breve termine, è alla base di un’economia
(digitale e non) in cui la sovrabbondanza si maschera da scarsità percepita,
alterando così il modo in cui pensiamo e prendiamo decisioni. E il paradosso è
che l’edonismo sfrenato alla base dei consumi in costante crescita sfocia in
realtà in un’anedonia solipsistica e nichilista.
Scongeliamo i cervelli affronta questi e tanti altri meccanismi, attraverso dati
ed esperimenti sociocognitivi che illuminano la profondità del pozzo in cui ci
troviamo, ma anche molte possibili strategie per venirne fuori. In occasione
dell’uscita del libro abbiamo dialogato con l’autore, professore ordinario di
filosofia della scienza presso l’Università Vita-Salute San Raffaele di Milano,
dove dirige il Centro di ricerca in epistemologia sperimentale e applicata.
Da un lato l’attenzione del saggio si rivolge ai meccanismi neuronali che
distinguono gli esseri umani dagli altri esseri viventi: in particolare, la
pianificazione a lungo termine e i comportamenti da questa derivanti vengono
presentati come capacità caratteristiche della sola nostra specie,
distinguendoli dai comportamenti animali che sarebbero anticipatori solo come
riflesso dell’evoluzione. Dall’altro lato è molto efficace, nel libro, la
definizione della crisi climatica come crisi di astinenza in un sistema
economico drogato di crescita, che suggerirebbe un parallelo tra il sistema
cognitivo umano e il sistema planetario: la mente umana sarebbe quindi il motore
di dinamiche globali che a loro volta influiscono sui (dis)funzionamenti
cognitivi dei singoli.
QUALI SONO I VANTAGGI DELLO SCORPORARE I MECCANISMI COGNITIVI UMANI DA QUELLI
PIÙ-CHE-UMANI? IN CHE MISURA È NECESSARIO DISTINGUERE I NOSTRI MODI DI PENSARE –
QUELLI VIRTUOSI MA SOPRATTUTTO QUELLI FALLACI – PER COMPRENDERE UNA CRISI CHE È
IN LARGA PARTE ORIGINATA PROPRIO DA UN’ERRONEA LETTURA DELLA CENTRALITÀ
DELL’ESSERE UMANO SULLA TERRA?
Gli animali anticipano il futuro solo perché l’evoluzione li ha “programmati” a
farlo. Noi, invece, possiamo rappresentarcelo, simularlo, immaginarlo. Questa
capacità – che nasce dall’evoluzione, certo – è però fragile, discontinua,
facilmente sabotata da impulsi più antichi. È lì che si determina un
cortocircuito: abbiamo un cervello capace di pianificare il lungo periodo, ma lo
usiamo poco, male e spesso contro noi stessi. L’incapacità di reagire alla crisi
climatica nasce da una combinazione di miopia temporale, present bias e ambienti
decisionali che amplificano le nostre debolezze.
Il capitalismo della crescita infinita funziona perché parla direttamente al
nostro sistema limbico, non alla parte riflessiva della mente. È una gigantesca
macchina dopaminergica che trasforma una vulnerabilità biologica in un modello
economico. In questo senso, quando descrivo la crisi climatica come una crisi di
astinenza, non è una metafora azzardata: è una diagnosi cognitiva. Stiamo
chiedendo a un sistema dipendente dai consumi di smettere, senza cambiare il
contesto che lo rende dipendente.
MA NON È LA RIFLESSIONE UMANA ESSA STESSA UNA CONSEGUENZA DELL’EVOLUZIONE? COSA
POTREMMO IMPARARE DAL RIPENSARLA IN QUANTO TALE?
Capire come funziona la nostra mente serve a decentrare l’umano, non a
celebrarlo. Ci mostra che non siamo osservatori esterni del sistema Terra, ma
una sua parte biologica, con limiti precisi, bias prevedibili e una capacità di
autoinganno sorprendente. Pensarci come “speciali” perché razionali è uno degli
errori che ci ha portato fin qui. La riflessività umana è un prodotto
dell’evoluzione. Ma è un prodotto incompiuto. Non è una conquista definitiva, è
una possibilità che va allenata, sostenuta da istituzioni, norme, incentivi,
architetture di scelta. Se la lasciamo sola, perde quasi sempre contro l’urgenza
del presente.
È per questo che nel libro insisto tanto su regole, vincoli, default,
cooperazione: non come limitazioni della libertà, ma come protesi cognitive.
Strumenti che compensano ciò che l’evoluzione non ha avuto il tempo di
perfezionare. Se siamo arrivati fin qui cambiando l’ambiente naturale, possiamo
anche cambiare l’ambiente decisionale per non autodistruggerci. Non dobbiamo
diventare “più buoni” o “più saggi”. Dobbiamo diventare più realisti su come
funzioniamo davvero. È da lì che può nascere una risposta alla crisi climatica.
IN BASE AL MODELLO ECONOMICO DELLO SCONTO ESPONENZIALE, OGNI INTERVALLO DI TEMPO
RIDUCE IL VALORE DI UNA RICOMPENSA IN MODO PROPORZIONALE E COSTANTE, SECONDO UNA
CURVA DECRESCENTE, REGOLARE E CONTINUA. TENDEREMMO QUINDI A PREFERIRE
GRATIFICAZIONI IMMEDIATE PIUTTOSTO CHE LAVORARE CON LUNGIMIRANZA SULLA
RISOLUZIONE DI PROBLEMI CHE SAPPIAMO ANDARE PEGGIORANDO. EPPURE, ALMENO NEL
MONDO OCCIDENTALE, SI RISCONTRA UN’INCAPACITÀ DIFFUSA A GODERE DEL PRESENTE
STESSO, AD ESSERNE SODDISFATTI, AD ATTRIBUIRE UN VALORE NON MONETARIO AL QUI E
ORA. COME VEDE QUESTA DISSONANZA TRA I MODELLI ECONOMICI E L’EFFETTIVO MODO DI
STARE AL MONDO DI MOLTI DI NOI IN QUESTA PARTE DEL MONDO?
Lo sconto intertemporale non dice che il presente ci rende felici, ma che tende
a pesare troppo nelle nostre decisioni. Sovrastimiamo i costi immediati e
sottostimiamo i benefici futuri. Questo però produce un paradosso: non sappiamo
rinunciare a gratificazioni rapide, ma al contempo non traiamo soddisfazione
duratura da ciò che facciamo. Questa distorsione nasce da un conflitto interno:
tra un sé orientato all’immediato, sensibile alle perdite e all’urgenza, e un sé
proiettato nel futuro ma psicologicamente e politicamente debole. È per questo
che rimandiamo scelte che sappiamo necessarie, e allo stesso tempo viviamo in
una condizione di affanno permanente. Lo stesso meccanismo opera sul piano
collettivo e intergenerazionale. Trattiamo le generazioni future come se
contassero meno, come se avessero un valore ridotto. È una forma di miopia
temporale che rende possibile la procrastinazione climatica: sappiamo che i
costi arriveranno, ma non ricadranno su di noi, almeno non subito. Un presente
governato dall’urgenza della crescita, dalla logica della performance e
dall’illusione dell’ottimizzazione continua finisce per erodere le condizioni
stesse del benessere, oggi e domani. È un presente che divora il futuro senza
riuscire a nutrire chi lo vive.
MI PARE CHE IL DISCORSO POSSA ESSERE AMPLIATO ANCHE ALL’OTTIMISMO IMPOSTO
DALL’ALTO INSIEME A UN’IDEA DISTORTA DI PROGRESSO, IN NETTO CONTRASTO CON
PESSIMISMO E CATASTROFISMO SEMPRE PIÙ DIFFUSI NEL MONDO REALE.
L’ottimismo imposto dall’alto si inserisce come una narrazione rassicurante che
promette progresso senza costi, soluzioni senza rinunce, tecnologia senza
limiti. Ma, paradossalmente, proprio per questo genera sfiducia. Quando il
racconto ufficiale è in contrasto con l’esperienza quotidiana, produce
dissonanza. E la dissonanza, se non viene riconosciuta, si trasforma in cinismo
o in fatalismo. Il pessimismo che vediamo emergere non è un rifiuto del futuro
in sé, ma la percezione che il patto intergenerazionale sia stato rotto. Che
qualcuno stia incassando oggi lasciando ad altri il conto di domani. La
risposta, come sostengo nel libro, non è scegliere tra ottimismo e pessimismo,
ma ricostruire istituzioni, regole e norme sociali capaci di rendere il futuro
rilevante nel presente.
IN PARTE COLLEGATA ALLA DOMANDA PRECEDENTE C’È UNA CURIOSITÀ SUL DATO DA LEI
RIPORTATO IN BASE AL QUALE NEGLI ULTIMI VENTI ANNI IL BENESSERE SOGGETTIVO DI
TUTTE LE FASCE D’ETÀ È DIMINUITO IN NORD AMERICA. SEMBRA DUNQUE CHE SI STIA
RISVEGLIANDO UNA CONSAPEVOLEZZA DEI TANTI E VARI PROBLEMI INTRINSECHI AL
COSIDDETTO SVILUPPO CAPITALISTA E ALLO STESSO SOGNO AMERICANO. COME MAI, SECONDO
LEI, NON SI RIESCE A INCANALARE QUESTA PERCEZIONE IN UN CAMBIO DI ROTTA
CULTURALE E POLITICO? CHE TIPO DI STRATEGIE COGNITIVE DOVREBBERO ESSERE
SOLLECITATE PER GENERARE UN CAMBIO DI QUESTO TIPO?
Il calo del benessere percepito che osserviamo negli ultimi vent’anni,
soprattutto in Nord America e tra i più giovani, è un segnale forte perché
smentisce l’idea che più crescita, più consumo e più stimoli dopaminergici
coincidano automaticamente con più “felicità”. L’epidemia di obesità, l’aumento
delle dipendenze, l’abuso di psicofarmaci e oppioidi mostrano che quando un
ambiente è progettato per stimolare continuamente il circuito della ricompensa,
il risultato non è la soddisfazione, ma l’assuefazione. E l’assuefazione non
produce felicità: produce bisogno e, nei casi peggiori, dipendenza. È così che
possiamo avere società sempre più ricche e individui sempre meno felici. Nel
libro spiego perché questa non è una contraddizione, ma un effetto diretto del
modo in cui definiamo e misuriamo il progresso. Il PIL registra flussi di
produzione e consumo, ma ignora ciò che viene eroso per ottenerli. Conta come
crescita ciò che in realtà è consumo di capitale – sociale e naturale. Se
inquiniamo, degradiamo ecosistemi o compromettiamo la salute pubblica, il PIL
sale comunque. Questo modello di crescita assomiglia sempre più a un ciclo di
dipendenza: ricerca continua del piacere, illusione di eccessi senza
conseguenze, rimozione sistematica dei costi reali. Funziona finché funziona.
Poi il sistema non regge più.
La sostenibilità non riguarda un flusso annuale, ma uno stock: il patrimonio
complessivo che lasciamo in eredità. Confondere questi due livelli significa
prendere decisioni pubbliche con una bussola che punta nella direzione
sbagliata. Per tutelare davvero il benessere dei futuri abitanti del pianeta
servirebbe una contabilità della ricchezza inclusiva, che consideri il capitale
naturale e sociale come parte integrante della ricchezza collettiva. La “L” in
PIL sta per lordo, non per “al netto” della distruzione di suolo, aria e
biodiversità. È uno strumento utile per il breve periodo, ma inadatto a guidare
scelte di lungo termine. Un Paese che aumenta il PIL distruggendo il proprio
capitale naturale non sta diventando più ricco: sta firmando una cambiale a
carico di chi verrà dopo di noi. E rimandare non elimina il costo, lo accumula.
Quando il futuro presenterà il conto, la vera domanda non sarà quanto ci costerà
cambiare, ma quanto ci è costato non averlo fatto prima.
TROVO MOLTO PRODUTTIVA LA SUA DISCUSSIONE DEL MECCANISMO DEL PREIMPEGNO, CHE
PREVEDE UN’AUTOIMPOSIZIONE DI VINCOLI CHIARI E IRREVERSIBILI A CUI OGNI NUOVO
CICLO POLITICO DOVRÀ TENERE FEDE. LEI SPIEGA BENE COME LA SCELTA DI
PREIMPEGNARSI A RIDURRE PRODUZIONE, CONSUMI E CRESCITA ECONOMICA PER TUTELARE
L’AMBIENTE – E DUNQUE LIMITARE ALCUNE SCELTE NEL PRESENTE – SIA CONDIZIONE
NECESSARIA PER LA SOPRAVVIVENZA DELLA STESSA CAPACITÀ DI SCELTA IN FUTURO,
DECOSTRUENDO COSÌ LA RETORICA LIBERISTA SECONDO CUI LE LIBERTÀ INDIVIDUALI
DOVREBBERO ESSERE INATTACCABILI. QUALE FORMA DI GOVERNO, A SUO PARERE, SAREBBE
LA PIÙ EFFICACE AD ACCOGLIERE UN CERTO GRADO DI DIRIGISMO AMBIENTALISTA,
CONSIDERANDO I PROBLEMI CHE LEI STESSO EVIDENZIA NELLE DEMOCRAZIE ODIERNE, ORMAI
SUCCUBI DI OLIGARCHIE FINANZIARIE E DIGITALI?
Nel libro insisto su un punto che spesso viene frainteso: il preimpegno non è
una limitazione della libertà, ma la condizione stessa affinché si intervenga a
favore del clima. Se continuiamo a interpretare la libertà solo come assenza di
vincoli nel presente, finiamo per distruggere proprio lo spazio entro cui le
scelte future potranno essere esercitate. Da qui discende una conseguenza
politica scomoda ma inevitabile. La questione ambientale non può essere
affrontata da una forma di governo che viva in uno stato di campagna elettorale
permanente, con l’orizzonte temporale fissato alle prossime elezioni o ai
prossimi sondaggi. Le democrazie contemporanee, così come funzionano oggi,
soffrono di una miopia strutturale: tendono a sovrappesare il consenso immediato
e a sottovalutare i costi differiti. Questo le rende particolarmente esposte
alla pressione di interessi concentrati, ben organizzati e finanziariamente
potenti.
La risposta non è né l’autoritarismo verde né una sospensione della democrazia.
L’idea che serva “meno democrazia” per salvare il pianeta è una falsa
alternativa. Il problema non è la democrazia in sé, ma una democrazia priva di
vincoli credibili contro il “breve-termismo”. La forma di governo più efficace è
una democrazia capace di autovincolarsi. Una democrazia che accetta alcune
scelte fondamentali, rendendole non negoziabili a ogni cambio di maggioranza. È
una logica molto semplice: se sappiamo che cederemo alla tentazione, l’unica
soluzione razionale è toglierci la possibilità di farlo. Questo significa
fissare obiettivi ambientali chiari e duraturi, sottrarli alla contingenza
politica e affidarli a regole e istituzioni progettate per durare nel tempo:
standard ambientali stringenti, politiche industriali coerenti, meccanismi
fiscali che rendano costoso tornare indietro. Non perché qualcuno “comandi
dall’alto”, ma perché senza vincoli il sistema deraglia.
Come detto, è una questione di giustizia intergenerazionale. Chi pagherà il
prezzo più alto delle scelte attuali non ha voce nel processo politico di oggi.
Il preimpegno serve anche a questo: a rappresentare interessi assenti, a dare
peso politico a chi oggi non può difendersi. L’idea che le libertà individuali
siano intoccabili anche quando distruggono le condizioni materiali della loro
stessa esistenza è una fallacia. La libertà di inquinare che consuma il futuro
non è libertà: è mettere il pianeta in liquidazione.
UN PREGIO DEL SUO LIBRO RISIEDE NELLA PROPOSTA DI SOLUZIONI, ALCUNE DELLE QUALI
A PORTATA DI OGNUNO DI NOI, ALTRE RELATIVE ALLA GESTIONE DELLA COSA PUBBLICA. IL
SUO STESSO LAVORO AGISCE NELL’ALVEO DI QUELLA CHE LEI DEFINISCE UN’EDUCAZIONE
CIVICA EPISTEMICA, PRODUCENDO INFORMAZIONE SCIENTIFICA AFFIDABILE E ACCESSIBILE,
CHE POSSA FARE DA BASE A SISTEMI VIRTUOSI DI GESTIONE COLLETTIVA. MI PIACEREBBE
QUINDI FINIRE CON UN ESPERIMENTO IMMAGINATIVO. SE LE VENISSE AFFIDATO DOMANI UN
RUOLO DECISIONALE ALL’INTERNO DEL GOVERNO DI UN PAESE OCCIDENTALE – L’ITALIA,
PERCHÉ NO? – QUALI SAREBBERO I PRIMI TRE CAMBIAMENTI SU CUI LAVOREREBBE
NELL’IMMEDIATO, E IN CHE MODO QUESTI ANDREBBERO AD AGIRE SUL MEDIO-LUNGO
PERIODO?
Il primo intervento riguarderebbe la visibilità del problema. Una delle ragioni
per cui la crisi climatica non ci muove è che resta astratta, lontana,
statisticamente corretta ma emotivamente irrilevante. Renderei salienti gli
impatti locali, presenti, quotidiani delle scelte ambientali. Dati chiari,
comparabili, territorializzati. Non “il pianeta”, ma l’aria che respiriamo,
l’acqua che beviamo, i costi sanitari che paghiamo. Nel medio periodo questo
crea una base di realtà condivisa, riducendo lo spazio per la dissonanza
cognitiva e il negazionismo.
La seconda leva sarebbe quella delle scelte per default. Non chiederei alle
persone di diventare improvvisamente più virtuose o più informate. Cambierei ciò
che accade quando non si sceglie. Energia, mobilità, edilizia, rifiuti: rendere
l’opzione sostenibile quella standard, lasciando sempre la possibilità di
opt-out, ma rendendo il comportamento dannoso più costoso, meno comodo, meno
invisibile. È una misura poco ideologica e molto efficace, perché lavora con,
non contro, i limiti cognitivi. Nel medio-lungo periodo questo normalizza
comportamenti che oggi appaiono “sacrifici”.
La terza azione riguarderebbe la fiducia. Senza fiducia nelle istituzioni, nella
scienza e nei processi decisionali, nessuna transizione regge. Investirei subito
in quello che nel libro chiamo educazione civica epistemica: non per insegnare
alle persone “cosa pensare”, ma come distinguere informazioni affidabili da
narrazioni manipolatorie. Questo significa rafforzare l’indipendenza delle
autorità scientifiche, proteggere gli spazi di competenza dagli attacchi
politici e rendere trasparenti i conflitti di interesse. Nel lungo periodo, è
l’unico antidoto strutturale alla disinformazione e al complottismo.
Sono interventi poco spettacolari, lo ammetto. Non promettono miracoli né
salvezze rapide. Ma hanno un vantaggio decisivo: non richiedono un’umanità
migliore, solo istituzioni un po’ più intelligenti e a misura di cittadino. E se
c’è una cosa che ho imparato studiando decisioni e comportamenti è che, quando i
contesti cambiano con “cognizione di causa”, le persone spesso fanno la cosa
giusta senza neppure accorgersene. In fondo, sarebbe già un enorme passo avanti.
L'articolo Capitalismo dopaminergico proviene da Il Tascabile.
I l 2025 verrà ricordato, quantomeno da chi ha la passione per cinema e
dinosauri, come un anno dorato. In un genere tradizionalmente parco di proposte
sono usciti ben due film di alto profilo con protagonisti i rettili mesozoici.
Il primo, Jurassic World – La rinascita, di Gareth Edwards, è il settimo
capitolo di una saga ultratrentennale e il quarto uscito negli ultimi dieci
anni. Costato intorno ai 200 milioni di dollari, ne ha incassati più di 800, a
dimostrazione che il franchise è uno dei pochi ancora in piena salute a
Hollywood, almeno tra quelli storici. A fronte di questo successo, passa in
secondo piano il fatto che i dinosauri del film non siano ormai più veri
dinosauri, ma ibridi con altre specie (anche tassonomicamente distanti), o
addirittura creature transgeniche con caratteristiche fisiche anatomicamente
impossibili e nomi altisonanti come Distortus rex (un Tyrannosaurus rex a sei
zampe).
Il secondo film di dinosauri dell’anno, Primitive War di Luke Sparke, di milioni
ne è costati appena sette, e non è arrivato a incassarne due. Tratto da un
romanzo scritto da un vero appassionato del tema (l’americano Ethan Pettus, che
ha anche collaborato alla sceneggiatura del film), è popolato, questo sì, di
veri dinosauri, strappati alla loro epoca da un macchinario – costruito dai
russi con lo scopo originario di teletrasportare i propri soldati in posizioni
vantaggiose – che ha aperto svariati varchi nello spazio-tempo. Da questi
varchi, strategicamente situati nel mezzo della giungla vietnamita nel 1968,
sono uscite intere popolazioni di Utahraptor, Deinonychus, ovviamente
Tyrannosaurus rex, e anche di creature che dinosauri non sono ma che hanno la
loro stessa età e tutto quello che serve per partecipare al carnaio, come
Quetzalcoatlus.
Nonostante abbiano in comune un aspetto fondamentale, quindi, cioè la presenza
dei dinosauri, Jurassic World – La rinascita e Primitive War hanno avuto
risultati molto diversi, prevedibili entrambi, e che rispondono alle più
basilari leggi del mercato cinematografico. Strizzando un po’ gli occhi, però,
si potrebbe vedere dietro questa sproporzione anche un aspetto simbolico, e un
avvertimento ai filmmaker di tutto il mondo: più i tuoi dinosauri sono
realistici, meno successo avranno.
> Per molto tempo la possibilità che i dinosauri avessero le piume rimase
> sostanzialmente inesplorata, anche perché andava contro quella che era
> l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia
> aperte da cinema e letteratura.
Cercare realismo e correttezza scientifica in un film nel quale i russi cattivi
squarciano lo spazio-tempo può sembrare un esercizio sciocco, almeno quanto
aspettarsi che un B-movie australiano ambientato in Vietnam abbia una funzione
pedagogica. Eppure la storia dell’audiovisivo insegna che molte rappresentazioni
della natura comparse su grande o piccolo schermo hanno contribuito, giuste o
sbagliate che fossero, a plasmare il nostro immaginario. Nel 1958, il presunto
documentario Artico selvaggio (White Wilderness) di James Algar, si inventò
l’idea che i lemming fossero animali con istinti suicidi di massa; si scoprì poi
che i roditori erano stati gettati apposta da una scogliera dagli stessi autori
del documentario, ma lo scandalo non fu sufficiente per sradicare del tutto la
diceria (ancora nel 2014 uscivano studi sul legame tra consumo di alcool e
percezione del rischio che parlavano di “Lemming-effect”). Gli effetti de Lo
squalo (Jaws, 1975) di Steven Spielberg sulla nostra immagine degli squali si
sentono ancora oggi. Vogliamo allargare il campo all’intero ambito culturale? In
Italia, la paura del lupo è quasi atavica, e Cappuccetto Rosso ha contribuito in
maniera decisiva a definirla.
Ed ecco perché un film come Primitive War ha attirato l’attenzione dei
paleontologi anche più che dei cinefili: i suoi dinosauri sono piumati, e un
eventuale successo dell’opera avrebbe potuto spalancare le porte a una
rivoluzione che è in pausa da trent’anni.
La questione delle piume
La questione delle piume dei dinosauri è in realtà ben più vecchia di
trent’anni. Le prime ipotesi sul legame tra dinosauri e uccelli risalgono al
1861, con la scoperta e descrizione di Archaeopteryx lithographica, il primo
dinosauro piumato, da parte di Christian Erich Hermann von Meyer, e poi al 1870,
quando Thomas Henry Huxley avanzò formalmente l’idea in un paper dall’esplicito
titolo “Further Evidence of the Affinity between the Dinosaurian Reptiles and
Birds”. Fino al 1969, però, la questione rimase sostanzialmente inesplorata,
anche perché era in netto contrasto con l’immagine dei dinosauri accettata dalla
scienza e accolta poi a braccia aperte da cinema e letteratura: quella che li
vedeva come grosse lucertole lente e un po’ tonte, oppure grosse e voraci (ma
altrettanto lente). Una visione nata in parallelo alla stessa paleontologia,
portata avanti a cavallo tra Ottocento e Novecento dai più grandi nomi della
disciplina e proposta anche al pubblico in giornali, riviste, mostre ed
esibizioni: le storiche sculture del Crystal Palace Park di Londra, create nel
1854 da Benjamin Waterhouse Hawkins, definirono l’immagine pubblica dei
dinosauri per più di un secolo.
> I dinosauri sono stati considerati delle grosse lucertole lente e un po’
> tonte, finché, cinquant’anni fa, alcuni studi hanno suggerito che fossero
> animali agili, a sangue caldo ed evolutivamente imparentati agli uccelli.
La rivoluzione scoppiò a cavallo tra gli anni Sessanta e Settanta del secolo
scorso. Prima, nel 1969, John Ostrom descrisse Deinonychus antirrhopus come un
“dinosauro carnivoro molto particolare” con “una serie di caratteristiche che
indicano un animale molto attivo e agile”, in contrasto quindi con lo stereotipo
della lucertola lenta. Poi, nel 1975, Robert Bakker aprì così il suo storico
articolo “Dinosaur Renaissance”:
> I dinosauri sono, per la maggior parte della gente, l’epitome dell’animale
> estinto, il prototipo della bestia talmente poco adatta ai cambiamenti
> ambientali che non può che morire, lasciando fossili ma nessun discendente. I
> dinosauri hanno una pessima immagine pubblica, che li vede simboli di
> obsolescenza e pachidermica inefficienza […] Le ricerche più recenti stanno
> riscrivendo questo dossier […] Le prove dimostrano che i dinosauri non si sono
> estinti del tutto. Un gruppo resiste ancora. Li chiamiamo uccelli.
L’articolo di Bakker proseguiva suggerendo che i dinosauri fossero omeotermi (“a
sangue caldo”), che avessero un metabolismo paragonabile a quello dei mammiferi,
ma anche, per esempio, che Archaeopteryx avesse le piume non per facilitarlo nel
volo ma per questioni di isolamento termico. Tutte idee rivoluzionarie, anche
provocatorie, che aprirono innumerevoli filoni di ricerca e contribuirono a
modificare, e pure con una certa rapidità, il modo in cui la paleontologia
immaginava i dinosauri: il legame con gli uccelli era ormai innegabile, e i loro
antenati diventarono all’improvviso creature attive, agili, forse anche
intelligenti.
> Niente ha contribuito a segnare per sempre il nostro immaginario quanto
> l’uscita, nel 1993, di Jurassic Park: un laboratorio a cielo aperto, un grande
> aggiornamento collettivo per mettere il pubblico in pari con la scienza.
E come già accaduto nell’Ottocento, anche queste novità filtrarono rapidamente
nel cosiddetto immaginario collettivo. Il cartone animato di Don Bluth Alla
ricerca della Valle Incantata (The Land Before Time), uscito nel 1988, avrebbe
avuto dinosauri molto diversi se fosse uscito solo dieci anni prima. Provate a
confrontare la versione cinematografica di Il mondo perduto (The Lost World) di
Conan Doyle del 1960, diretta da Irwin Allen, con quella del 1992, di Timothy
Bond: la prima è dominata dal Brontosaurus e i pericoli per i protagonisti sono
rappresentati da una tribù di cannibali; nella seconda, oltre all’immancabile T.
rex, compare un Herrerasaurus ischigualastensis, un grosso ma agile carnivoro
con zampe da corridore e denti seghettati da predatore attivo. E ovviamente
niente contribuì a segnare per sempre la nostra fantasia quanto l’uscita, nel
1993, di Jurassic Park.
Tratto da un romanzo che calcava ancora di più la mano sulla nuova immagine dei
dinosauri come grossi polli feroci, il film di Steven Spielberg portò a milioni
di persone tutto quello di cui la paleontologia discuteva con passione da
vent’anni. Sulla locandina campeggiava lo scheletro di un T. rex, ma i veri
protagonisti, gli alfieri della rivoluzione, erano i Velociraptor: Rapidi,
intelligenti, coordinati, si muovevano e cacciavano in branchi, e assomigliavano
più a grossi uccelli che a lucertole terribili. Certo, il vero Velociraptor era
più piccolo e meno minaccioso, e quelli che si vedevano nel film erano in realtà
Deinonychus che avevano subìto un cambio di nome semplicemente perché
“Velociraptor” suonava più cool.
Resta che un predatore del genere in un film di dinosauri non si era mai visto:
Jurassic Park fu un laboratorio a cielo aperto, un grande aggiornamento
collettivo per mettere il pubblico in pari con la scienza. E infatti conteneva
anche errori, omissioni e interpretazioni che poi sono state smentite: pensate
solo al Dilophosaurus e alla sua abitudine di sputare veleno. Ma era un’opera
(anche) didattica, e non a caso il consulente scientifico del film era il
paleontologo Jack Horner, quello che ha suggerito più volte “se l’avessimo fatto
davvero realistico, il Jurassic Park sarebbe stato un enorme pollaio” e che usò
i mezzi e il talento di Spielberg per rendere globale la rivoluzione lanciata da
Bakker.
Una rivoluzione a metà
Salutato come un miracolo dal mondo della scienza, accompagnato da un rinnovato
interesse generale per i dinosauri e da un boom di iscrizioni nelle facoltà di
paleontologia, Jurassic Park si rivelò però essere più che altro un punto
d’arrivo. L’enorme successo della saga, e i suoi costi sempre maggiori e
insostenibili per la concorrenza, ne stabilirono di fatto il primato
incontrastato: nessun altro aveva più il coraggio (e i soldi) per fare film sui
dinosauri, e con il passare dei capitoli la spinta innovativa e didattica del
franchise si andò affievolendo. Ancora una volta, nulla lo dimostra meglio delle
piume. Appena tre anni dopo l’uscita del film, nella provincia cinese di
Liaoning, il cacciatore di fossili semi-professionista Li Yumin scoprì il primo
esemplare fossile di Sinosauropteryx, il primo dinosauro piumato non-aviale
(Avialae è il nome del clade che comprende gli uccelli e i dinosauri più
strettamente imparentati con loro). Era la prova definitiva che le piume, o
strutture simili, erano diffuse tra i dinosauri, non limitate a pochi,
selezionati gruppi; negli anni a venire, la ricchezza appena scoperta dei
giacimenti fossiliferi cinesi fece il resto, e paleontologia (e paleoarte)
dovettero aggiornare un’altra volta il proprio immaginario.
> La frattura tra la scienza dei dinosauri e la loro immagine pubblica è una
> questione commerciale: i dinosauri piumati rischiano di risultare buffi e non
> spaventosi. Inoltre, ricostruire il comportamento e le abitudini di animali
> estinti è complicato, spesso si tende a non speculare per non rischiare
> figuracce.
Andiamo quindi al 2015, quasi vent’anni dopo la rivoluzione di Sinosauropteryx.
In occasione dell’uscita di Jurassic World, che rilanciò la saga dopo 14 anni di
iato, in un’intervista ad Atlas Obscura Jack Horner si ritrovò quasi a
giustificarsi per il fatto che i dinosauri del film non fossero ancora piumati.
“Bisogna restare coerenti tra film e film. Non puoi avere dinosauri senza piume
nel primo film, poi riproporli nel quarto con le piume […] Ne ho parlato con
Steven e, be’, ha ragione lui: un dinosauro con le piume colorate non è
spaventoso come quelli del film”.
Ed ecco il vero punto del discorso: la frattura profonda tra la scienza dei
dinosauri e la loro immagine pubblica è, tristemente, una questione commerciale.
I dinosauri attivi e intelligenti sono “really cool” come dice Horner: ecco
perché i Velociraptor di Jurassic Park hanno avuto successo. I dinosauri piumati
invece no: sono buffi, sembrano polli giganti, non sono spaventosi. Poco importa
che le loro piume avessero poco a che fare con quelle di oche e galline (nella
maggior parte dei casi erano poco più che filamenti, presenti solo sulle zampe e
sulla coda, con funzioni di isolamento termico e forse di display visivo ma non
adatte al volo): le squame sembrano una condizione irrinunciabile per portare al
cinema un dinosauro efficace.
La vexata questio delle piume è peraltro solo un aspetto, per quanto il più in
vista, della rivoluzione mancata. Ancora nel 2012, il paleontologo Darren Naish
e i paleoartisti John Conway e C.M. Kosemen sostenevano che la maggior parte
delle rappresentazioni dei dinosauri fossero obsolete e conservatrici. Il loro
esempio più famoso è quello relativo alla pelle in eccesso: osservando, per
esempio, il cranio fossile di una gallina, è impossibile immaginarsi cresta e
bargigli, e lo stesso discorso è applicabile ai dinosauri, che secondo Naish,
Conway e Kosemen potevano avere labbra, gengive o altre parti molli che ne
cambiavano radicalmente l’aspetto.
Ci sono poi le questioni etologiche: ricostruire il comportamento e le abitudini
di animali estinti da milioni di anni è complicato ma non impossibile, ma spesso
si tende a non speculare per non rischiare figuracce. L’opera di Naish, Conway e
Kosemen invitava invece a rischiare e immaginare, e fu prima di tutto una
provocazione, raccolta principalmente da quella nicchia che è la paleoarte.
Nicchia in espansione, certo: l’abbattimento dei costi tecnologici, e la
disponibilità sempre maggiore sia di software, sia di dati anatomici e scansioni
3D di fossili, ha moltiplicato gli artisti che si cimentano nel campo, e che
lavorano con attenzione sopraffina al dettaglio scientifico e alla plausibilità,
oltre che all’aspetto artistico. Ma pur sempre nicchia: al cinema, nei fumetti,
nei videogiochi, nei libri, siamo ancora fermi ai dinosauri squamosi.
Come si compone la frattura?
Il “Secondo Rinascimento” dei Dinosauri, dopo quello, efficacissimo, degli anni
Settanta, è quindi per ora una rivoluzione mancata, ma questo non significa che
sia morta: si tratta solo di trovare la chiave giusta per fare la proverbiale
breccia nella fantasia di chi frequenta i dinosauri solo di striscio, e di
solito davanti a uno schermo.
> Oggi sappiamo molte più cose sul comportamento dei dinosauri rispetto a trenta
> anni fa, e molte di queste (socialità, comportamenti di branco,
> organizzazione, gerarchie) sarebbero un ottimo gancio per presentare un’idea
> di dinosauro nuova, ma non per questo meno affascinante o commercialmente
> efficace.
In un certo modo un po’ obliquo e fin troppo antropomorfizzante, va ammesso che
i primi capitoli della saga di Jurassic World ci hanno provato, mostrandoci un
gruppo di Velociraptor addestrati come fossero cani di razza, spingendo quindi
sul tema – già sfiorato nella trilogia originale – dell’intelligenza dei
dinosauri. Una pura fantasia di potenza, certo, ma il fatto che sia stata
inserita nel franchise riflette il fatto che negli ultimi vent’anni si siano
moltiplicati gli studi di paleoetologia, lo studio del comportamento degli
animali estinti. Uno studio argentino del 2021 per esempio ha proposto che i
sauropodomorfi (“quelli grossi con il collo lungo”, quindi i vari Brontosaurus,
Diplodocus, Argentinosaurus…) vivessero in greggi organizzate, vere e proprie
colonie formate da gruppi sociali divisi per età.
Nello stesso anno, uno studio statunitense ha avanzato l’ipotesi che gli stessi
sauropodomorfi intraprendessero lunghe migrazioni di gruppo, non dissimili da
quelle di certi grandi erbivori moderni, e la scoperta della Dinosaur Highway
dell’Oxfordshire ha confermato che i grossi carnivori (e loro predatori) li
accompagnavano nei loro viaggi per ovvi motivi. Per tornare all’argomento più
caldo, una ricerca cinese suggerisce che le piume di Microraptor, un piccolo
dinosauro con quattro ali, fossero di un nero iridescente simile a quello dei
moderni corvi, e venissero usate per l’esibizione sessuale. Insomma: sappiamo
molte più cose sul comportamento dei dinosauri di quante ne sapessimo ai tempi
dell’uscita di Jurassic Park, e molte di queste (socialità, comportamenti di
branco, organizzazione, gerarchie) sarebbero un ottimo gancio per presentare in
un film un’idea di dinosauro nuova, o per lo meno aggiornata, e non per questo
meno affascinante o cool.
Ci sono comunque segnali di risveglio, anche potenti. La divulgazione via
social, per esempio, collabora da anni con la paleoarte, soprattutto quella “dal
basso”, per fare tutto quello che la Jurassic saga non fa più. Due anni fa,
accompagnate dall’inimitabile voce di Sir David Attenborough, molte delle
scoperte più recenti a tema dinosauri hanno preso vita in Prehistoric Planet, un
documentario ambientato poco prima della caduta dell’asteroide Chicxulub; per
la prima volta la serie mostrava a un pubblico vastissimo un altro lato dei
dinosauri, per ora noto solo alla scienza e agli appassionati: ad esempio uno
scontro tra maschi di Dreadnoughtus (un gigantesco erbivoro che arrivava a
pesare 50 tonnellate) per conquistare una femmina, una caccia di coppia di
(veri) Velociraptor e diversi casi di cure parentali.
La sensazione, però, è che la vera scintilla debba ancora scoccare; che manchi
un Jurassic Park contemporaneo, che convinca milioni di persone ad aggiornare la
propria visione dei dinosauri. La mia teoria (e non solo la mia) è che dobbiamo
ripartire dalle piume: una volta accettate quelle, il resto verrà di
conseguenza.
L'articolo Ripensare i dinosauri, di nuovo proviene da Il Tascabile.
T ra i miei messaggi privati, in una chat che condivido con una persona a me
cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza
artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni
ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche.
Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei
video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo.
Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa
disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno
soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche,
compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video
generati, in particolare, è investita da una mutazione rapidissima,
un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il
cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A
guardare i social media, si ha l’impressione di stare scivolando da un livello
di simulazione a un altro più profondo. Dopo tre anni di entusiasmo,
disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA
è esattamente questo: le persone hanno la sensazione di essere in balia di
qualcosa che sfugge senza controllo, come se proprio la realtà stesse
deragliando da sotto i piedi.
Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima
fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati
iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da
brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e
barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di
inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la
grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le
anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano
da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa,
improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi
abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli
futuri era già evidente, ma la produzione di video da parte degli utenti restava
per lo più motivo di burla e sperimentazione estetica.
> Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi
> a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
> incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
> complesse non immediatamente evidenti.
Oggi, senza che quasi si abbia avuto il tempo di registrarne l’evoluzione, il
grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a
nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole
incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche
complesse non immediatamente evidenti. Video familiari, agenti atmosferici
bizzarri, assurdi incidenti stradali, influencer e guru del web, e ovviamente
video di animali: cacatua che ballano, orsi, agnelli, maiali e procioni che
saltano sui trampolini; cani che salvano umani da pericoli incombenti, gatti che
impastano la massa lievitata del pane: una categoria di video dal ricercato
mimetismo domestico, che inscenano una quotidianità tenera, buffa, rassicurante.
Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi
di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni
politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna
aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che
ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e
conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto
da correggere o interpretare, ma una caratteristica anestetica sfruttata nella
propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o
porsi domande.
Simulazioni. Pseudoeventi. Narrazioni
Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura
di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un
regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa
dignità. Nel suo libro America (1986), racconta una visita al museo delle cere
di Buena Park, in California, dove vede esposte fianco a fianco le repliche di
Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono
identico trattamento: cura nei dettagli, realismo espressivo, attenzione
scenografica. Le due figure sembrano appartenere allo stesso registro
ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard,
accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le
questioni dell’aderenza al reale o dell’autenticità non sono prese in
considerazione.
Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni,
dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili,
appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica:
la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica
altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si
pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA
generative hanno esasperato questa abilità con una potenza esponenziale,
rimescolando liberamente database di miliardi di dati visivi per reiterarne
altri identici. È il simulacro perfetto.
> Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora
> dovremmo scandalizzarci all’idea di interagire apertamente con contenuti
> artificiali?
La velocità sequenziale nella stimolazione visuale, lo scroll, non consente
costitutivamente la distinzione critica del vero dal falso. Esporsi a questo
carosello senza confini e linee di separazione, vuol dire “perdere la coscienza
storica del mondo”: nelle repliche delle repliche, in cui ognuna possiede
identico valore e statuto, il rischio è di smarrire la traccia di quanto
realmente accaduto ‒ o sta ancora accadendo.
Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota
come a una parte della popolazione preoccupata dall’incapacità di riconoscere i
video generati con IA, risponde un pubblico altrettanto numeroso che invece non
si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che
distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa
adesione immediata ai video generati nell’ecosistema digitale? Molto prima
dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra
sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni
ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo
scandalizzarci all’idea di interagire apertamente con contenuti artificiali?
La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa
più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità,
un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque?
Nello studio “How do users perceive AI? A dual-process perspective on
enhancement and replacement” i ricercatori hanno indagato il valore percepito
dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti
percepiscono l’IA attraverso due processi cognitivi distinti: uno più
immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati
mostrano come la percezione immediata (sistema 1) prevale nella fruizione
sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non
passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è
reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica.
Inondati dai video generati, la soglia critica si riduce, ciò che importa è
l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura
volutamente naive, ma destinata a diventare quella prevalente nella fruizione
dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento,
non ciò che è. Il reale si riduce a un’interfaccia adattativa.
> L’origine dei video non è più una condizione per stabilirne la veridicità:
> accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo
> già appartenere alle cose del mondo.
In parte, questa dinamica ricorda il lavoro di Gregory Currie in The Nature of
Fiction (1990), il quale a proposito della finzione dice che le nostre emozioni
si mobilitano anche per eventi che sappiamo non essere mai accaduti, perché li
trattiamo come “veri nella storia”, all’interno di uno spazio di simulazione.
Nel nostro caso, però, non chiediamo più chi sia l’autore, e il “fictional
author” ‒ quel soggetto, dice Currie, che costruiamo mentalmente come autore
implicito al momento della lettura, un soggetto che sta “dietro” al testo, con
le sue intenzioni, un certo carattere, sensibilità, visione ‒ si frantuma tra
utenti, piattaforme, algoritmi e sistemi di prompt automatici.
C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro
origine ‒ non è più un a priori, una condizione per stabilirne la veridicità:
accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già
appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il
problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo
conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo
più in sintonia con le nostre aspettative. I video generati servono proprio a
continuare a mostrarci ciò che siamo pronti a vedere.
Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito
chiuso, interviste falsificate con deepfake tra politici e celebrità, sono
contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come
“pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America.
Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o
provocati, per avvenire in un preciso momento e luogo, generalmente con
l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per
favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi
non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro
caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e
falsi nel panorama mediatico. L’assuefazione alla proliferazione degli
pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali.
Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto
estetico ideale diventa un atto manipolatorio: il valore della testimonianza,
nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà
viene letta come cinema ‒ o respinta come una messinscena, anche quando
autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee
Nicole Good in Minnesota).
La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le
tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata,
mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin
ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia
(1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso.
Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che
mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal
senso abbondano: dal turismo che ha riconfigurato le location scelte per la
serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata
come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei
morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film
Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella
l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e
culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra
percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi
non usa il mattarello come in quel video?”. La realtà è un effetto narrativo.
> È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà
> che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che
> potrebbe accadere di lì a poco.
Tutto sembra dirci che le IA, in fin dei conti, non sono più strane del mondo
stesso, o delle creature che lo abitano. Ci arrenderemo perché tutto è
ingovernabile. È la realtà stessa a non essere più sicura per noi. Per
intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere
successo, o che potrebbe accadere di lì a poco.
Una questione di verosimiglianza
Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and
analysis of a recurring conflation” (2025) esplora il concetto di
verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di
vista della filosofia della scienza, e sottolinea come alcune teorie, pur false,
risultino più verosimili di altre. In quest’ottica, anche un video generato può
essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla
nostra verità di quanto lo fosse la realtà precedente. Il problema,
naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra
visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle
nostre attese.
Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione
vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non
conta più la corrispondenza con un mondo esterno, quanto la relazione
informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile”
se è integrato nel flusso informativo che abitiamo. La soglia della verità
ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce
effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒
come se lo fosse.
Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media,
soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di
Baudrillard. Perniola intendeva il simulacro come una forma ludica
dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla
dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto
imitazione del reale, ma perché obbedisce a una propria logica di esistenza
estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri
immaginari e schemi percettivi.
In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di
queste tecnologie è in mano alle “corporation dell’imagineering”, le quali
“hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di
massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia:
l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale,
con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo
avviene attraverso la saturazione degli spazi di immaginazione, con una
“produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si
può immaginare.
Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2
di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo
che appare reale per frequenza e familiarità. In quel suo “funzionare” il
sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso
ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente
semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra
percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale.
> Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in
> cui lo guardiamo – o da cui siamo guardati.
La simulazione non è “più reale del reale stesso”, come direbbe Baudrillard, ma
‒ almeno nella cultura fondamentalmente visuale dell’Occidente ‒ l’IA risulta
reale tanto quanto la realtà irreale nella quale viviamo. In questa
superfetazione simbolica gli algoritmi generativi saturano la realtà di simboli,
interpretazioni, significati, immagini e dati, facendola sparire dietro a una
foresta di copie e rappresentazioni. Un nuovo processo di accumulo mediale e
tecnologico si innesta senza fine sui precedenti, prima che si abbia avuto il
tempo di assimilarli.
“Sembra IA”. La svolta percettiva
I video generati da IA rappresentano l’emersione di un nuovo paradigma di
simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan
parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo,
l’infosfera agisce direttamente sul sistema nervoso della società, non si limita
più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a
riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo
rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo
materiale.
Questo scenario impone di ripensare il concetto di “post-verità” estendendolo
alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone
Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e
percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi
tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci
partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che
cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui
siamo guardati.
Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo
innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich
identificava l’emergere del “realismo sintetico” come una cesura fondamentale,
citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della
transizione dal cinema fotografico al cinema digitale. La settima arte cambiava
identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è
solo una delle possibilità” annotava Manovich. Il cinema diventava un
sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più
la realtà, ma la riscriveva, inaugurando una nuova condizione visiva.
Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio
“True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996),
introducendo il concetto di perceptual realism per descrivere come le immagini
digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per
il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella
nuova ondata di effetti speciali generati al computer. Prince cita la creatura
acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono
soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno
spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito,
“diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive
Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può
comprendere sia immagini irreali che immagini referenzialmente realistiche. […]
Le immagini irreali possono essere referenzialmente fittizie ma percettivamente
realistiche”.
Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio
“Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e
della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in
semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che
rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il
corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo
spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma
piuttosto attraverso l’“impressione di realtà”: un effetto costruito,
intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia
ontologica dell’indice (l’immagine fotografica considerata come traccia diretta
del mondo) alla capacità delle immagini di simulare la percezione del reale.
Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua
efficacia percettiva.
> Software come Sora non registrano, piuttosto restituiscono idee in forma di
> immagine, spostando il baricentro dal filmato alla ricostruzione digitale
> totale, senza alcuna mediazione umana.
Oggi anche il cinema comincia a subire l’accerchiamento metanarrativo dei video
IA, con gli utenti che scrivono prompt per generare nuovi attori, ambientazioni
inedite o riscrivere film adeguandoli alle proprie esigenze estetiche. In un
articolo per The New Yorker, già due anni fa, Joshua Rothman si interrogava sul
significato stesso della parola ‘video’ in un’epoca in cui l’IA è in grado di
generare un intero film. Software come Sora non registrano, piuttosto
restituiscono idee in forma di immagini, spostano il baricentro dal filmato alla
ricostruzione digitale totale, senza alcuna mediazione umana. Il video IA è un
render concettuale che mima causalità e durata, esaudendo le nostre pretese. Il
film è ora nello sguardo di tutti.
Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto,
quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande
macchina informatica o il robot umanoide, anche la più modesta estensione dello
strumento quotidiano è stata integrata nella forma‑vita umana, trasformando
abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo
raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e
CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in
quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile
che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di
flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale
volume di informazioni e campi di competenza differenti, da svelare la loro
natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di
adottarle in ogni ambito della vita quotidiana, professionale, persino
affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove
competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli
anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e
mediazione.
> Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le
> intelligenze artificiali sono riconoscibili come non-umane non per via dei
> loro limiti, ma in quanto troppo capaci.
Mentre Manovich, Prince e Gunning riflettono sulla materialità e la
percettologia dell’immagine digitale, Marco Dinoi, in Lo sguardo e l’evento. I
media, la memoria, il cinema (2008), si concentra sull’epistemologia dello
sguardo: il ruolo del cinema nella costruzione della memoria e della
testimonianza, e il rapporto tra evento e trasposizione mediatica.
Nell’introduzione, Dinoi ricorda l’accoglienza delle prime proiezioni dei
fratelli Lumière al Grand Café nel 1895, e individua un passaggio decisivo:
dallo stupore del “Sembra vero!” davanti al cinema, all’angoscia del “Sembra un
film!” davanti alla realtà mediatizzata, culminata con la trasmissione
televisiva dell’11 settembre 2001, dove l’attentato alle torri gemelle viene
spontaneamente letto attraverso una grammatica cinematografica. Dinoi definisce
questa cesura come “salto cognitivo”: l’incredulità nei confronti del reale,
l’istantaneità della sua trasmissione, la sua dilatazione nel tempo, la
sensazione di spettatorialità collettiva. L’11/9 diventa il punto di non ritorno
per la nostra competenza spettatoriale. Nel regime mediale, la finzione non si
limita a ridurre la distanza tra significante e significato: diventa lente
attraverso cui leggiamo e interpretiamo il reale. Se la realtà appare oggi
iperbolica e fantasmagorica, tanto da richiedere strumenti di finzione narrativa
per essere compresa, allora la distinzione tra reale e immaginario sembra essere
esplosa del tutto.
Dal passaggio iniziale del “Sembra vero” (cinema → sospensione
dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della
realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi
post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di
mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt
– a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con
l’interpretazione di categorie e riferimenti astratti, più che in relazione con
il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con
il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice
soddisfacimento delle sue categorie.
Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra
IA”, dove non si indica la simulazione, ma nuove forme di autenticità e
riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come
immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è
più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi,
cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua
estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti.
Go and touch grass
Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA
text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà,
tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità
cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine
mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa.
È plausibile che il pubblico, davanti ai video generati con IA, semplicemente,
smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso
o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato
da ogni possibile resistenza, se non addirittura un atteggiamento reazionario.
> La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe
> presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile
> resistenza, se non addirittura un atteggiamento reazionario.
Le piattaforme non hanno alcun interesse a segnalare ciò che è stato generato.
Il capitale della nostra attenzione viene cooptato da un contenuto generato
all’altro. Le IA monopolizzano la scena divenendo creatrici, providers, e
persino fact-checkers di quanto vediamo. Continuando a scrollare, la promessa
che finalmente “qualcosa accada davvero” si sposta da un video a quello
successivo, lasciandoci davanti allo schermo come consumatori, tragici,
speranzosi, assopiti.
Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical
Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di
ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie
Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma
perché tale confusione è parte integrante del suo raccontarsi. Lo stesso
Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e
simulazioni non avessero azzerato la Storia: la produzione delle immagini non
riesce ancora a nascondere e contenere la materialità viscerale del mondo.
Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo
stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la
rappresentazione della guerra e della violenza attraverso la fotografia e i
media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di
Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che
non può essere ridotta alla relazione spettacolo/spettatore, e della quale
dobbiamo farci carico.
Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono
con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il
movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con
chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva
nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella
violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che
non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di
Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze
artificiali come a un destino ineluttabile. Le intelligenze artificiali non
saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida
decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono
sostituirci, vogliono tutta la nostra attenzione.
Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta
dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale
e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il
più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA
dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo
Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a
giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera
conflittuale, produrre scarti, glitch, narrazioni che espongano il programma
sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla
simulazione onnisciente. Una forma di détournement digitale, atti di deviazione
e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle
piattaforme e spostare altrove il potere simbolico.
Infine, possiamo provare a contrapporre alla simulazione generativa un altro
tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni.
Martha Nussbaum, in libri come Love’s Knowledge (1990) e Poetic Justice (1995),
parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui,
di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente.
Parafrasandola, possiamo chiamare questo processo mentale come “simulazione
morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta
dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice
reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la
distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui
continuiamo a esercitare la nostra capacità morale. Una controsimulazione che
non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali
siano le sue condizioni. A patto che l’altro esista.
L'articolo Sembra IA proviene da Il Tascabile.
O gni anno, in Europa, quasi 60 milioni di tonnellate di cibo finiscono nella
spazzatura: oltre 130 chili per persona. Una parte consistente si accumula lungo
la filiera, dalla produzione alla distribuzione, mentre l’altra metà si
trasforma in scarto nelle nostre case, nei ristoranti, nelle mense. In Italia,
ad esempio, l’industria del pomodoro genera ogni estate migliaia di tonnellate
di bucce e semi che non per forza devono diventare semplici rifiuti. Oggi,
grazie a nuove tecniche di estrazione sostenibile, da quei residui si possono
infatti ottenere composti ad alto potere antiossidante, riutilizzati in
alimenti, cosmetici o integratori: è la scienza dell’upcycling.
Numerosi studi ne evidenziano da anni la solidità e le analisi del ciclo di
vita, nella maggior parte dei casi, segnalano un impatto ambientale positivo. Ma
il cosiddetto upcycling alimentare, ovvero i cibi “rigenerati”, prodotti nati
dal recupero di scarti o eccedenze alimentari, può essere una risposta efficace
alla riduzione degli sprechi solo se si riesce a garantire sostenibilità dei
processi, sicurezza del prodotto, misurazione dei risultati e opportune economie
di scala. In tutto questo, come vedremo nel corso dell’articolo, la fiducia di
chi consuma è un ingrediente decisivo. Non basta che un alimento sia
sostenibile: deve anche apparire tale, e ispirare sicurezza. Superare queste
resistenze richiede una comunicazione chiara e coerente: servono dati condivisi,
confrontabili, raccontati in modo comprensibile, e un linguaggio capace di
costruire fiducia più che distanza, spiegando come e perché certi ingredienti
vengono recuperati, e quale valore aggiunto porta questa scelta.
Genealogia della circolarità
In ambito agroalimentare, il concetto di economia circolare non è certamente
nuovo. Esistono da millenni pratiche agronomiche e di trasformazione alimentare
orientate alla circolarità, anche a livello domestico: tradizionalmente si è
sempre cercato di riutilizzare tutto, limitando lo spreco di prodotti non più
salubri. Esistono molti esempi, nella storia dell’alimentazione umana, che si
basano su un uso oculato delle risorse e dei cosiddetti prodotti di scarto
alimentare: basti pensare alla ricotta, ottenuta dal siero residuo della
lavorazione del formaggio; ma anche al riuso delle vinacce, cioè le bucce e i
residui solidi dell’uva, che venivano e vengono ancora riutilizzate per produrre
distillati o come combustibile. Si tratta, in tutti i casi, di forme di economia
circolare ante litteram, che tendono a un principio di equilibrio tra ciò che si
produce, si consuma e si restituisce al ciclo naturale.
> Oggi circa la metà della superficie abitabile del pianeta è destinata
> all’agricoltura, e tra il 2000 e il 2022 la produzione di colture primarie è
> più che raddoppiata, generando una quantità crescente di residui e scarti
> lungo la filiera.
Oggi, questo pensiero secolare riemerge nel panorama della bioeconomia, portando
con sé l’urgenza della scarsità di risorse in un mondo di oltre otto miliardi di
persone, e segnalandoci che ciò che chiamiamo “scarto” è spesso una miniera di
composti bioattivi che la scienza ha imparato a estrarre, stabilizzare e
trasformare, per incorporarli in prodotti con maggiori benefici per la salute.
Da secoli, il modello economico dominante si fonda sul principio del
take-make-dispose, traducibile in italiano come preleva, produci, consuma e
getta. È un paradigma che ha plasmato l’agricoltura e l’industria alimentare, e
che oggi mostra tutti i suoi limiti. Con una popolazione mondiale destinata a
superare i nove miliardi di persone entro il 2050, non è più sostenibile
continuare a utilizzare risorse naturali come se fossero infinite. Oggi circa la
metà della superficie abitabile del pianeta è destinata all’agricoltura, per un
totale di 48 milioni di chilometri quadrati di suolo, e tra il 2000 e il 2022 la
produzione di colture primarie è più che raddoppiata, generando una quantità
crescente di residui e scarti lungo la filiera. L’upcycling alimentare, come
altre tecniche di bioeconomia, nasce dal bisogno di rivedere il rapporto fra
produzione e consumo, in un’era in cui un terzo del cibo prodotto diventa scarto
contribuendo al 58% delle emissioni di metano nell’atmosfera.
> Nel panorama alimentare l’upcycling non è sinonimo di riciclo. Se riciclare
> implica il recupero di materia per usi differenti, l’upcycling la restituisce
> al cibo, reintroducendola nella filiera con un valore nutrizionale o
> funzionale più elevato.
Secondo la definizione della Upcycled Food Association, nata nel 2019 come rete
di poche aziende pionieristiche, con l’obiettivo di dare una definizione
condivisa a ciò che fino ad allora era solo una pratica frammentaria, si
considerano upcycled foods quei prodotti che utilizzano ingredienti altrimenti
destinati a non essere consumati dall’uomo, provenienti da filiere tracciabili e
verificabili, e che generano un impatto ambientale positivo. Nel panorama
alimentare, l’upcycling non è quindi, come si potrebbe pensare, sinonimo di
riciclo. Perché se riciclare implica il recupero di materia per usi differenti,
l’upcycling la restituisce al cibo, reintroducendola nella filiera con un valore
nutrizionale o funzionale più elevato. Proviamo quindi a capire come funziona un
ciclo di processo completo.
Come funziona un ciclo completo
Valorizzare uno scarto, in ambito agroalimentare, significa prima di tutto
conoscerlo: analizzarne la composizione nutrizionale per capire quali componenti
possano essere recuperati e riutilizzati. Da qui parte un processo che unisce
ricerca scientifica, tecnologie sostenibili e controllo della qualità.
L’estrazione dei componenti utili avviene oggi attraverso tecniche che si stanno
muovendo verso un sempre minore impatto ambientale, come l’uso di solventi green
o processi biotecnologici basati su enzimi e fermentazioni controllate. È così
che, per citare uno dei tanti casi di ricerca italiani, residui oggi poco
sfruttati, come quelli della coltivazione delle giovani piantine di ortaggi
(microgreen) raccolte pochi giorni dopo la germinazione, vengono trasformati in
ingredienti funzionali per alimenti come pane o yogurt, o in molecole bioattive
per nuovi prodotti.
> L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi
> globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo
> e rallentare il cambiamento climatico.
Una delle sfide maggiori è stata negli anni di rendere sempre più sostenibili le
tecniche di estrazione. Ad esempio, il settore sa bene che la produzione dei
derivati industriali del pomodoro genera elevate quantità di scarti – quali
bucce, semi e residui di polpa – che rappresentano circa il 2-5% della materia
prima. Tuttavia, per ottenere questi composti si utilizzano ancora processi che
fanno uso di sostanze chimiche non propriamente sostenibili. Per cui, al fine di
ridurre l’impatto, vengono impiegate diverse tecniche di estrazione alternative
e con minori ricadute ambientali. Tra queste, è stato valutato l’utilizzo di
anidride carbonica (CO2) per il recupero degli scarti di pomodoro. Gli estratti
ottenuti da bucce, semi e cascami interi sono stati analizzati per valutare il
quantitativo di carotenoidi. I risultati hanno evidenziato che gli estratti
ottenuti mediante l’utilizzo della CO2 avevano un elevato potere antiossidante,
con rese elevate.
Le buone ragioni dell’upcycling
L’upcycling può essere un valido alleato nel raggiungimento degli obiettivi
globali di sostenibilità, come ridurre le disuguaglianze nell’accesso al cibo e
rallentare il cambiamento climatico. Questi sistemi possono inoltre avere un
bilancio di carbonio negativo: assorbono più CO₂ di quanta ne emettano,
soprattutto quando le operazioni si basano su fonti rinnovabili e filiere
locali.
Da questo punto di vista, la scienza dell’upcycling si sta ben radicando: le
ricerche sono solide e le tecnologie sempre più affidabili. I metodi di
estrazione sostenibile (ultrasuoni, campi elettrici pulsati, anidride carbonica
supercritica), ad esempio, permettono già da tempo di recuperare da vinacce,
bucce o crusche sostanze di grande valore biologico, tra cui fibre, polifenoli e
antiossidanti. Parliamo di procedure che sono arrivate a garantire rendimenti
elevati e un’efficienza energetica competitiva.
> Uno studio condotto dall’Università di Pisa ha dimostrato che un estratto
> ottenuto dai residui del melograno possiede effetti cardiovascolari benefici,
> paragonabili a quelli di un farmaco antipertensivo.
Anche i cosiddetti bioprocessi stanno dimostrando che la fermentazione
selezionata (ad esempio con lieviti, batteri lattici, funghi) aumenta la
biodisponibilità di minerali e vitamine e migliora la digeribilità delle
proteine. Le sperimentazioni condotte in Italia lungo le filiere del vino e del
riso ci dicono che la sinergia tra agricoltura, industria e ricerca può
tracciare percorsi di innovazione sia dal punto di vista tecnico, sia da quello
economico e della sostenibilità ambientale. Inoltre sono sempre più documentati
gli effetti benefici sulla salute. Uno studio condotto dall’Università di Pisa
ha dimostrato che un estratto ottenuto dai residui del melograno possiede
effetti cardiovascolari paragonabili a quelli di un farmaco antipertensivo.
Il panorama dell’upcycling italiano
Una recente ricerca pubblicata sul Journal of Environmental Chemical Engineering
mostra come l’Italia disponga già di un sistema articolato di pratiche e
tecnologie per trasformare scarti agricoli e alimentari in risorse di valore, da
compost e biogas fino a bioplastiche e biocarburanti. Accanto ai processi
industriali più consolidati, come il compostaggio e la digestione anaerobica,
stanno emergendo filiere innovative basate su pirolisi, gassificazione o
fermentazioni biologiche, spesso sviluppate in centri di ricerca del centro e
del sud Italia. Queste nuove soluzioni, ancora in fase pilota, promettono di
ridurre sprechi, emissioni e dipendenza da fonti fossili, ma richiedono molti
investimenti, coordinamento tra territori e un quadro normativo capace di
favorirne la diffusione.
> La transizione alimentare non è solo una questione di tecnologie o ricette
> sostenibili: è, prima di tutto, una questione di fiducia.
Insomma: la tecnologia funziona, ed è a ridotto impatto ambientale, ma il
passaggio a una scala più ampia rimane una sfida per niente scontata. Occorre
garantire flussi continui, tenere sotto controllo le spese energetiche e
integrare in modo coerente tutta la filiera. Per quanto l’upcycling sia pronto a
decollare, senza un’infrastruttura adeguata non potrà crescere.
Fiducia, neofobia e linguaggio
La transizione alimentare non è solo una questione di tecnologie o ricette
sostenibili: è, prima di tutto, una questione di fiducia. Quando si parla di
cibi “rigenerati” le difficoltà non stanno tanto nei costi o nelle norme, ma
nella percezione. Lo mostra chiaramente un’analisi internazionale pubblicata nel
2024 sulla rivista Food Quality and Preference: a frenare l’upcycling alimentare
non sono i regolamenti, ma le persone. O meglio, alcune paure radicate, come la
neofobia alimentare, cioè la diffidenza verso i cibi nuovi o poco familiari, e
la tecnofobia, la paura che dietro certi processi si nascondano manipolazioni
poco naturali.
Eppure, l’interesse c’è. Più di un consumatore su due, soprattutto tra i più
giovani, è curioso di assaggiare prodotti upcycled. Ma la curiosità si traduce
in acquisto solo se il racconto è convincente. Funzionano le etichette chiare, i
dati trasparenti, un linguaggio diretto che spiega come e perché certi
ingredienti vengano recuperati. Al contrario, quando la comunicazione è ambigua
o troppo moralistica, scatta il sospetto.
> Quando il valore degli scarti viene spiegato bene, la gente non lo respinge:
> lo riconosce come una forma di intelligenza collettiva, un modo concreto e
> contemporaneo di pensare al futuro del cibo.
Non è lo “scarto” a spaventare, ma il modo in cui se ne parla. Le persone
reagiscono più all’ambiguità che all’origine del prodotto. Ciò che convince
davvero è la coerenza: sapere da dove arriva il cibo, come è stato trattato,
perché è sicuro. Serve un’esperienza sensoriale credibile e la sensazione che
dietro ci sia un progetto autentico, non una trovata di marketing. E qui entra
in gioco il linguaggio. Raccontare il valore del recupero in modo sobrio, legato
alla concretezza ambientale e alla tradizione del “non sprecare”, colpisce più
di qualsiasi slogan sulla virtù o sul senso di colpa. Quando il valore degli
scarti viene spiegato bene, la gente non lo respinge: lo riconosce come una
forma di intelligenza collettiva, un modo concreto e contemporaneo di pensare al
futuro del cibo.
Il discorso politico
Anche la dimensione politica e il dibattito d’opinione contribuiscono a
modellare le percezioni dei consumatori. Nel contesto italiano, l’innovazione
alimentare è oggi filtrata attraverso una lente marcatamente identitaria. Si
tende a privilegiare il valore simbolico del “cibo vero” e della filiera
nazionale, e si è cauti se non avversi alle forme di innovazione percepite come
“non tradizionali”, dai novel food (cioè alimenti o ingredienti nuovi per il
mercato europeo, non consumati in modo significativo prima del 1997), alla carne
coltivata, fino all’upcycling. Pur senza opposizione esplicita, il rischio è che
i cibi rigenerati vengano relegati a soluzioni tecnologiche estranee alla
cultura del made in Italy, quando in realtà, come abbiamo visto, rappresentano
una continuità con la tradizione del riuso e della frugalità tipica delle
culture locali. Il dibattito attuale riflette ancora una tensione ideologica e
irrisolta tra la necessità di innovare e la volontà di preservare, più che una
reale integrazione tra le due prospettive.
> Il rischio è che i cibi rigenerati vengano relegati a soluzioni tecnologiche
> estranee alla cultura del made in Italy, quando in realtà rappresentano una
> continuità con la tradizione del riuso e della frugalità tipica delle culture
> locali.
Nel complesso, la traiettoria politica e culturale attuale mostra un
rallentamento della spinta trasformativa: la transizione agroalimentare non è
ferma, ma procede in modo più frammentato e difensivo. Soprattutto dopo le
elezioni europee del 2019, quando l’agenda del Green deal, il patto verde che
mira alla neutralità climatica entro il 2050, ha subito un processo di revisione
per cui la Commissione ha spostato l’accento dalla spinta ambientale alla
semplificazione normativa e alla competitività delle imprese agricole,
introducendo margini di flessibilità che rallentano le ambizioni iniziali.
Anche nel dibattito sugli organismi geneticamente modificati e sulle nuove
tecniche genomiche, come l’editing con CRISPR-Cas9 o il prime editing, sono
emersi chiari segnali di ambivalenza. Mentre la Commissione e il Consiglio
europeo hanno aperto, nel 2025, a una regolamentazione più flessibile per le New
genomic techniques (NGT), una parte dell’opinione pubblica e del mondo politico
continua a guardare con sospetto a ogni intervento percepito come “artificiale”.
Cosa dice (e non dice) la legge
Sul piano regolatorio la situazione è ancora più complessa. Per gli alimenti
upcycled non esiste oggi una categoria giuridica specifica né a livello europeo
né nazionale: non c’è una norma che li definisca esplicitamente, né un percorso
autorizzativo dedicato. Questo significa che tali prodotti rientrano nel
perimetro della legislazione alimentare generale (sicurezza, tracciabilità,
etichettatura, igiene) e, quando necessario, nelle regole sui novel food, se gli
ingredienti derivati dal recupero non hanno un uso alimentare documentato prima
del 1997. In altre parole, l’upcycling vive in un terreno di normativa
implicita: tutto ciò che non è vietato è possibile, purché sia sicuro e conforme
ai requisiti esistenti.
> Nei laboratori italiani stanno prendendo forma tecnologie capaci di cambiare
> il destino degli scarti agroalimentari: dalla pirolisi che “cuoce” residui
> agricoli, alle larve di mosca che trasformano rifiuti organici in proteine e
> fertilizzanti.
Parallelamente, però, agiscono cornici concettuali che, pur non avendo valore
giuridico, influenzano la percezione pubblica e le strategie industriali. È il
caso del sistema NOVA, una classificazione sviluppata in ambito accademico per
studiare il rapporto tra grado di processazione e salute, sempre più citata nel
dibattito pubblico. Secondo questo schema molti prodotti upcycled possono essere
assimilati ai cibi ultraprocessati non per la loro qualità nutrizionale o
ambientale, ma per la natura dei processi utilizzati.
Oltre la tecnologia
L’upcycling, più che di nuove tecnologie, ha bisogno di infrastrutture di
conoscenza: osservatori, banche dati, criteri comuni di rendicontazione e
soprattutto informazioni chiare. È qui che si gioca la partita tra
sperimentazione e sistema. L’innovazione, fuori dalle retoriche soluzioniste, è
un processo collettivo che coinvolge saperi, politiche e responsabilità diffuse.
È la capacità di costruire connessioni stabili tra ricerca, impresa e
istituzioni, di trasformare la sperimentazione in infrastruttura e la tecnologia
in cultura.
E in effetti l’innovazione circolare del cibo procede. Nei laboratori e nei
distretti sperimentali italiani stanno prendendo forma tecnologie capaci di
cambiare il destino degli scarti agroalimentari: la pirolisi, che “cuoce”
residui agricoli per ottenere biochar, una sorta di carbone vegetale utile a
restituire carbonio e fertilità ai suoli; le larve della mosca soldato nera, che
trasformano rifiuti organici in proteine e fertilizzanti; e poi ancora i
bioprocessi microbici, le fermentazioni controllate, le estrazioni con CO₂
supercritica. Tutto questo disegna una nuova idea di produzione più circolare e
responsabile.
Ma la transizione non può poggiare solo sull’efficienza tecnica. Ha bisogno di
una strategia condivisa, sostenuta da politiche industriali coerenti, incentivi
mirati e norme capaci di evolvere con l’innovazione, e soprattutto di una
relazione di fiducia con i consumatori. E per costruire questa fiducia serve un
cambio di prospettiva culturale. Vale per l’upcycling come per tutta la
transizione ecologica: senza un nuovo modo di pensare il valore delle risorse,
anche le soluzioni più avanzate rischiano di non uscire dai cassetti dei
laboratori.
L'articolo Non si butta via niente proviene da Il Tascabile.
U n rivolo di sangue sgorga dal muso di una capra. È distesa su un fianco, sul
terreno umido a tratti tappezzato di muschio e ricoperto da una pioggia di
frammenti di legno, metallo e vetro. Un occhio aperto, lo sguardo nel vuoto, la
pelliccia sporca e la pelle squarciata. Poco più lontano è visibile un altro
esemplare, perso tra i detriti, anche lui privo di vita. Intorno a loro c’è neve
e distruzione: finestre rotte, tetti divelti da cui spuntano murature decorate e
totem colorati. Il Feldman Ecopark, uno zoo alla periferia di Charkiv, in
Ucraina, il 2 marzo 2025 è stato colpito durante l’attacco russo di droni
Shahed, armi kamikaze a lungo raggio. I due ungulati uccisi, tra cui una femmina
gravida, erano stati precedentemente salvati da una zona di combattimento e
portati nel parco, con la speranza che potessero sopravvivere.
Gli animali sono spesso considerati vittime di serie B della guerra, che la
società ci insegna a far passare in secondo piano rispetto al dramma umano,
sebbene sopportino una violenza dirompente, spaventosa e per loro
incomprensibile. I conflitti armati possono esasperare l’ambiguità che
caratterizza il nostro rapporto con gli altri animali. Sono una lente impietosa
sugli abissi della nostra morale.
Il massacro di Londra e i gatti di Gaza
Dai primi mesi del conflitto russo-ucraino, i media hanno diffuso immagini di
profughi costretti ad abbandonare casa e affetti. Alcuni sono accompagnati dagli
animali con cui, fino a quel momento, avevano condiviso la propria vita, allo
stesso tempo simbolo e incarnazione di una dimensione familiare. Quelle mostrate
nei telegiornali e sulle piattaforme social sono rappresentazioni accoglienti,
che suscitano empatia e fanno quasi dimenticare il prezzo da sempre pagato dagli
animali da compagnia in zone di guerra, che invece, spesso, sono considerati
oggetti da sacrificare o legami da rompere per disumanizzare il nemico.
> Gli animali sono spesso considerati vittime di serie B della guerra, che la
> società ci insegna a far passare in secondo piano rispetto al dramma umano,
> sebbene sopportino una violenza dirompente, spaventosa e per loro
> incomprensibile.
Era il 3 settembre 1939 quando la BBC annunciò che la Gran Bretagna aveva
dichiarato guerra alla Germania. Siamo agli albori della Seconda guerra
mondiale. Alla cittadinanza venne chiesto di prepararsi ai raid aerei e una
precauzione su tutte probabilmente raggelò il sangue degli inglesi: il governo
li sollecitò a portare i propri animali domestici nelle campagne e, nel caso non
ci fossero stati vicini disponibili a occuparsi di loro, a sopprimerli con
l’aiuto di un veterinario. Senza curarsi dell’opposizione di alcuni gruppi di
protezione animale, circa 400.000 tra gatti, cani, uccelli e conigli vennero
eliminati, come racconta la storica Hilda Kean nel suo libro The Great Cat and
Dog Massacre (2017). Ci fu chi obbedì forse con pochi scrupoli, chi soppresse i
propri compagni non umani per risparmiare loro la sofferenza dei bombardamenti,
chi li graziò e, in qualche modo, ne riconobbe l’individualità e una forma di
agentività, condividendo con loro il cibo, gli spazi, la paura e il dolore.
Quest’ultimo caso ci porta a Gaza, ai giorni nostri. Le immagini che ci sono
giunte mostrano gatti feriti e traumatizzati dallo scoppio delle bombe, dalla
perdita di un rifugio, dalla fame e dalla sete, ma anche salvati da medici e
veterinari, aiutati e accolti dai palestinesi o, ancora, con le loro famiglie
umane mentre vivono insieme piccoli momenti di spensieratezza. Neha Vora,
docente di antropologia nel Dipartimento di Studi internazionali dell’American
University of Sharjah negli Emirati Arabi Uniti ha commentato così queste
storie:
> Quello che i gatti di Gaza ci insegnano è che il trauma della Palestina è un
> trauma multispecie. Non ci insegnano che anche i palestinesi sono umani,
> poiché questa è un’affermazione che continua a definire l’umano contro
> qualcosa che non è, qualcosa che sarà sempre escluso, abietto e quindi
> eliminabile. Credo che i palestinesi e i loro gatti siano così coinvolgenti
> per molti di noi perché sfidano le visioni liberali dell’umanità e le
> smascherano come modi coloniali di definire il mondo, la soggettività e le
> fantasie di libertà. L’“Umanità” non ci condurrà mai a una giustizia e pace
> universali.
Umanità. È una parola che apparentemente si collega allo stesso universo
semantico della compassione e della pietà, ma che in realtà si nutre di una
visione gerarchica del mondo naturale, in cui l’animale è inferiore, e animale
diventa o deve diventare chiunque incarni il nemico da combattere. Una
prospettiva che, in parte e non a caso, ritroviamo nella struttura e nella
gestione degli zoo, in cui le sbarre o altre barriere separano gli esseri umani
dalle altre specie esposte e nei quali siamo sempre noi a poter decidere delle
loro esistenze secondo le nostre necessità
Un’ingannevole arca di Noè
Nel volume World War Zoos. Humans and Other Animals in the Deadliest Conflict of
the Modern Age (2025), lo storico John M. Kinder ricostruisce la vita degli zoo
dal periodo della Grande depressione alla Seconda guerra mondiale, fino ai primi
anni della guerra fredda. Kinder illustra come la visione gerarchica degli
esseri viventi, e in particolare la disumanizzazione di determinati gruppi,
fosse un aspetto centrale dell’ideologia nazista, evidente nel modo in cui
venivano trattati sia gli esseri umani sia gli animali.
> Le metafore legate agli animali sono servite e servono ancora oggi a
> giustificare i delitti commessi e a comprendere e articolare azioni aberranti.
Un esempio emblematico è quello del campo di concentramento di Buchenwald e del
suo giardino zoologico. Il progetto, sostenuto sin dall’inizio da Karl-Otto
Koch, a capo del campo dal 1937 al 1941, era pensato come luogo ricreativo ed
edificante per le SS e le loro famiglie e come una fonte di umiliazione e
tormento per i prigionieri. Lo zoo serviva, infatti, a ricordare loro la
presunta inferiorità rispetto agli animali in gabbia: gli umani reclusi erano
spogliati della dignità, resi sacrificabili per qualsiasi contingenza e
costretti persino a finanziare la struttura con “contributi volontari”. Gli
animali di Buchenwald ricevevano un’alimentazione migliore dei prigionieri,
tanto che molti di loro cercavano di lavorare nello zoo per ottenere una razione
extra. Kinder spiega:
> Il legame retorico tra animali ed Ebrei, l’obiettivo principale della
> Soluzione finale di Hitler, giocò un ruolo importante nel legittimare
> l’Olocausto agli occhi dei suoi esecutori. Esisteva una lunga storia di
> equiparazione degli Ebrei ad animali (maiali, cani) e a malattie, amplificata
> dai propagandisti nazisti.
Le metafore legate agli animali sono servite e servono ancora oggi a
giustificare i delitti commessi e a comprendere e articolare azioni aberranti.
Per descrivere l’uccisione da parte di privati cittadini di civili indifesi
nell’assedio di Sarajevo, durante la guerra in Bosnia ed Erzegovina degli anni
Novanta, si usano termini come “attività venatoria”, “cacciatori”, “prede” e
“safari”. Le notizie parlano di gruppi di cecchini/cacciatori che spendevano
cifre nell’ordine di grandezza di decine di migliaia di euro per sparare a
persone indifese, trasformate in target classificati in base a un tariffario,
esattamente come accade nei safari di caccia in Africa. Se nel vecchio
continente gli obiettivi più costosi sono specie iconiche e minacciate
dall’estinzione, come leoni, elefanti e rinoceronti, nei Balcani sembra che
bambine e bambini fossero in cima al listino. Non più vite, solo trofei da
collezionare.
Allo stesso modo, come evidenziato da Kinder nel suo libro, durante il secondo
conflitto mondiale e anche in seguito, gli zoo offrirono alle persone metafore
per aiutarle a comprendere le esperienze di prigionia, impotenza e degradazione.
In quegli anni le gabbie divennero teatro di orrore, dolore e ideologia. I
destini di gran parte degli esemplari rinchiusi negli zoo furono impietosi.
Alcuni riuscirono a esser trasferiti in luoghi più protetti, mentre molte delle
specie più pericolose, quelle carnivore o velenose, furono uccise per evitare
che costituissero un’ulteriore minaccia in caso di fuga dopo un bombardamento.
La stessa sorte toccò agli animali più costosi da mantenere, tra cui quelli
marini. Molti altri rimasero intrappolati, senza la possibilità di mettersi in
salvo: morirono di fame e di sete tra atroci sofferenze, subirono le esplosioni
riportando ferite, orribili mutilazioni e danni psicologici irreparabili o
divennero oggetto di saccheggio e di improvvisate battute di caccia. Accadde
proprio questo nel 1939, durante l’invasione della Polonia da parte
dell’esercito nazista. Il direttore dello zoo di Berlino, Lutz Heck, dopo aver
messo da parte gli esemplari più pregiati dello zoo di Varsavia, permise ad
alcune SS di usare gli animali ancora in gabbia come bersagli per la notte di
Capodanno.
> Un tempo i giardini zoologici erano perlopiù luoghi di intrattenimento, e una
> dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni
> esemplari provenivano. Oggi gli obiettivi dichiarati sono l’educazione, la
> ricerca e la conservazione.
Ancora oggi gli animali degli zoo sono costretti a spostarsi sotto i
bombardamenti, le loro vite vengono distrutte dalle esplosioni, dalla fame e
dalla sete, o diventano cibo per soldati. Nella prima parte del Ventesimo
secolo, i giardini zoologici erano per lo più luoghi di intrattenimento e una
dimostrazione del potere degli Stati sulle proprie colonie, da cui alcuni
esemplari provenivano. Attualmente i tre principali obiettivi di queste
istituzioni sono l’educazione, la ricerca e la conservazione. Quest’ultimo scopo
prevede la tutela di specie a rischio di estinzione attraverso progetti in situ,
in cui gli esemplari sono protetti nei loro habitat, e attività ex situ, che
prevedono la detenzione di individui in cattività per il mantenimento di
popolazioni di animali che potrebbero scomparire in natura. Gli zoo sono,
quindi, una sorta di arca di Noè la cui efficacia, secondo Kinder, è dubbia,
soprattutto in tempi di guerra:
> Se gli zoo vogliono sopravvivere ai conflitti di questo secolo, devono
> abbandonare la metafora dell’arca. Di fronte alla minaccia di catastrofiche
> perturbazioni climatiche, il mondo non ha bisogno di una flotta di scialuppe
> di salvataggio progettate per aiutare specie selezionate ad attraversare
> quaranta giorni e quaranta notti metaforiche di tumulto. Piuttosto, abbiamo
> bisogno di una strategia per sopravvivere a un clima alterato a tempo
> indefinito. Come minimo, dobbiamo porci domande difficili sul fatto che i
> vantaggi degli zoo superino i loro evidenti svantaggi, incluso il disagio
> fisico e mentale sopportato dalle specie in cattività.
La promessa di salvezza degli zoo sembra ancora più debole nelle zone di
conflitto, dove ai danni apportati a queste strutture e ai loro occupanti si
sommano ingenti disastri ambientali.
I pericoli per la fauna selvatica e il reato di ecocidio
Le lotte armate hanno spesso luogo in ecosistemi fragili e hotspot di
biodiversità, producendo conseguenze devastanti su molte specie di animali
selvatici. Nella Repubblica Democratica del Congo, anni di guerra hanno ridotto
significativamente la popolazione di ippopotami: dai circa 30.000 esemplari,
presenti nel 1974, si è passati a meno di 1000 verso la fine della guerra civile
congolese, nel 2005. Gli esemplari sono poi aumentati fino a 2500 nel 2018, per
poi essere nuovamente minacciati dai gruppi di ribelli, che hanno iniziato a
cacciarli di frodo per venderne la carne e finanziare le loro attività. A oggi
la popolazione di questi mammiferi si attesta intorno ai 1200 esemplari, sui
quali incombono nuovi pericoli, come l’avvelenamento da antrace.
In Mozambico la guerra civile, combattuta tra il 1977 e il 1992, ha portato
all’uccisione di circa il 90% degli elefanti, le cui zanne in avorio erano
vendute per sovvenzionare i combattenti. La caccia intensa avrebbe addirittura
favorito la mutazione genetica associata alla mancata formazione delle zanne
nelle femmine. In Iraq, nel 2016, l’ISIL (Islamic State in Iraq and the Levant)
ha attaccato una raffineria di petrolio. Poco meno di venti pozzi esplosi hanno
causato l’innalzamento di una nube tossica e una massiccia fuoriuscita di
petrolio. Il risultato è stato la contaminazione di suolo e acque, un ostacolo
concreto alla sopravvivenza della vicina cittadina di Qayarrah e un gravissimo
danno per la fauna della regione. Le invasioni militari possono persino portare
all’introduzione volontaria o accidentale di specie aliene, in grado di
esercitare impatti negativi sugli ecosistemi delle aree conquistate e sui loro
abitanti.
Oggi sappiamo bene quanto queste azioni possano produrre danni irreparabili
all’ambiente, con un effetto domino che potrebbe estendersi globalmente, eppure
non abbiamo a disposizione strumenti abbastanza efficaci per arginarli. Lo
Statuto di Roma della Corte penale internazionale, nell’articolo 8 (2)(b)(iv)
sui crimini di guerra, prevede che sia considerato reato lanciare attacchi
deliberati nella consapevolezza di produrre “danni diffusi, duraturi e gravi
all’ambiente naturale che siano manifestamente eccessivi rispetto all’insieme
dei concreti e diretti vantaggi militari previsti”. Una norma eccessivamente
generica, una lacuna giuridica che si sta cercando di colmare da decenni
spingendo per il riconoscimento del reato di ecocidio.
> Oggi sappiamo quanto le guerre possano produrre danni irreparabili
> all’ambiente, con effetti di portata globale, eppure non abbiamo a
> disposizione strumenti efficaci per arginarli. Il riconoscimento del reato di
> ecocidio è un passo importante in questa direzione.
Il termine è stato utilizzato per la prima volta dal biologo Arthur Galston,
negli anni Settanta, per descrivere la deforestazione su larga scala causata
dall’uso dell’Agent Orange da parte degli Stati Uniti d’America durante la
guerra del Vietnam. Negli anni Duemila il concetto è stato riproposto
dall’avvocata Polly Higgins e infine, nel 2021, è stata presentata una
definizione legale alla Corte penale internazionale, per cui “‘ecocidio’
significa atti illegali o arbitrari commessi nella consapevolezza di una
sostanziale probabilità di causare un danno grave e diffuso o duraturo
all’ambiente con tali atti”.
Sono crimini non riconosciuti che continuano a essere perpetrati senza la
certezza di un processo e di un’eventuale condanna dei colpevoli: alcuni esempi
recenti sono la distruzione della copertura arborea e dei terreni agricoli di
Gaza, con fattorie e uliveti abbattuti, suolo, falde acquifere, mare e aria
inquinati, e l’impatto sugli ecosistemi e la biodiversità del conflitto in
Ucraina. Gli animali non umani sembrano quasi invisibili in questi scenari,
sebbene la loro esistenza presente e futura venga cancellata attraverso le
uccisioni e la distruzione degli habitat in cui prosperano.
Violenze necessarie: al punto di dissoluzione del Diritto internazionale
umanitario
Non sono solo gli animali da compagnia, quelli degli zoo e la fauna selvatica a
subire gli effetti degli scontri. Gli animali allevati vengono macellati,
rubati, bombardati o lasciati morire di fame. Esistono specie utilizzate
direttamente nei conflitti come mezzi di trasporto, tra i quali ci sono i
cavalli, gli asini, i muli, gli elefanti e i cammelli, mammiferi addestrati a
rilevare esplosivi, quali elefanti, cani e ratti, oppure cetacei preparati per
cercare sottomarini e lasciati esplodere per distruggerli, tra cui i delfini.
Come illustra l’articolo “Animals in War: At the Vanishing Point of
International Humanitarian Law”, pubblicato nel 2022 nell’International Review
of the Red Cross, malgrado la loro vulnerabilità nelle situazioni appena
descritte, gli animali sono ancora ampiamente ignorati dal Diritto
internazionale umanitario (DIU), che rimane prevalentemente antropocentrico.
Essi non godono di uno status legale esplicito, non ne viene riconosciuta la
senzienza, né sono concessi loro diritti, nonostante ci siano alcuni Paesi i cui
ordinamenti giuridici hanno cominciato a considerare la soggettività e la
capacità di provare dolore di questi esseri viventi.
Anne Peters e Jérôme de Hemptinne, autori della pubblicazione, suggeriscono due
strategie principali per affrontare la mancanza di una specifica protezione nel
diritto internazionale umanitario. La prima consisterebbe nell’applicare in modo
più efficace le norme già esistenti, ampliandone l’interpretazione per includere
gli animali nelle categorie protette previste: potrebbero essere assimilati a
combattenti o prigionieri di guerra, a civili, oppure a oggetti. Tale approccio
prevederebbe la rilettura delle disposizioni relative alla difesa dell’ambiente,
del patrimonio culturale e delle aree protette, riconoscendo che gli animali
sono esseri viventi capaci di provare sofferenza e grave disagio (distress).
La seconda strategia contempla l’adozione di un nuovo strumento internazionale
volto a riconoscere specifici diritti agli animali, in particolare il divieto di
utilizzarli come armi. Si tratta di una prospettiva di lungo periodo, ancora
lontana, poiché richiederebbe a molti Stati di superare profonde barriere
concettuali riguardanti la personalità giuridica degli animali non umani e di
accettare eventuali limitazioni nella conduzione dei conflitti armati per
proteggerli. Il tutto in un contesto in cui i precedenti tentativi di varare una
convenzione internazionale sul benessere animale non hanno finora riscontrato
grande successo.
> Malgrado la loro estrema vulnerabilità nei teatri di guerra, gli animali sono
> ancora ampiamente ignorati dal Diritto internazionale umanitario (DIU), che
> rimane prevalentemente antropocentrico.
Però, come il giurista inglese Hersch Lauterpacht ha scritto in passato, il DIU
è “al punto di dissoluzione del diritto internazionale” e gli autori del paper
sostengono che in questo sia simile al diritto animale, con i debiti
cambiamenti, e che la loro intersezione, seppure foriera di estreme difficoltà,
non dovrebbe fermarci dal voler perseguire un’“utopia realistica” per gli
animali a livello mondiale. È possibile partire dall’attuale situazione
internazionale per poi cercare di ampliare quelli che sono considerati i limiti
della praticabilità politica.
Il DIU e il diritto legato al benessere animale sono entrambi corpi normativi
che non vietano la violenza, ma concedono lo spazio a una violenza ritenuta
“necessaria”, di fatto legittimandola. Sebbene, come sottolinea l’articolo,
questa somiglianza dovrebbe facilitare l’estensione del campo di applicazione
del DIU agli animali non umani, certamente fa emergere quella ambiguità che,
anche in condizioni di pace, esiste nei trattamenti che riserviamo loro. La
percepiamo quando accettiamo le condizioni in cui versano negli allevamenti
intensivi oppure la cattività e la scelta di sopprimere alcuni esemplari negli
zoo per calcolo economico, perché spazio e risorse delle strutture sono
limitate, o per esigenze di conservazione, al fine di mantenere l’equilibrio tra
maschi e femmine di una specie o prevenire il rischio di consanguineità. O
ancora, quando acconsentiamo alla sperimentazione animale.
> I conflitti armati rendono ancora più tangibile l’ambiguità che caratterizza
> il nostro rapporto con gli altri animali, anche e soprattutto in tempo di
> pace.
Il confine tra amore, rispetto per la vita degli animali non umani, violenza e
sopravvivenza può farsi eccezionalmente labile. Lo spiega Kinder, sempre
attingendo dall’esperienza del campo di concentramento di Buchenwald, quando
parla del poema satirico Eine Bären-Jagd im KZ Buchenwald (in italiano Una
caccia all’orso nel campo di concentramento di Buchenwald), scritto e illustrato
dal sopravvissuto al campo Kurt Dittmar nel 1946. L’opera ripercorre la breve
vita di Betti, un’orsa allevata nello zoo del campo, dall’arrivo come cucciolo
alla morte per mano di un comandante. L’orsa è inizialmente servita e riverita
dai detenuti per ordine delle SS, si nutre di buon cibo, gode di spazio
all’interno della sua gabbia ed è per questo oggetto di invidia da parte dei
prigionieri. Con il trascorrere del tempo la milizia nazista aggiunge alla
collezione dello zoo altri animali e Betti, stanca della nuova compagnia,
abbatte il recinto elettrico e fugge nella foresta. I detenuti tentano invano di
catturarla, finché il vicecomandante non la uccide e ne riporta indietro il
corpo come un trofeo. L’illustrazione di Dittmar raffigura alcuni prigionieri
sconvolti davanti alla carcassa dell’orsa, consapevoli di condividere il suo
destino di preda braccata. Costretti ad arrostirne le carni per la festa delle
guardie, non ne assaggiano neanche un boccone, ma continuano a sognare: la
libertà, il cibo e la giustizia contro i loro aguzzini. Nonostante sia ispirato
a eventi reali, il poema non è un resoconto storico, ma conserva in sé una
realtà difficile da accettare.
Scrive l’autore di World War Zoos:
> Ciò che otteniamo invece è qualcosa di più interessante: una riflessione sul
> potere e sui limiti dell’empatia. Nel racconto di Dittmar, i prigionieri umani
> di Buchenwald riconoscono che la vita di Betti è sempre appesa a un filo, che
> lei è preziosa fino al momento in cui le SS decidono diversamente. Pure lei è
> una prigioniera, anche se ha pasti migliori e una gabbia più bella. Ma questo
> non significa che non proveranno a rubarle il cibo o a rosicchiare le sue ossa
> spolpate. Nella Buchenwald di Dittmar, i prigionieri possono sia piangere per
> l’uccisione di Betti sia sbavare affamati sul suo cadavere sfrigolante.
L'articolo Animali in guerra proviene da Il Tascabile.
N el suo dialogo intitolato Fedro, attraverso il mito di Theuth e la figura di
Socrate, Platone esprime la sua celebre critica della scrittura. Per il filosofo
greco, la scrittura è un pharmakon, rimedio e veleno al tempo stesso. La
scrittura appare immobile, incapace di adattarsi all’interlocutore come invece
fa il dialogo vivo; priva di autonomia, perché non sa difendere da sé le proprie
tesi; inadeguata ad accrescere la sapienza, poiché offre informazioni senza
generare la memoria e la saggezza che nascono dall’interazione dialettica. È,
infine, un “gioco bellissimo” ma assai distante dalla serietà del processo
dialettico orale che conduce alla conoscenza. Ciononostante, pur non essendo
“vera” filosofia, per Platone la scrittura è uno strumento a essa necessario,
così com’è necessaria per la cosiddetta hypomnesis, ovvero la capacità
richiamare alla mente un’informazione.
Se per il filosofo greco la scrittura rappresentava un ausilio esterno alla
memoria, oggi la psicologia cognitiva e le neuroscienze hanno ampliato quella
intuizione con il concetto di cognitive offloading. Con questa espressione si
indicano tutte le pratiche attraverso cui gli individui delegano a un supporto
esterno parte dei propri processi cognitivi, come ad esempio la funzione di
ricordare informazioni, trasformando strumenti e tecnologie in estensioni delle
proprie capacità mnemoniche. Tra queste si annoverano gesti quotidiani come
segnare una lista della spesa, annotare un compleanno su un calendario o
ricorrere al proverbiale nodo al fazzoletto.
> Per Platone la scrittura è pharmakon, rimedio e veleno al tempo stesso: pur
> non essendo “vera” filosofia è uno strumento che le è necessario, così com’è
> necessaria per la capacità di richiamare alla mente un’informazione.
Negli ultimi dieci anni, allo studio dello “scarico” cognitivo hanno dato un
forte impulso la comparsa e la diffusione della rete, e delle tecnologie
digitali. I dispositivi connessi, infatti, moltiplicano all’infinito le
possibilità di delega della funzione cognitiva del ricordo, ma le loro
pervasività e facilità di utilizzo rischiano di sbilanciare l’equilibrio di
benefici e costi di queste pratiche a favore dei secondi.
I dispositivi connessi ‒ se ne erano già accorti i fondatori del cyberpunk, il
cui lavoro è stato fondamentale per cristallizzare nella nostra cultura
l’immaginario del digitale ‒ funzionano come una vera e propria protesi della
nostra mente, che ne esternalizza una o più funzioni cognitive, tra cui,
appunto, la memoria. In un paper intitolato The benefits and potential costs of
cognitive offloading for retrospective information, Lauren L. Richmond e Ryan G.
Taylor si dedicano a ricostruire una panoramica di alcuni degli studi e degli
esperimenti più significativi nell’ambito del cognitive offloading.
Alla base di questo corpus teorico e sperimentale c’è il fatto che, per compiere
un ampio numero di azioni quotidiane, le persone si affidano a due tipi di
memoria: quella retrospettiva, ovvero la capacità di ricordare informazioni dal
passato, e quella propositiva, ossia la capacità di ricordare azioni da compiere
nel futuro. Per portare a termine compiti che comportano l’uso di tutti e due i
tipi di memoria, possiamo contare sulla nostra capacità di ricordare o delegare
questa funzione a un supporto esterno.
Questo spiega il motivo per cui la maggior parte delle persone intervistate nei
contesti di ricerca esaminati da Richmond e Taylor dichiara di usare tecniche di
cognitive offloading per compensare peggioramenti nelle proprie performance
mnemotecniche. Io stesso, che mi sono vantato a lungo di avere una memoria di
ferro, sono stato costretto, passati i quaranta e diventato genitore per due
volte, a dover ricorrere a promemoria, note e appunti per riuscire a ricordare
impegni e scadenze.
> Con l’espressione cognitive offloading si indicano le pratiche attraverso cui
> gli individui delegano a un supporto esterno la funzione di ricordare
> informazioni, trasformando strumenti e tecnologie in estensioni delle proprie
> capacità mnemoniche.
Età e capacità mnemoniche sono infatti due fattori collegati alla necessità di
eseguire azioni di scarico cognitivo. Superata l’adolescenza, a mano a mano che
ci si inoltra nella vita adulta si è costretti a ricordare un numero di cose più
elevato, compito per cui il cognitive offloading offre indubbi benefici. Uno dei
più evidenti risiede nel fatto che, a differenza di altre mnemotecniche più
specifiche, non ha bisogno di una formazione mirata. Per un adulto con una
percezione del tempo funzionale, usare un’agenda fisica o virtuale è un gesto
intuitivo e immediato, che non richiede ulteriore carico cognitivo.
La facilità d’uso non è l’unico vantaggio. Alcuni degli studi passati in
rassegna nello studio mostrano come l’offloading cognitivo generi benefici per
entrambi i tipi di memoria. Ad esempio, esso permette non soltanto di ricordare
informazioni archiviate in precedenza, ma riesce anche ad attivare il ricordo di
informazioni non archiviate tramite meccanismi di associazione mentale: una
persona che ha segnato sulla propria lista della spesa di acquistare un
barattolo di alici ha più probabilità di ricordarsi di acquistare il burro
rispetto a una persona che non lo ha fatto, anche se il burro non è presente
nella lista. Per quanto banali, questi esempi mostrano quanto le pratiche di
offloading cognitivo siano d’ausilio alla memoria.
Tali benefici, tuttavia, non sono gratuiti ma comportano una serie di costi.
Alcuni studi hanno evidenziato più difficoltà a ricordare le informazioni
“scaricate” quando, in modo improvviso e inaspettato, viene negato loro accesso
alle informazioni archiviate. Se invece il soggetto è consapevole del fatto che
l’accesso può esser negato, le performance mnemoniche si dimostrano più
efficaci. Un altro costo è la possibilità di favorire la formazione di falsi
ricordi. Altri test condotti in laboratorio mostrano come quando le persone sono
forzate a pratiche di scarico cognitivo, risultano meno capaci di individuare
elementi estranei, aggiunti all’archivio delle informazioni a loro insaputa.
> Le pratiche di offloading cognitivo possono essere d’ausilio alla memoria.
> Tali benefici, tuttavia, comportano una serie di costi, ad esempio una maggior
> difficoltà a reperire informazioni quando viene improvvisamente a mancare
> l’accesso all’archivio esterno.
Perciò, così come la scrittura per Platone aveva natura “farmacologica”, e
offriva al tempo stesso rimedio e veleno per la memoria, anche le pratiche di
cognitive offloading comportano costi e benefici. Da questa prospettiva, la
diffusione dell’intelligenza artificiale (IA) sta mettendo in luce come questo
strumento, ubiquo e facilmente accessibile, stia favorendo nuove forme di
scarico cognitivo, e incidendo sul modo in cui le persone si rapportano alle
informazioni, nonché sullo sviluppo del loro pensiero critico.
Disponibili ormai ovunque, alla stregua di un motore di ricerca, le IA
aggiungono all’esperienza utente la capacità di processare e presentare le
informazioni, senza doversi confrontare direttamente con le relative fonti.
Quale impatto esercita questa dinamica sulla capacità di pensiero critico? È la
domanda al centro di uno studio condotto dal ricercatore Michael Gerlich su 666
partecipanti di età e percorsi formativi differenti. Questo studio analizza la
relazione tra uso di strumenti di intelligenza artificiale e capacità di
pensiero critico, mettendo in luce il ruolo mediatore delle pratiche di
offloading cognitivo. Per pensiero critico si intende la capacità di analizzare,
valutare e sintetizzare le informazioni al fine di prendere decisioni ragionate,
incluse le abilità di problem solving e di valutazione critica delle situazioni.
Secondo Gerlich, le caratteristiche delle interfacce basate su IA ‒ dalla
velocità di accesso ai dati alla presentazione semplificata delle risposte ‒
scoraggiano l’impegno nei processi cognitivi più complessi.
> La diffusione dell’intelligenza artificiale sta mettendo in luce come questo
> strumento stia favorendo nuove forme di “scarico” cognitivo, incidendo sul
> modo in cui le persone si rapportano alle informazioni e sviluppano pensiero
> critico.
Studi condotti in ambiti come sanità e finanza mostrano infatti che se da un
lato il supporto automatizzato migliora l’efficienza, dall’altro riduce la
necessità, per questi professionisti, di esercitare analisi critica. Una
dinamica analoga si osserva nella cosiddetta “memoria transattiva”, ossia la
tendenza a ricordare il luogo in cui un’informazione è archiviata o il suo
contenuto, fenomeno già noto come “effetto Google”. Le IA accentuano questo
processo, sollevando ulteriori interrogativi sul possibile declino delle
capacità di ritenzione perché, anche in questo caso, la loro capacità di
sintetizzare le informazioni fa sì che l’utente non debba più impegnarsi in un
confronto con le fonti, ma sviluppa invece la consapevolezza che potrà farle
affiorare in qualsiasi momento, rivolgendole a un’interfaccia che mima una
conversazione umana
Effetti simili riguardano attenzione e concentrazione: da un lato gli strumenti
digitali aiutano a filtrare il rumore informativo, dall’altro favoriscono la
frammentazione e il calo della concentrazione. Emergono inoltre ambivalenze
anche nel problem solving: l’IA può ampliare le possibilità di soluzione ma
rischia di ridurre l’indipendenza cognitiva, amplificare bias nei dataset o
opacizzare i processi decisionali, rendendoli difficilmente interpretabili dagli
utenti. Una condizione, quest’ultima, oggetto di un ampio dibattito anche in
ambito militare, dove lo sviluppo di sistemi automatizzati di comando e
controllo pone dubbi di natura etica, politica e psicologica.
I test effettuati confermano che l’uso intensivo di strumenti basati su IA
favorisce pratiche di cognitive offloading che, pur alleggerendo il carico
cognitivo e liberando risorse mentali, si associano a un declino della capacità
di pensiero critico, in particolare nelle fasce più giovani. Questo declino
viene misurato attraverso la metodologia HCTA (Halpern Critical Thinking
Assessment), un test psicometrico che prende il nome dalla psicologa cognitiva
Diane F. Halpert e misura le abilità di pensiero critico (come valutazione
della probabilità e dell’incertezza, problem solving decisionale, capacità di
trarre conclusioni basate su prove), grazie a un set di domande aperte e a
risposta multipla applicate a uno scenario di vita quotidiana.
> L’uso intensivo di strumenti basati su IA favorisce pratiche di cognitive
> offloading che, pur alleggerendo il carico cognitivo, si associano a un
> declino della capacità di pensiero critico, in particolare nelle fasce più
> giovani.
Anche in questo caso, è piuttosto chiaro come l’applicazione della tecnologia ai
processi cognitivi possa risultare deleteria, inducendo una sorta di pigrizia
difficile da controbilanciare. Le pratiche di scarico cognitivo, infatti,
producono i loro benefici quando attivano la mente delle persone che le
utilizzano. È quello che succede, per esempio, nel metodo Zettelkasten, una
delle tecniche di gestione della conoscenza più conosciute.
Creato dal sociologo tedesco Niklas Luhmann negli anni Cinaquanta del Novecento,
lo Zettelkasten è un metodo di annotazione pensato per facilitare la scrittura
di testi non fiction e rafforzare la memoria delle proprie letture, che prevede
di ridurre il tempo che passa tra la lettura di un testo e la sua elaborazione
scritta, prendendo appunti e note durante la lettura dello stesso. Come spiega
Sonke Ahrens in How to take smart notes, uno dei principali testi di
divulgazione sul metodo Zettelkasten, la scrittura non è un gesto passivo.
Eseguirlo attiva aree del nostro cervello che sono direttamente collegate al
ricordo e alla memoria. Lo scarico cognitivo alla base del suo funzionamento
produce perciò un beneficio proprio perché impegna chi lo esegue sia a
confrontarsi direttamente con il testo che sta leggendo, sia a scrivere durante
l’atto stesso della lettura. Adottare il metodo Zettelkasten significa perciò
introdurre in quest’ultima attività una componente di frizione e di impegno, che
sono la base della sua efficacia.
> Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del
> tempo necessario affinché un’informazione si depositi nella nostra memoria
> fino a diventare un pensiero originale.
A differenza della maggior parte delle interfacce attraverso cui interagiamo con
le tecnologie, in particolare con quelle digitali e di intelligenza artificiale,
il metodo Zettelkasten è fatto per produrre attrito. È proprio tale attrito che
stimola la nostra mente, la attiva e produce benefici sulle nostre capacità
cognitive. Lo Zettelkasten è progettato per far pensare le persone e non il
contrario, come recita il titolo di uno dei testi più famosi sull’usabilità web
e l’interazione uomo-computer.
Perché se ogni processo diventa liscio, privo di frizione, e la tecnologia che
lo rende possibile si fa impalpabile fino a scomparire, quello che corriamo è
proprio il rischio di non dover pensare. Quando chiediamo a un’intelligenza
artificiale di sintetizzare un libro, invece di leggerlo e riassumerlo noi
stessi, quello che stiamo facendo è schivare il corpo a corpo con il testo e la
scrittura che un metodo come lo Zettelkasten prescrive come base per la sua
efficacia. Automatizzare le pratiche di scarico cognitivo significa trasformare
in costi i benefici che esse possono apportare alla nostra capacità di ricordare
e pensare, proprio perché ad andare perduta è la durata, ovvero il tempo
necessario affinché un’informazione si depositi nella nostra memoria fino a
diventare un pensiero originale.
Prendere atto di questa contraddizione significa spostare l’attenzione dalla
dimensione neurologica a quella culturale e sociale. Perché è vero che invocare
interfacce più “visibili” e capaci di generare attrito nell’esperienza utente, o
elaborare strategie educative mirate, come suggerisce l’autore, sono atti utili
e necessari a riconoscere e gestire l’impatto delle IA sulle nostre menti, ma
senza porsi il problema dell’accesso al capitale culturale necessario per un uso
consapevole e critico delle tecnologie, tali soluzioni rischiano di restare
lettera morta. O, peggio, rischiano di acuire le differenze tra chi ha il
capitale culturale ed economico per permettersi di limitare il proprio l’accesso
alla tecnologia e chi, al contrario, finisce per subire in modo passivo le
scelte delle grandi aziende tecnologiche, che proprio sulla pigrizia sembrano
star costruendo l’immaginario dei loro strumenti di intelligenza artificiale.
> Nel marketing di alcune aziende gli strumenti di IA non sembrano tanto protesi
> capaci di potenziare creatività e pensiero critico, quanto scorciatoie per
> aggirare i compiti più noiosi o ripetitivi che la vita professionale comporta.
Per come vengono presentati nella comunicazione corporate, gli strumenti di
intelligenza artificiale assomigliano meno a delle protesi capaci di potenziare
la creatività o il pensiero critico e più a scorciatoie per aggirare i compiti
più noiosi, ripetitivi o insulsi che la vita professionale comporta. Il video di
presentazione degli strumenti di scrittura “smart” della sedicesima iterazione
dell’iPhone è emblematico del tenore di questo discorso. Warren, l’impiegato
protagonista dello spot, li usa proprio per dare un tono professionale al testo
dell’email con cui scarica sul suo superiore un compito che dovrebbe eseguire
lui. Quella che, all’apparenza, potrebbe sembrare una celebrazione dell’astuzia
working class è in realtà una visione in cui l’automazione non ha liberato
l’uomo dalle catene del lavoro, ma gli ha solo fornito degli strumenti per non
essere costretto a pensare prima di agire.
Ancora una volta, l’uso delle tecnologie si rivela non soltanto una questione
politica, ma anche ‒ e soprattutto ‒ una questione sociale e di classe. Una
questione che andrebbe rimessa al centro del dibattito sull’intelligenza
artificiale, superando la dicotomia, tutto sommato sterile, tra apocalittici e
integrati che ancora sembra dominarlo.
L'articolo Ricordare per procura proviene da Il Tascabile.
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo
che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational
Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo,
redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si
manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la
motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato
Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in
un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente
una parodia, fu preso sul serio da numerosi media, che lo diffusero come una
scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu
costretto a svelare lo scherzo poche ore dopo la pubblicazione.
Il caso del MoDeD divenne un esempio emblematico di come la definizione di
malattia possa essere facilmente ampliata o manipolata, trasformando aspetti
della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e
anticipava molte delle discussioni successive sulla costruzione mediatica e
sociale della malattia. Possiamo spiegare il successo della notizia con la
tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di
salute ciò che prima consideravamo semplici varianti naturali della
configurazione corporea. Questo processo è noto come medicalizzazione, ed è
particolarmente evidente nell’ambito della medicina estetica.
La patologizzazione della bruttezza
Una piega palpebrale assente, un naso prominente, denti non perfettamente
allineati, una pelle dalla texture irregolare. Nella medicina contemporanea
molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma
radicale: da semplici variazioni non desiderabili, da accettare passivamente,
sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non
solo perché si applicano competenze e strumenti propri di questa disciplina, ma
anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la
patologia è rappresentata da compromissioni funzionali, in altri casi essa
coincide con il disagio psicologico e sociale che, anche in assenza di
disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni
estetici dominanti. In queste circostanze si interviene dunque sul corpo per
guarire una “malattia dell’anima”.
> Per medicalizzazione si intende la tendenza a trattare come problemi medici
> alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti
> normali.
Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James
Aquino identifica come patologizzazione della bruttezza, si nutre di un
meccanismo duplice. Da un lato, la medicina si è appropriata di una
sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle
uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere
percepito simultaneamente come in salute, virtuoso, giovane e attraente; al
contrario, caratteristiche che deviano dagli standard vengono lette come
limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono
strategie attive per inquadrare la chirurgia estetica non come pratica
migliorativa, ma come intervento terapeutico.
In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui
la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni
della malattia.
Malattia come danno, disfunzione e deviazione
La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici
giustificavano le correzioni dei tratti corporei che causavano disagio
psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si
è spostata sul modello della disabilità, considerando la bruttezza come uno
svantaggio invalidante che può limitare le opportunità socioeconomiche. In
entrambi i casi emerge una concezione normativista della malattia, che fonda il
concetto di salute sul vissuto personale e su valori socialmente condivisi.
Questa visione si intreccia con i meccanismi sociali di riconoscimento e
valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita
vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce
qualità positive agli individui fisicamente attraenti. In virtù di questi
pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile
in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali
e professionali tangibili, tra cui migliori risultati scolastici, lavori di
status più elevato e maggiori probabilità di successo nelle relazioni.
> Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi
> economici, sociali e professionali tangibili, tra cui migliori risultati
> scolastici, lavori di status più elevato e maggiori probabilità di successo
> nelle relazioni.
La seconda accezione si basa sul concetto di disfunzione: la bruttezza
ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale,
entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma
naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto
ai normali processi biologici di un organismo, indipendentemente da percezioni
soggettive o valori culturali.
La terza accezione si basa sul concetto di deviazione: la caratterizzazione
patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a
una norma statistica o un canone numerico. Un esempio è il rapporto aureo,
utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una
caratteristica si colloca oltre i limiti di questa norma, si parla di
“deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione
biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma
statistica è spesso uno strumento per naturalizzare standard culturali,
mascherandoli da criteri biologici universali.
La crescente patologizzazione della bruttezza mette in crisi la distinzione
tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i
criteri di legittimità dell’intervento chirurgico: ciò che un tempo era
giustificato solo dal ripristino di una funzione corporea mancante o danneggiata
oggi può essere autorizzato anche dalla richiesta di colmare un presunto
svantaggio biologico o sociale.
Quello che sta accadendo con la medicina estetica è considerato da molti un
esempio evidente di disease mongering, concetto spesso reso in italiano come
“mercificazione della malattia”: si espande il dominio del patologico e quindi
il raggio d’azione della medicina, spesso con l’obiettivo di allargare il
mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e
ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò
induce nel pubblico una certa percezione di rischio e deficit, aumentando le
possibilità del mercato di identificare target di pazienti-clienti a cui
proporre prodotti sanitari come integratori, test diagnostici, programmi di
benessere e trattamenti.
> Siamo di fronte a un esempio evidente di disease mongering, o mercificazione
> della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti,
> più diventa facile creare a tavolino nuove patologie.
La ridefinizione concettuale dei confini tra salute e malattia non è però
esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la
medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di
incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella
crescente espansione dei codici ICD (International Classification of Diseases),
la Classificazione internazionale delle malattie dell’OMS (Organizzazione
Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli
anni Settanta.
L’osteoporosi e altre zone grigie
Un caso particolarmente dibattuto nella letteratura scientifica è quello
relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica
legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con
l’introduzione di criteri diagnostici basati su soglie di densità minerale
ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha
comportato la classificazione di milioni di donne in menopausa come malate o a
rischio, dal momento che i loro valori si discostavano dalla “norma statistica”,
nonostante il rischio concreto di frattura fosse molto basso nella maggior parte
dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla
necessità di ridurre l’impatto economico-sociale delle fratture sul sistema
sanitario, ha alimentato la commercializzazione di nuovi farmaci.
Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella
promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che
insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da
metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento
in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto
di soluzioni farmacologiche anziché all’adozione di strategie preventive più
semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare
esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni
proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome
dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome
metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche
analoghe, per citare solo qualche esempio.
> Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto
> la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni
> farmacologiche anziché l’adozione di strategie preventive più semplici ed
> efficaci.
Alcuni teorici ritengono che al disease mongering abbiano contribuito i
progressi nel campo della biochimica, in particolare la scoperta di indicatori
biologici (geni, molecole, cellule, parametri come la pressione o la frequenza
cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare
determinate patologie. In un recente contributo pubblicato su Frontiers in
Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica
stia sempre più influenzando le definizioni di malattia, proponendo di
diagnosticare condizioni come l’Alzheimer o il Parkinson in individui
completamente asintomatici, solo sulla base della presenza di biomarcatori nel
sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti
poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra
bisogni reali dei pazienti e interessi commerciali.
La riflessione di Reddy non riguarda solo le malattie neurologiche: in
oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale
circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici
che potrebbero non progredire mai verso una malattia sintomatica. In
psichiatria, test ematici per marker infiammatori legati alla depressione
potrebbero patologizzare risposte emotive normali. Nel caso del diabete,
biomarcatori avanzati per la resistenza insulinica potrebbero classificare
individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi
farmaci.
L’era della subsalute
L’espansione del perimetro della medicina ha profondamente trasformato il
rapporto degli individui con il proprio corpo e la propria salute. Sempre più
spesso, la prevenzione non si limita a promuovere comportamenti sani o a
monitorare situazioni ad alto rischio, ma diventa una strategia di
ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea.
Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale”
impegnato in screening, check-up, test genetici, autovalutazioni e consulti per
scoprire e correggere il più piccolo scostamento dalla normalità.
La promozione della salute, così, non si configura più solo come tutela dal
rischio, ma come dovere di perseguire un ideale di benessere ottimale e
durevole, da certificare e monitorare costantemente attraverso dispositivi,
tecnologie, esami strumentali e consulenze mediche. Il risultato è che
l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni
segnale di inefficienza, vulnerabilità o affaticamento.
> Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su
> ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un
> “paziente potenziale” impegnato in check-up, test e consulti per scoprire e
> correggere il più piccolo scostamento dalla normalità.
È all’interno di questo scenario che ha preso corpo il costrutto di salute
subottimale, concepito come un vero e proprio spazio liminale tra salute piena e
malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma
persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà
di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le
percezioni di disagio psicofisico di una crescente fetta della popolazione,
soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i
criteri clinici, riportano un generale senso di salute incompleta o precaria,
accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng,
studiosa di sociologia della salute all’Università di Sheffield, ha esplorato
l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo
sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di
“sospensione biografica” all’interno delle routine della vita quotidiana.
La subsalute risulta particolarmente appetibile dal punto di vista commerciale,
poiché non si basa su parametri oggettivi e misurabili ma su un vissuto
soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti,
tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è
generalmente concepita come una fase reversibile, a patto di intervenire sullo
stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa
rappresenta una vera e propria “zona di transizione”, dove l’individuo si
configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai
ripari e rivedere le proprie abitudini prima che possano evolvere in malattie
conclamate.
Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza
sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza
malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano
allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e
incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di
risposte sociali, cliniche e commerciali.
Il potere del discorso
Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile
senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità
dei concetti di salute e malattia per costruire legittimità e consenso attorno a
nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni
veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi
istituzionali sono in grado di conferire consistenza scientifica apparente a
concetti privi di un sostegno empirico robusto.
> Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al
> pubblico, a volte vengono costruite, negoziate e legittimate attraverso
> pratiche linguistiche, narrative e mediatiche che possono prescindere dalla
> solidità delle evidenze.
Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato
lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma
non universalmente riconosciuta come disturbo autonomo e spesso descritta come
variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth
Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli
lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio,
basato su articoli e contenuti online, mostra come l’uso di termini tecnici,
sigle, casi-studio concreti, dati numerici e citazioni di esperti dia
l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati,
ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da
MoDeD, fornendo così un dato quantitativo che rende la portata della malattia
più fondata e tangibile.
Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa
ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla
comprensione precedente (“per tutta la vita hai creduto di essere pigro; in
realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere
sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la
medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e
discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi
comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso
pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere
dalla solidità delle evidenze.
Se persino una malattia inventata può risultare verosimile, quali strumenti
abbiamo per distinguere ciò che è fondato scientificamente da una patologia
costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare
la consapevolezza che salute e malattia sono sempre, anche, categorie
discorsive, sociali, politiche e commerciali. Riconoscere questa
multidimensionalità significa smettere di cercare confini immutabili e oggettivi
e interrogarsi invece su chi ha il potere di tracciare quei confini, e a
vantaggio di chi.
L'articolo Il malato immaginato proviene da Il Tascabile.
I l primo aprile 2006 il British Medical Journal (BMJ) pubblicava un articolo
che annunciava la scoperta di una nuova malattia chiamata MoDeD (Motivational
Deficiency Disorder), o disturbo da carenza motivazionale. Secondo l’articolo,
redatto dal fittizio Dr. Leth Argos dell’Università di Newcastle, il disturbo si
manifestava con una pigrizia estrema, arrivando nei casi più gravi a ridurre la
motivazione a respirare. La cura proposta? Un farmaco immaginario chiamato
Indolebant, che avrebbe trasformato un giovane incapace di alzarsi dal divano in
un consulente finanziario attivo a Sydney. L’articolo, pur essendo chiaramente
una parodia, fu preso sul serio da numerosi media, che lo diffusero come una
scoperta scientifica reale. La situazione prese una piega tale che il BMJ fu
costretto a svelare lo scherzo poche ore dopo la pubblicazione.
Il caso del MoDeD divenne un esempio emblematico di come la definizione di
malattia possa essere facilmente ampliata o manipolata, trasformando aspetti
della vita quotidiana in condizioni cliniche da diagnosticare e trattare, e
anticipava molte delle discussioni successive sulla costruzione mediatica e
sociale della malattia. Possiamo spiegare il successo della notizia con la
tendenza, consolidatasi negli ultimi decenni, a interpretare come problemi di
salute ciò che prima consideravamo semplici varianti naturali della
configurazione corporea. Questo processo è noto come medicalizzazione, ed è
particolarmente evidente nell’ambito della medicina estetica.
La patologizzazione della bruttezza
Una piega palpebrale assente, un naso prominente, denti non perfettamente
allineati, una pelle dalla texture irregolare. Nella medicina contemporanea
molte caratteristiche fisiche hanno subito una trasformazione silenziosa ma
radicale: da semplici variazioni non desiderabili, da accettare passivamente,
sono diventate oggetto di attenzione medica. Siamo nel campo della medicina non
solo perché si applicano competenze e strumenti propri di questa disciplina, ma
anche perché spesso c’è una diagnosi di patologia. Se in alcuni casi la
patologia è rappresentata da compromissioni funzionali, in altri casi essa
coincide con il disagio psicologico e sociale che, anche in assenza di
disfunzioni, può scaturire dal senso di inadeguatezza rispetto ai canoni
estetici dominanti. In queste circostanze si interviene dunque sul corpo per
guarire una “malattia dell’anima”.
> Per medicalizzazione si intende la tendenza a trattare come problemi medici
> alcuni aspetti della vita ‒ fisici, psicologici o sociali ‒ un tempo ritenuti
> normali.
Questa metamorfosi culturale, che il filosofo della medicina Yves Saint James
Aquino identifica come patologizzazione della bruttezza, si nutre di un
meccanismo duplice. Da un lato, la medicina si è appropriata di una
sovrapposizione antica, quella tra bello, buono e sano. Un volto con pelle
uniforme, privo di segni visibili di malattia o invecchiamento, tende a essere
percepito simultaneamente come in salute, virtuoso, giovane e attraente; al
contrario, caratteristiche che deviano dagli standard vengono lette come
limitazioni funzionali o segnali di una salute precaria. Dall’altro, agiscono
strategie attive per inquadrare la chirurgia estetica non come pratica
migliorativa, ma come intervento terapeutico.
In particolare, Aquino identifica tre possibili concettualizzazioni tramite cui
la bruttezza viene patologizzata, che fanno riferimento a tre diverse concezioni
della malattia.
Malattia come danno, disfunzione e deviazione
La prima si basa sul concetto di danno. Negli anni Trenta i chirurghi plastici
giustificavano le correzioni dei tratti corporei che causavano disagio
psicologico chiamando in causa il complesso di inferiorità; oggi la retorica si
è spostata sul modello della disabilità, considerando la bruttezza come uno
svantaggio invalidante che può limitare le opportunità socioeconomiche. In
entrambi i casi emerge una concezione normativista della malattia, che fonda il
concetto di salute sul vissuto personale e su valori socialmente condivisi.
Questa visione si intreccia con i meccanismi sociali di riconoscimento e
valorizzazione della bellezza: il benessere soggettivo e le traiettorie di vita
vengono influenzate da bias cognitivi come l’effetto alone, che attribuisce
qualità positive agli individui fisicamente attraenti. In virtù di questi
pregiudizi, essere di bell’aspetto si traduce in un beauty premium (traducibile
in italiano come “premio alla bellezza”) che apporta vantaggi economici, sociali
e professionali tangibili, tra cui migliori risultati scolastici, lavori di
status più elevato e maggiori probabilità di successo nelle relazioni.
> Diversi studi mostrano come un bell’aspetto spesso si traduca in vantaggi
> economici, sociali e professionali tangibili, tra cui migliori risultati
> scolastici, lavori di status più elevato e maggiori probabilità di successo
> nelle relazioni.
La seconda accezione si basa sul concetto di disfunzione: la bruttezza
ostacolerebbe l’attrazione di partner sessuali e l’integrazione sociale,
entrambe necessarie alla riproduzione. Ci troviamo all’interno di un paradigma
naturalista, che concepisce la malattia come una disfunzione oggettiva rispetto
ai normali processi biologici di un organismo, indipendentemente da percezioni
soggettive o valori culturali.
La terza accezione si basa sul concetto di deviazione: la caratterizzazione
patologica della bruttezza dipenderebbe da uno scostamento misurabile rispetto a
una norma statistica o un canone numerico. Un esempio è il rapporto aureo,
utilizzato in medicina estetica per valutare le proporzioni del viso. Quando una
caratteristica si colloca oltre i limiti di questa norma, si parla di
“deviazione” anche se non c’è un danno soggettivo percepito, né una disfunzione
biologica identificabile. In realtà, osserva Aquino, il ricorso alla norma
statistica è spesso uno strumento per naturalizzare standard culturali,
mascherandoli da criteri biologici universali.
La crescente patologizzazione della bruttezza mette in crisi la distinzione
tradizionale tra chirurgia ricostruttiva e chirurgia cosmetica e ridefinisce i
criteri di legittimità dell’intervento chirurgico: ciò che un tempo era
giustificato solo dal ripristino di una funzione corporea mancante o danneggiata
oggi può essere autorizzato anche dalla richiesta di colmare un presunto
svantaggio biologico o sociale.
Quello che sta accadendo con la medicina estetica è considerato da molti un
esempio evidente di disease mongering, concetto spesso reso in italiano come
“mercificazione della malattia”: si espande il dominio del patologico e quindi
il raggio d’azione della medicina, spesso con l’obiettivo di allargare il
mercato di farmaci e trattamenti. Più il concetto di malattia diventa fluido e
ambiguo, infatti, più diventa facile creare a tavolino nuove patologie. Ciò
induce nel pubblico una certa percezione di rischio e deficit, aumentando le
possibilità del mercato di identificare target di pazienti-clienti a cui
proporre prodotti sanitari come integratori, test diagnostici, programmi di
benessere e trattamenti.
> Siamo di fronte a un esempio evidente di disease mongering, o mercificazione
> della malattia. Più il concetto di malattia diventa fluido e ambiguo, infatti,
> più diventa facile creare a tavolino nuove patologie.
La ridefinizione concettuale dei confini tra salute e malattia non è però
esclusiva dell’ambito estetico. Si tratta di un processo che ha investito la
medicina in maniera trasversale, rendendo la salute nel suo insieme qualcosa di
incerto, malleabile e negoziabile. Questa evoluzione si è tradotta nella
crescente espansione dei codici ICD (International Classification of Diseases),
la Classificazione internazionale delle malattie dell’OMS (Organizzazione
Mondiale della Sanità) che oggi supera le 68.000 voci, contro le 13.000 degli
anni Settanta.
L’osteoporosi e altre zone grigie
Un caso particolarmente dibattuto nella letteratura scientifica è quello
relativo all’osteoporosi. Inizialmente considerata una condizione fisiologica
legata all’invecchiamento, l’osteoporosi è stata riconosciuta come patologia con
l’introduzione di criteri diagnostici basati su soglie di densità minerale
ossea, fissate a partire dai valori medi di giovani donne sane. Ciò ha
comportato la classificazione di milioni di donne in menopausa come malate o a
rischio, dal momento che i loro valori si discostavano dalla “norma statistica”,
nonostante il rischio concreto di frattura fosse molto basso nella maggior parte
dei casi. Questa medicalizzazione della fragilità ossea, sostenuta anche dalla
necessità di ridurre l’impatto economico-sociale delle fratture sul sistema
sanitario, ha alimentato la commercializzazione di nuovi farmaci.
Da qui l’ipotesi di un ruolo attivo delle industrie farmaceutiche nella
promozione di campagne mediatiche per la prevenzione dell’osteoporosi, che
insistono sul carattere diffuso e subdolo della malattia, spesso rinforzato da
metafore come “la ladra di ossa”, che traduce la fisiologia dell’invecchiamento
in una narrazione di pericolo e perdita. Queste campagne invitano all’acquisto
di soluzioni farmacologiche anziché all’adozione di strategie preventive più
semplici ed efficaci (come mantenere un’alimentazione equilibrata, fare
esercizio fisico e non fumare), nonostante i benefici reali delle soluzioni
proposte risultino limitati, se rapportati ai rischi e ai costi. La sindrome
dell’intestino irritabile, la calvizie, la disfunzione erettile, la sindrome
metabolica e l’ipercolesterolemia sono state oggetto di riflessioni critiche
analoghe, per citare solo qualche esempio.
> Nel caso dell’osteoporosi, la medicalizzazione della fragilità ossea ha aperto
> la strada a campagne pubblicitarie che promuovono l’acquisto di soluzioni
> farmacologiche anziché l’adozione di strategie preventive più semplici ed
> efficaci.
Alcuni teorici ritengono che al disease mongering abbiano contribuito i
progressi nel campo della biochimica, in particolare la scoperta di indicatori
biologici (geni, molecole, cellule, parametri come la pressione o la frequenza
cardiaca) in grado di segnalare la predisposizione al rischio di sviluppare
determinate patologie. In un recente contributo pubblicato su Frontiers in
Sociology, il neurologo Naveen K. Reddy segnala come l’industria farmaceutica
stia sempre più influenzando le definizioni di malattia, proponendo di
diagnosticare condizioni come l’Alzheimer o il Parkinson in individui
completamente asintomatici, solo sulla base della presenza di biomarcatori nel
sangue. Questo fenomeno rischia di aumentare le sovradiagnosi, i trattamenti
poco efficaci e le spese per sostenerli, alimentando lo squilibrio di potere tra
bisogni reali dei pazienti e interessi commerciali.
La riflessione di Reddy non riguarda solo le malattie neurologiche: in
oncologia, con la tecnica delle biopsie liquide, che rilevano DNA tumorale
circolante, si rischia di inglobare nelle definizioni di cancro stadi preclinici
che potrebbero non progredire mai verso una malattia sintomatica. In
psichiatria, test ematici per marker infiammatori legati alla depressione
potrebbero patologizzare risposte emotive normali. Nel caso del diabete,
biomarcatori avanzati per la resistenza insulinica potrebbero classificare
individui senza sintomi come prediabetici, spingendoli verso l’uso di costosi
farmaci.
L’era della subsalute
L’espansione del perimetro della medicina ha profondamente trasformato il
rapporto degli individui con il proprio corpo e la propria salute. Sempre più
spesso, la prevenzione non si limita a promuovere comportamenti sani o a
monitorare situazioni ad alto rischio, ma diventa una strategia di
ipersorveglianza costante e capillare su ogni aspetto dell’esperienza corporea.
Questo orientamento trasforma quasi ogni cittadino in un “paziente potenziale”
impegnato in screening, check-up, test genetici, autovalutazioni e consulti per
scoprire e correggere il più piccolo scostamento dalla normalità.
La promozione della salute, così, non si configura più solo come tutela dal
rischio, ma come dovere di perseguire un ideale di benessere ottimale e
durevole, da certificare e monitorare costantemente attraverso dispositivi,
tecnologie, esami strumentali e consulenze mediche. Il risultato è che
l’attenzione si sposta dalla cura della patologia alla gestione ansiosa di ogni
segnale di inefficienza, vulnerabilità o affaticamento.
> Sempre più spesso, la prevenzione diventa una strategia di ipersorveglianza su
> ogni aspetto dell’esperienza corporea, trasformando ogni cittadino in un
> “paziente potenziale” impegnato in check-up, test e consulti per scoprire e
> correggere il più piccolo scostamento dalla normalità.
È all’interno di questo scenario che ha preso corpo il costrutto di salute
subottimale, concepito come un vero e proprio spazio liminale tra salute piena e
malattia diagnosticabile. Essa si manifesta attraverso sintomi poco specifici ma
persistenti, come affaticamento, sonnolenza, mal di testa, insonnia, difficoltà
di concentrazione e cali di memoria. Il termine nasce in Cina per descrivere le
percezioni di disagio psicofisico di una crescente fetta della popolazione,
soprattutto giovani adulti urbanizzati, che pur non risultando malati secondo i
criteri clinici, riportano un generale senso di salute incompleta o precaria,
accompagnata da insoddisfazione e preoccupazione. Nel 2025 Lijiaozi Cheng,
studiosa di sociologia della salute all’Università di Sheffield, ha esplorato
l’utilizzo del concetto di subhealth tra i giovani cinesi, raccogliendo
sensazioni che vanno dall’“essere in cammino verso la malattia” a una sorta di
“sospensione biografica” all’interno delle routine della vita quotidiana.
La subsalute risulta particolarmente appetibile dal punto di vista commerciale,
poiché non si basa su parametri oggettivi e misurabili ma su un vissuto
soggettivo che, in quanto tale, può esprimersi in forme e intensità differenti,
tutte potenzialmente degne di prevenzione. La salute subottimale, infatti, è
generalmente concepita come una fase reversibile, a patto di intervenire sullo
stile di vita e sulla riduzione dei fattori di rischio. In tal senso, essa
rappresenta una vera e propria “zona di transizione”, dove l’individuo si
configura come un “paziente in attesa” o un protopaziente, chiamato a correre ai
ripari e rivedere le proprie abitudini prima che possano evolvere in malattie
conclamate.
Se nelle patologie diagnosticabili tramite biomarcatori si è “malati senza
sintomi” perché lo dice un test, nella subsalute si è “sintomatici senza
malattia” perché lo afferma il vissuto individuale. Eppure entrambe partecipano
allo stesso processo: la produzione di una zona grigia in cui medicalizzazione e
incertezza diagnostica si intrecciano, lasciando spazio a una molteplicità di
risposte sociali, cliniche e commerciali.
Il potere del discorso
Questo progressivo ampliamento dei confini diagnostici non sarebbe possibile
senza l’intervento di strategie discorsive precise, che sfruttano l’ambiguità
dei concetti di salute e malattia per costruire legittimità e consenso attorno a
nuove categorie patologiche. La letteratura sociologica mostra che le narrazioni
veicolate dai media, dalla comunicazione pubblicitaria e dai discorsi
istituzionali sono in grado di conferire consistenza scientifica apparente a
concetti privi di un sostegno empirico robusto.
> Le malattie non vengono soltanto “scoperte” dalla scienza e poi comunicate al
> pubblico, a volte vengono costruite, negoziate e legittimate attraverso
> pratiche linguistiche, narrative e mediatiche che possono prescindere dalla
> solidità delle evidenze.
Uno studio del 2025 dei linguisti Dermot Heaney e Giorgia Riboni ha confrontato
lo Sluggish cognitive tempo (SCT), una condizione documentata in letteratura ma
non universalmente riconosciuta come disturbo autonomo e spesso descritta come
variante dell’ADHD, con il MoDeD, il disturbo inventato dal fantomatico Dr. Leth
Argos. L’analisi di Heaney e Riboni evidenzia un repertorio condiviso di modelli
lessicali, fraseologici e retorici che ha reso il MoDeD credibile. Lo studio,
basato su articoli e contenuti online, mostra come l’uso di termini tecnici,
sigle, casi-studio concreti, dati numerici e citazioni di esperti dia
l’impressione di autorevolezza e scientificità. Molti dei contenuti esaminati,
ad esempio, riferiscono la stima secondo cui “uno su cinque” sarebbe affetto da
MoDeD, fornendo così un dato quantitativo che rende la portata della malattia
più fondata e tangibile.
Le narrazioni seguono schemi ricorrenti: la condizione è presentata come diffusa
ma poco riconosciuta (“molti non lo sanno”), come un progresso rispetto alla
comprensione precedente (“per tutta la vita hai creduto di essere pigro; in
realtà sei malato”), come un insieme di sintomi da prendere sul serio (“essere
sottodiagnosticati è pericoloso”). Così, gli autori mostrano che la
medicalizzazione non è un fenomeno puramente medico, ma un processo sociale e
discorsivo. Le malattie non vengono solo “scoperte” dalla scienza e poi
comunicate al pubblico: vengono costruite, negoziate e legittimate attraverso
pratiche linguistiche, narrative, mediatiche e retoriche che possono prescindere
dalla solidità delle evidenze.
Se persino una malattia inventata può risultare verosimile, quali strumenti
abbiamo per distinguere ciò che è fondato scientificamente da una patologia
costruita ad arte per interessi di mercato? Forse non ci resta che abbracciare
la consapevolezza che salute e malattia sono sempre, anche, categorie
discorsive, sociali, politiche e commerciali. Riconoscere questa
multidimensionalità significa smettere di cercare confini immutabili e oggettivi
e interrogarsi invece su chi ha il potere di tracciare quei confini, e a
vantaggio di chi.
L'articolo Il malato immaginato proviene da Il Tascabile.
D a secoli filosofi, teologi e scienziati si chiedono come abbia avuto origine
la vita sulla Terra. La questione è tutt’altro che semplice, e oggi una
moltitudine di laboratori in giro per il mondo dedica la propria ricerca a
trovare una risposta capace di soddisfare ogni dubbio. Si trovano ad andare
indietro nel tempo, sino a quando la Terra doveva ancora compiere il suo primo
miliardo di anni, quando gli oceani ribollivano per l’attività vulcanica e
l’aria era percossa da fulmini. È lì che idrogeno e anidride carbonica hanno
alterato la storia del nostro pianeta, dando vita a molecole organiche. Ed è da
queste basi chimiche ‒ attraverso fasi intermedie ‒ che riteniamo si
svilupparono gli acidi nucleici. Un punto di svolta dev’essere stato la comparsa
degli aminoacidi e la loro incorporazione nel codice genetico come lo conosciamo
oggi, con le sequenze di DNA e RNA che custodiscono l’informazione e i ribosomi
che la traducono in proteine, ossia catene di aminoacidi che rappresentano i
mattoni fondamentali per la vita.
Ma per affrontare la questione, bisogna innanzitutto stabilire cosa si intenda
con “vita”, e in secondo luogo perché alcune delle molecole indispensabili siano
apparse ben prima che esistessero le prime cellule.
L’essere umano prova a replicare le condizioni per la nascita della vita almeno
dal 1953, quando gli scienziati Harold Urey e Stanley Miller progettarono un
apparato di vetro per simulare le condizioni della Terra primordiale. I due
crearono un sistema chiuso; riscaldarono acqua con idrogeno, metano e ammonio, e
simularono l’effetto dei fulmini con scariche elettriche. Lasciarono che il
miscuglio gassoso si condensasse e cadesse di nuovo in acqua come pioggia. Nel
giro di una settimana, il finto oceano che avevano creato era diventato marrone
per le biomolecole e gli aminoacidi che si erano formati.
Oggi, oltre settant’anni dopo l’esperimento, il risultato principale rimane
valido: nelle condizioni simulate dai ricercatori, la materia abiotica – ovvero
non vivente – può dare origine a molecole organiche. Tuttavia, sappiamo che
probabilmente la composizione atmosferica della Terra primordiale era differente
da quella considerata da Urey-Miller. Per esempio, i due non inclusero
nell’esperimento lo zolfo, elemento che oggi sappiamo essere stato fondamentale
al tempo della nascita delle prime forme di vita. L’esclusione dello zolfo rende
impossibile la formazione della metionina, un aminoacido che invece, stando al
lavoro di Sawsan Wehbi e colleghi, sarebbe una delle prime molecole a essere
incorporate nel codice genetico.
> L’essere umano prova a replicare le condizioni per la comparsa della vita
> almeno dal 1953, quando gli scienziati Harold Urey e Stanley Miller
> progettarono un apparato di vetro per simulare le condizioni della Terra
> primordiale.
Un’altra teoria ipotizza che la vita abbia avuto origine nelle sorgenti
idrotermali di profondità marine, ferite sul fondale degli oceani da cui
fuoriesce acqua calda e ricca di minerali. Qui, il ferro minerale reagisce con
l’acqua per produrre idrogeno che, a sua volta, potrebbe reagire con l’anidride
carbonica per produrre formiato, acetato e piruvato – molecole organiche
fondamentali per il metabolismo di una cellula. Tuttavia, anche su questo
rimangono aperti vari punti: secondo alcuni studiosi non è possibile che la vita
primordiale potesse tollerare temperature tanto alte, e ricerche recenti
esplorano anche le sorgenti termali terrestri come possibile culla della vita.
In uno studio del 2024, pubblicato su Nature Communications, i ricercatori hanno
sintetizzato solfuri di ferro in scala nanometrica, incluse forme pure e
versioni arricchite con elementi come manganese, nichel, titanio e cobalto.
Hanno esposto questi campioni all’idrogeno gassoso e all’anidride carbonica in
condizioni che simulavano quelle delle sorgenti calde, con temperature comprese
tra 80 e 120 gradi Celsius. Così facendo sono riusciti a produrre metanolo da
solfuri di ferro con manganese. Sembra inoltre che anche luce e vapore acqueo
ricoprano un ruolo cruciale: la luce UV nello spettro del visibile può
facilitare le reazioni, abbassando l’energia di attivazione; la presenza di
vapore acqueo, pur in alcuni casi ostacolante a basse temperature, può favorire
la sintesi alle temperature più alte.
Una volta formatesi le molecole organiche, ci troviamo di fronte a un dilemma
spesso paragonato a quello dell’uovo e della gallina: è venuto prima il
materiale genetico o le proteine? Per lungo tempo, si è guardato all’RNA come
candidato favorevole, poiché oltre a essere una molecola codificante è in grado
di catalizzare reazioni chimiche, come fanno le proteine. Tuttavia, bisogna
capire se una struttura fragile come quella dell’RNA possa essere sorta nelle
dure condizioni del brodo primordiale e, sinora, nessuno è riuscito a ottenerlo
in condizioni ambientali che simulassero quelle del mondo prebiotico.
Ma esiste un’altra possibilità, esplorata di recente, secondo cui sarebbero
invece le proteine ad aver visto la luce per prime. Fra i promotori di questa
teoria c’è Andrew Pohorille, direttore del Center for Computational Astrobiology
and Fundamental Biology della NASA, scomparso nel 2024. Le proteine sono
molecole più semplici da produrre rispetto agli acidi nucleici, il problema è
che le catene amminoacidiche non sono in grado di replicarsi da sole. L’ipotesi
di Pohorille prevede che esse siano diventate nel tempo un sistema di
conservazione delle informazioni, non replicabile e meno complesso di quello
odierno basato sugli acidi nucleici, e che la loro presenza abbia favorito la
comparsa dell’RNA. Quest’ultimo avrebbe poi preso il sopravvento.
Un indizio su questo fronte arriva da uno studio congiunto della Stony Brook
University e del Lawrence Berkeley National Laboratory. È possibile che sulla
Terra primordiale avvenisse la sintesi di corti polimeri, ovvero molecole
formate da più unità, dette monomeri, a formare sequenze casuali. Non è chiaro,
tuttavia, come possa essere avvenuto il salto a catene più lunghe con sequenze
particolari in grado di autocatalizzarsi, ovvero di aumentare la propria
concentrazione nell’ambiente.
I ricercatori Elizaveta Guseva, Ronald Zuckermann e Ken Dill hanno investigato i
processi fisici e chimici alla base di questo passaggio, basandosi su un modello
di ripiegamento di polimeri che Dill aveva sviluppato in precedenza. Hanno
scoperto che alcune piccole catene possono collassare a formare strutture
compatte in acqua. La maggior parte delle molecole si ripiega in modo da esporre
solo le parti idrofile, ma alcune si comportano diversamente: espongono parti
idrofobe che attraggono le parti simili di altri polimeri. Di qui può avvenire
la formazione di molecole più complesse, che si ripiegano e possono anche
diventare catalizzatori. Per quanto rare, queste molecole tenderebbero a
crescere nel brodo prebiotico e potrebbero avere un ruolo nella nascita della
vita.
> Le proteine potrebbero essere emerse come prime molecole organiche, fornendo
> un sistema di conservazione delle informazioni, non replicabile e meno
> complesso di quello basato sugli acidi nucleici, e la loro presenza potrebbe
> aver favorito la comparsa dell’RNA.
La questione, quindi, è duplice: dapprima è necessario comprendere che aspetto
avesse il mondo primordiale e poi si può investigare quali delle molecole
disponibili si rivelarono essenziali per lo sviluppo delle prime forme di vita.
Uno studio del 2000 provò a stabilire in quale ordine siano apparsi i venti
aminoacidi odierni. Ben nove dei dieci trovati con l’esperimento di Urey-Miller
erano in cima alla lista; ciò fu considerato una riprova dell’importanza
dell’esperimento, e del fatto che questo non si limitava a dimostrare che la
sintesi abiotica degli aminoacidi fosse possibile. Edward N. Trifonov, autore
dello studio, partiva dal presupposto che gli aminoacidi più diffusi prima
dell’origine della vita fossero stati i primi a essere incorporati nel codice
genetico. Ma, osservando le antiche sequenze, questo si rivela non essere del
tutto vero.
Uno studio recente, condotto presso l’Università dell’Arizona, ha messo in
discussione l’idea che il codice genetico sia nato seguendo l’ordine di
reclutamento degli aminoacidi comunemente accettato. Supponendo che le sequenze
più antiche siano più ricche di quegli aminoacidi che sono stati incorporati per
primi, e non per forza degli aminoacidi che erano presenti in maggior quantità 4
miliardi di anni fa, si trovano risposte diverse. Ci sono aminoacidi che non
erano abbondanti, ma che le antiche forme di vita sono riuscite a utilizzare
comunque, probabilmente perché hanno funzioni uniche e importanti. “Siamo
partiti da un assunto: che l’antica Terra poteva produrre tanti aminoacidi, ma
non tutti venivano necessariamente utilizzati dalle forme di vita primitive”, mi
racconta Sawsan Wehbi, tra gli autori dello studio. “Non eravamo soddisfatti
degli studi precedenti. Volevamo riaprire la domanda sull’ordine di reclutamento
degli aminoacidi, che fino a oggi è stato considerato come un assioma”.
> Secondo alcune stime, il nostro ultimo antenato comune universale (LUCA),
> risalirebbe a 4,2 miliardi di anni fa, il che implicherebbe che la sua
> comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto
> all’origine della Terra.
L’idea del gruppo di ricerca era viaggiare indietro nel tempo fino al momento in
cui il codice genetico stava prendendo vita. Parliamo del periodo in cui è
apparso LUCA (acronimo di Last Universal Common Ancestor), una cellula da cui si
ipotizza siano derivate tutte le forme di vita odierne. Recentemente, si è
stimato che LUCA sia vissuto 4,2 miliardi di anni fa e quindi che la sua
comparsa abbia richiesto un tempo geologico sorprendentemente breve rispetto
all’origine della Terra. Tracce di come doveva essere questo organismo
primordiale vivono dentro ognuno di noi, dentro gli alberi, i funghi e i
batteri. La cellula si è duplicata, poi le sue figlie si sono duplicate e loro
figlie hanno fatto lo stesso, e nel tempo le mutazioni e la selezione naturale
hanno guidato la differenziazione degli organismi.
Studiare LUCA è complicato perché il nostro antenato non esisteva in un mondo
vuoto. Aveva dei predecessori, la cui storia evolutiva non ci è ancora chiara, e
appare come un caotico e incessante trasferimento di geni. Oltretutto, non è
detto che LUCA fosse un solo organismo. Potrebbe anche essere stato una comunità
di organismi che condividevano geni e caratteristiche utili alla sopravvivenza.
In questa lettura, più che un singolo ente biologico, LUCA rappresenterebbe un
periodo di tempo.
Wehbi e colleghi hanno deciso di guardare non agli aminoacidi che esistevano
nell’ambiente, ma solo a quelli che le prime sequenze biotiche scelsero di
incorporare. Dunque, hanno considerato come evento spartiacque proprio la
nascita del codice genetico, e hanno paragonato sequenze che risalgono a poco
prima con sequenze che risalgono a poco dopo. Possiamo supporre che le catene
più antiche che incontriamo siano ricche di quegli aminoacidi che il codice
genetico scelse per primi, e povere di quelli che furono scelti per ultimi. E
non è tutto: dentro un’antica sequenza di aminoacidi Sawsan Wehbi e i suoi
colleghi hanno trovato segmenti che si sono duplicati varie volte e si sono
conservati. Questo significa che esistono sequenze così antiche che appartengono
a un tempo in cui le proteine venivano tradotte in altri modi. È un dato
cruciale, perché presuppone l’esistenza di codici genetici più antichi degli
acidi nucleici, e viene a cadere l’idea che il corrente sistema di trascrizione
e traduzione dell’informazione genetica sia l’unica possibilità.
Lo studio ha rivelato anche che la vita primordiale preferiva aminoacidi più
piccoli, mentre gli aminoacidi che contengono atomi di metallo sono stati
incorporati molto prima di quanto si pensasse in precedenza. “Sapere quali
aminoacidi furono usati al principio della vita sulla Terra è importante perché
ci permette di sapere che tipo di mondo biotico c’era. Ci sono tanti tipi
diversi di aminoacidi che il pianeta può produrre, ma questo non significa che
la vita li utilizzerà”, spiega Wehbi. “La cosa che mi ha stupito di più è stata
scoprire che quello che studiamo ha implicazioni in tantissime aree della
scienza. Questa ricerca è stata utilizzata in diversi ambiti di ricerca, non
solo nella biologia, ma si è rivelata utile anche per come concepiamo la vita
nello spazio, per le missioni della NASA, per la ricerca di molecole organiche
lontano dal suolo terrestre. Abbiamo cambiato il paradigma”.
> L’esistenza di proteine antecedenti all’RNA presuppone l’esistenza di codici
> genetici più antichi degli acidi nucleici, e mette in discussione l’idea che
> il corrente sistema di trascrizione e traduzione dell’informazione genetica
> sia l’unica possibilità.
Tutto questo è possibile perché gli studiosi oggi sono in grado di ripercorrere
le tracce di LUCA e analizzare le sequenze del periodo in cui il codice genetico
era in costruzione. Lo si fa attraverso un lavoro di ricerca nei database e di
sequenziamento proteico per ricostruire la storia evolutiva delle sequenze – di
fatto, si guarda alla radice dell’albero filogenetico di una sequenza e si cerca
di capire a quando risale. Nel caso di questo studio, i ricercatori hanno scelto
di focalizzarsi sui domini proteici, che sono generalmente più antichi delle
proteine che compongono.
LUCA probabilmente aveva altre forme di vita intorno a sé, ma non sono
sopravvissute e non ci hanno lasciato indizi. Retrocedendo nel tempo, le domande
si fanno più intricate e le risposte più nebulose. Chi è comparso per primo,
l’RNA, il DNA o le proteine? E com’è arrivato il DNA a diventare il ricettario
favorito dalle forme di vita? Ancora più indietro nel tempo, rimane da capire
come arrivarono le prime molecole organiche a polimerizzare, a formare DNA, RNA
e aminoacidi, e di lì come fecero le sequenze a duplicarsi o tradursi in
proteine. Le macromolecole hanno bisogno di allungarsi e ripiegarsi per
funzionare e l’ambiente precoce avrebbe impedito la formazione di stringhe così
lunghe. Non a caso, la vita prese piede quando comparvero le membrane, che si
richiusero intorno alle macromolecole e le protessero dall’ambiente esterno. E
dunque come, e quando, comparvero le membrane? Come fu la prima duplicazione di
una cellula? Avvenne in un unico luogo geologico, o in molti posti
simultaneamente? “La cosa più bella”, commenta Sawsan Wehbi, “è che per ognuna
di queste domande esiste almeno un laboratorio nel mondo dedicato interamente a
studiarla”.
L'articolo La vita prima della vita proviene da Il Tascabile.