U na folta coda a strisce spunta da un bidone della spazzatura semiaperto. Dopo
un po’ di trambusto, al di sotto del coperchio, compaiono due occhietti
circondati da una maschera di pelo nera e una coppia di zampe con piccolissime
dita. I procioni (Procyon lotor) non temono gli umani, sono onnivori e sanno
cogliere il meglio che un ambiente urbanizzato possa offrire loro, tra cui i
nostri avanzi di cibo. Anzi, più un’area sarà abitata, maggiore sarà la
possibilità di rovistare nei rifiuti e trovare una leccornia da gustare. Questa
è una forma di commensalismo simile a quella dei lupi che, migliaia di anni fa,
si avvicinarono agli insediamenti umani per frugare tra gli scarti di quelle
comunità. Una vicinanza che è diventata cooperazione, selezione, relazione, fino
a plasmare il cane. Secondo un gruppo di ricerca statunitense, i procioni
potrebbero essere l’animale perfetto da osservare in tempo reale per capire come
una specie possa andare incontro a modificazioni tali da renderla diversa dal
proprio antenato selvatico.
La domesticazione, spesso definita come il controllo delle condizioni di vita di
una determinata specie al fine di ricavarne servizi e prodotti utili all’essere
umano, è un fenomeno più complesso e sfumato di quello che per molti anni è
stato descritto dalla comunità scientifica. A partire da circa 10.000 anni fa,
quando ha iniziato a delinearsi il passaggio da un’esistenza nomadica a una
sedentaria nella transizione neolitica, essa ha contribuito a mutare
radicalmente la biosfera terrestre. La nostra conoscenza della sua storia e dei
suoi meccanismi è ancora lacunosa e continuiamo a compulsarne le tracce per
recuperare i tasselli mancanti che compongono il nostro passato e che potrebbero
aiutarci a prevedere un possibile futuro.
La domesticazione: percorsi e nicchie
Dalla metà del Ventesimo secolo l’interesse verso la comprensione della
domesticazione di piante e animali ha trovato risposte in narrazioni incentrate
sul progresso tecnologico, sull’intenzionalità e sul dominio umano sul proprio
ambiente, punti di vista saldamente ancorati a una visione antropocentrica
caratterizzata da un forte dualismo tra natura e cultura. Sebbene questa visione
sia in parte ancora radicata nella letteratura archeologica, negli ultimi
quarant’anni il concetto di domesticazione si è sviluppato e ampliato, come mi
ha raccontato Thomas Cucchi, direttore di ricerca del Laboratorio di
bioarcheologia del Museo nazionale di Storia naturale di Parigi: “A partire
dagli anni Ottanta, gli antropologi hanno posto in rilievo prospettive che vanno
oltre le ontologie occidentali, fornendo esempi etnografici in cui le
distinzioni tra selvatico e domestico, cultura e natura, sono minime o
addirittura inesistenti. Il campo della zooarcheologia si è quindi allontanato
dalle narrazioni precedenti che enfatizzavano la domesticazione animale come
dominio umano sugli animali non umani, orientandosi verso un’attenzione alle
relazioni ecologiche, culturali e coevolutive che sono sempre esistite tra
esseri umani e animali non umani e alla loro intensificazione ed elaborazione
nei contesti delle prime società agricole”.
> Secondo l’archeologa Melinda Zeder ci sono tre percorsi attraverso cui le
> diverse specie rispondono alla domesticazione per poi essere integrate nelle
> società umane: il percorso commensale, quello della preda e la gestione
> diretta.
Le combinazioni tra fattori ecologici, culturali ed evolutivi all’interno dei
rapporti tra gli umani e gli altri animali possono essere molteplici, seguire
traiettorie non lineari, imboccare vicoli ciechi, e giungere a risultati
differenti in aree geografiche e finestre temporali più o meno lontane. Un
esempio è la domesticazione del cavallo, i cui primi tentativi risalirebbero a
circa 5.500 anni fa e sono documentati nel sito di Botaï, nel Kazakistan
settentrionale. Qui sono stati trovati resti che indicano l’uso di recinti,
briglie e la mungitura dei cavalli per ricavarne latte. Per molto tempo si è
pensato che i cavalli moderni discendessero da quelli di Botaï. In seguito, uno
studio pubblicato su Nature nel 2024 ha suggerito che il controllo della
riproduzione della linea dei cavalli moderni sarebbe emerso solo più tardi,
intorno al 2.200 a.C. nelle steppe pontico-caspiche.
La definizione di un quadro teorico del fenomeno è una sfida che è stata colta e
che solo negli ultimi anni ha dato origine ad approcci di più ampio respiro. Tra
le teorie che meglio combinano le componenti biologiche e sociali della
domesticazione c’è quella dei tre percorsi, elaborata dall’archeologa Melinda
Zeder nel 2012. Zeder sostiene che, al di là delle caratteristiche universali
comuni a tutti gli animali domestici – prima su tutte la docilità verso l’essere
umano ‒, vi siano molteplici modi in cui le diverse specie rispondono alla
domesticazione per poi essere integrate nelle società umane. Portando questo
ragionamento alle estreme conseguenze, si potrebbe addirittura affermare che
ogni animale domestico sia un caso a sé stante, partecipe di una relazione
unica, modellata da un elevato numero di variabili. La scienziata ritiene, però,
che siano tre i percorsi principali seguiti: il percorso commensale, quello
della preda e la gestione diretta.
Il percorso commensale è la via più nota al grande pubblico, la più citata tra
le possibili ricostruzioni della domesticazione del cane, ed è anche quella che
forse sta imboccando il procione. È un processo coevolutivo, in cui un gruppo di
individui di una determinata specie trae giovamento dalle risorse, come avanzi
di cibo e riparo, di un’altra. Non è necessario che vi sia intenzionalità da
parte dell’essere umano, poiché l’interazione potrebbe sorgere semplicemente
dalla condivisione dello stesso ambiente, e a sua volta può sfociare in legami
sociali o economici più stretti da cui gli umani potrebbero trarre beneficio. A
questo punto, la selezione guidata sarebbe il passo successivo.
Gli animali d’allevamento come pecore, capre e bovini, invece, sono stati per la
maggior parte i protagonisti di un percorso della preda: erano inizialmente
cacciati per la loro carne e il processo di domesticazione è cominciato quando
le comunità umane, per necessità, hanno dapprima sperimentato strategie di
caccia per aumentarne la disponibilità, per poi arrivare a una vera e propria
gestione delle mandrie, con il controllo esteso alle generazioni successive, se
gli animali mostravano di possedere le caratteristiche idonee.
Infine, vi è il percorso diretto, orientato, un processo avviato dagli esseri
umani con l’obiettivo di domesticare animali che vivono in libertà e per
ottenere una specifica risorsa o un insieme di risorse d’interesse. È ciò che
sarebbe accaduto, ad esempio, a conigli, visoni e struzzi. È una strada che
richiede già una certa dimestichezza con la domesticazione di altri animali e
per cui sono necessarie intenzionalità e forme di progresso tecnologico, in
quanto le specie coinvolte potrebbero non possedere molte delle caratteristiche
comportamentali ritenute prerequisiti essenziali.
I percorsi non sono esclusivi e possono incrociarsi. È il caso del maiale, Sus
scrofa domesticus, che deriverebbe dal percorso commensale e da quello della
preda: sembra che alcuni suini venissero cacciati, mentre altri fossero
tollerati intorno agli insediamenti, dove si nutrivano di scarti, adattandosi
così ad ambienti antropici. Queste condizioni si sarebbero presentate
indipendentemente sia in Mesopotamia sia in Cina.
> Più che un atto di dominio, la domesticazione è un processo coevolutivo,
> poiché l’essere umano ha plasmato l’evoluzione degli animali e delle piante
> domestiche, che poi a loro volta hanno modellato il genoma umano e la sua
> diversità culturale.
Un altro modo per spiegare le implicazioni biologiche, ecologiche e sociali
della domesticazione è la teoria della costruzione della nicchia. Anche in
questo caso si parla di una lunga coevoluzione basata su rapporti di reciproco
vantaggio che si concretizza nella costruzione, da parte di umani, piante e
animali, di nuove nicchie ecologiche, in una modifica attiva degli ambienti in
cui vivevano. Gli esseri umani, nel ruolo di ingegneri ecosistemici, avrebbero
trasformato i paesaggi per rendere più produttive e prevedibili alcune specie di
loro interesse e, allo stesso tempo, anche piante e animali coinvolti nella
domesticazione avrebbero contribuito a rimodellare gli ecosistemi, adattandosi,
influenzando le condizioni ambientali e innescando effetti che avrebbero
interessato altri organismi, modificandone indirettamente le traiettorie
evolutive.
Diviene chiaro come la domesticazione non sia ‒ o per lo meno, non sia sempre
stata ‒ un atto di dominio, ma che si possa inserire nel più grande racconto
dell’evoluzione. “La domesticazione è un eccezionale modello di evoluzione in
atto, in cui la forza motrice principale è la pressione selettiva dell’ambiente
umano, sia artificiale che naturale”, sottolinea Cucchi: “La domesticazione è un
sottoinsieme dell’evoluzione, che dimostra come l’intervento umano possa
accelerare e dirigere il processo evolutivo, con impatti profondi sia sulle
specie domesticate che sugli esseri umani. In effetti, consideriamo la
domesticazione come un processo coevolutivo. Poiché l’essere umano ha plasmato
l’evoluzione degli animali e delle piante domestiche, questi ultimi hanno
successivamente modellato anche il genoma umano e la sua diversità culturale”.
Da selvatico a domestico
Sono circa 2 milioni le specie conosciute e di queste solo una frazione (tra
mammiferi, uccelli ma anche insetti e pesci) è stata domesticata dagli esseri
umani. Un caso spesso citato di insuccesso è la zebra, particolarmente
aggressiva rispetto ai suoi parenti, il cavallo e l’asino. Nel suo saggio del
1997, Armi, acciaio e malattie, il fisiologo e ornitologo Jared Diamond provò a
spiegare il motivo per cui solo pochissimi animali sono stati domesticati
dall’essere umano, introducendo quello che lui chiama “principio di Anna
Karenina”. Se Lev Tolstoj, nel celebre incipit, asseriva che “Tutti i matrimoni
felici si somigliano; ogni matrimonio infelice è infelice a modo suo”, Diamond
rielabora la citazione affermando che “Tutti gli animali domestici si
assomigliano; ogni animale non domesticabile è selvatico a modo suo”. Questo è
un modo per dire che tutte le specie domesticate hanno delle caratteristiche
biologiche comuni, tutte necessarie affinché il processo funzioni: una dieta
flessibile, un tasso di crescita elevato, la capacità di riprodursi in
cattività, docilità verso gli esseri umani, una minore tendenza alla fuga e una
struttura gerarchica organizzata. Come racconta l’archeozoologa Juliet
Clutton-Brock nel suo libro Storia naturale della domesticazione dei mammiferi
(2001), nel 1865 anche Francis Galton, cugino di Charles Darwin, stilò una lista
di requisiti per la domesticazione, che includeva la robustezza, un’innata
inclinazione per gli esseri umani, la facilità di accudimento, l’utilità e la
capacità di riprodursi liberamente.
> Molti mammiferi domestici condividono caratteristiche fisiche e
> comportamentali non presenti negli antenati selvatici, tra cui variazioni
> nelle dimensioni corporee e nel comportamento sociale, code più corte o
> arrotolate e orecchie pendenti.
Non bastano, però, solo le peculiarità biologiche degli animali. Lo spiega il
paleobiologo Marcelo Sánchez-Villagra nel volume The Process of Animal
Domestication (2022): il numero relativamente ridotto di specie domestiche
autoctone nelle Americhe dipenderebbe non solo dalle caratteristiche degli
animali, ma anche dagli aspetti culturali delle popolazioni umane che convivono
con essi, a loro volta legati all’ecologia dei territori. In Amazzonia, per
esempio, alcune popolazioni intrattengono rapporti di stretta vicinanza con
determinati animali, come insetti, pappagalli, pecari, e persino con i cuccioli
di esemplari uccisi durante la caccia, senza avviarne la domesticazione: una
scelta che riflette una diversa visione del mondo e del rapporto tra esseri
umani e altre specie.
Nonostante i diversi percorsi e tempi della domesticazione nelle varie aree del
mondo, molti mammiferi domestici – anche se lontanamente imparentati tra loro –
condividono un insieme ricorrente di caratteristiche fisiche e comportamentali,
noto come “sindrome da domesticazione”, già individuato da Charles Darwin nella
sua analisi della selezione artificiale sugli animali allevati. Si tratta di
cambiamenti non presenti negli antenati selvatici e tra i più comuni si
osservano variazioni nelle dimensioni e nelle proporzioni del corpo, nella
pigmentazione del mantello, nella riproduzione e nel comportamento sociale. A
questi si aggiungono altre modifiche tipiche della domesticazione, come una
riduzione delle dimensioni del cervello, cambiamenti nella struttura del pelo,
code più corte o arrotolate e orecchie pendenti.
Una possibile spiegazione della sindrome da domesticazione è che gli esseri
umani abbiano selezionato, più volte e in modo indipendente, le stesse
caratteristiche in specie diverse. Questa ipotesi è stata testata dal genetista
russo Dmitry Belyaev nel celebre esperimento sulle volpi argentate, iniziato
negli anni Cinquanta del Ventesimo secolo. Gli esemplari scelti vennero
selezionati per docilità e, generazione dopo generazione, mostrarono attenzione
verso gli esseri umani, orecchie pendenti, code rivolte all’insù, mantelli
pezzati, cicli riproduttivi più frequenti e non legati alle stagioni e,
successivamente, musi più corti e larghi. Nonostante approfondimenti e studi
successivi, i risultati ottenuti sono ancora discussi nella comunità scientifica
per alcuni aspetti controversi.
> I procioni potrebbero essere l’animale perfetto da osservare in tempo reale
> per capire come una specie possa andare incontro a modificazioni tali da
> renderla diversa dal proprio antenato selvatico.
Oggi sono proprio i procioni, probabile modello di domesticazione in atto, a
essere protagonisti di un ampio studio in qualche modo accostabile a quello
delle volpi, pubblicato su Frontiers in Zoology. Analizzando il rapporto tra la
lunghezza del muso e quella del cranio in oltre 19.000 fotografie di procioni
scattate negli Stati Uniti e raccolte tramite applicazioni di citizen science,
gli autori della ricerca hanno osservato una tendenza chiara: gli individui che
vivono in aree densamente popolate mostrano, in media, un muso più corto. Se da
una parte la domesticazione interagisce con molte altre pressioni ambientali,
scienziate e scienziati stanno mettendo in correlazione questi risultati con la
cosiddetta ipotesi delle cellule della cresta neurale. Secondo questa teoria, la
maggiore docilità selezionata negli animali domesticati sarebbe legata a una
riduzione dell’attività o del numero di un gruppo di cellule embrionali
coinvolte nello sviluppo non solo dei caratteri comportamentali, ma anche di
molti tratti fisici. L’esito non intenzionale di queste modificazioni sarebbe la
comparsa dei tipici cambiamenti fisici osservati negli animali domestici.
Questa spiegazione sosterrebbe anche la tesi dell’auto-domesticazione umana,
dibattuta già ai tempi di Darwin. Infatti, esistono alcuni mutamenti
assimilabili alla sindrome da domesticazione nella nostra evoluzione, come
descrive Cucchi:
> Proprio come osservato nell’esperimento delle volpi di Belyaev, si sostiene
> che ci sia stata una selezione che avrebbe favorito comportamenti più sociali
> e meno aggressivi tra i cacciatori-raccoglitori del Paleolitico negli ultimi
> 300.000 anni e, secondo la teoria delle cellule della cresta neurale, questa
> selezione comportamentale avrebbe influenzato indirettamente l’evoluzione
> fenotipica della nostra specie verso un corpo più piccolo e snello. Alcuni
> sostengono che la selezione possa essere stata esercitata sugli individui più
> inclini alla violenza reattiva.
Attualmente altre ipotesi mettono in discussione il coinvolgimento di un
alterato funzionamento della cresta neurale e l’esistenza stessa della sindrome
da domesticazione, che per ora, però, sono tra le cornici esplicative più
esaminate.
Avanti il prossimo!
Il procione è solo uno degli animali che probabilmente stanno percorrendo le
prime tappe della strada che potrebbe portarli alla domesticazione. È spontaneo
domandarsi quali saranno in futuro le nuove specie in stretta relazione
all’essere umano, o da esso sfruttate, che subiranno un destino simile.
L’antropologo Marcus Baynes-Rock, nella sua opera La vita segreta delle iene
(2024), racconta la coesistenza tra i cittadini di Harar, in Etiopia, e gli
esemplari di due clan di iene che si aggirano nelle strade della metropoli e
accettano cibo dagli abitanti. L’estrema vicinanza e la riduzione
dell’aggressività nei nostri confronti potrebbero forse essere dei buoni
presupposti per l’avvento di nuovi compagni a quattro zampe.
> C’è anche chi sta cercando di domesticare il polpo, che però non sembra un
> candidato ideale: non è un animale sociale, è un predatore solitario, e
> relegato in vasche con altri conspecifici potrebbe aggredirli.
O ancora, dal 2018 l’azienda spagnola Nueva Pescanova sta lavorando alla
realizzazione di quello che potrebbe essere il primo allevamento intensivo di
polpi. Nel 2023, Nueva Pescanova ha dichiarato di essere stata in grado di
completare in cattività il ciclo riproduttivo del polpo comune e di stare
allevando la quinta generazione nel proprio centro di ricerca in Galizia.
Secondo quanto afferma l’azienda, il processo avrebbe reso questi molluschi più
adatti alle condizioni di allevamento, riducendo le criticità emerse nei
tentativi precedenti. Il polpo, infatti, non sembra un candidato ideale per la
domesticazione: non è un animale sociale, è un predatore solitario, e relegato
in vasche con altri conspecifici potrebbe aggredirli. Inoltre, è carnivoro e la
sua alimentazione in allevamento solleverebbe interrogativi dal punto di vista
della sostenibilità.
Thomas Cucchi ci riporta al presente: “La domesticazione dei pesci è la più
recente e di maggiore impatto”. È stata un’attività in aumento solo in tempi
recenti e la ricerca sull’acquacoltura ha rivelato effetti rapidi e vari nelle
specie ittiche. Come descritto anche da Sánchez-Villagra nel suo libro, fino
alla metà del Ventesimo secolo, erano pochi i pesci domesticati: c’erano le
carpe, i pesci rossi e, più recentemente, i salmonidi. Molte altre sono state
effettivamente domesticate, nel senso che la loro biologia riproduttiva è stata
modificata dagli esseri umani, solo negli ultimi decenni. L’acquacoltura ittica
coinvolge attualmente oltre 160 specie, sotto il nostro controllo per diversi
scopi, tra cui l’alimentazione, la conservazione e la ricerca.
Come evidenzia una review pubblicata su Trends in Ecology & Evolution nel 2022,
sono ancora molte le domande senza risposta che riguardano la nostra
comprensione di questo processo. Non è sempre chiaro quali percorsi ecologici ed
evolutivi portino alla domesticazione, quanto le specie coinvolte dipendano dai
rapporti di mutualismo con l’essere umano e come stabilire se una specie possa
dirsi davvero domesticata. Resta ancora da chiarire quale sia il peso della
selezione intenzionale rispetto a quella inconsapevole e il significato
evolutivo della selezione di tratti estetici, spesso legata a preferenze
culturali più che a vantaggi funzionali.
Gli occhi mascherati e le code a strisce che spuntano dai bidoni della
spazzatura statunitensi non ci forniranno tutte le risposte, ma sicuramente ci
avvicinano a quelle prime comunità umane che si ritrovarono a condividere gli
spazi con un’altra specie e che, a un certo punto di quella convivenza, si
impegnarono a legare la propria vita a quella di quegli animali per sempre.
L'articolo L’invenzione degli animali domestici proviene da Il Tascabile.
Tag - Scienze
N el Godzilla originale, il capolavoro di Ishirō Honda datato 1954, il noto
lucertolone era alto 50 metri e pesante 20.000 tonnellate. Le sue misure hanno
continuato a crescere negli anni fino alle sue iterazioni più recenti, quando ha
superato le 80.000 tonnellate (nelle versioni hollywoodiane) e i 300 metri
d’altezza (nel giapponese Godzilla: Planet of the Monsters, 2017). Nel King Kong
del 1933, l’arcinoto scimmione era alto 15 metri e pesava intorno alle 20
tonnellate; oggi, in Godzilla vs. Kong (2021) e Godzilla e Kong – Il nuovo
impero (2024), arriva a superare i 100 metri di altezza e a toccare un peso di
90.000 tonnellate. Ancora: lo squalo dell’omonimo film di Spielberg del 1975 è
lungo una volta e mezzo un vero squalo bianco; l’anaconda di Anaconda tocca i 15
metri, più del doppio di quanto sia davvero lungo questo serpente; le formiche
di Assalto alla Terra (1954) sono grosse come cani. E per amor di sintesi mi sto
limitando ai film: dovessi allargare il discorso a fumetti, videogiochi,
romanzi, ma anche a miti, leggende, fiabe e favole, il pezzo raggiungerebbe
proporzioni paragonabili a ciò di cui parla. Incrociando questi dati, comunque,
si giunge a una conclusione difficilmente contestabile: ci piacciono le creature
gigantesche (anche note nell’ambiente come mostri grossi), e più in generale
tutto ciò che ha dimensioni ciclopiche.
Ci piacciono in particolar modo tutte quelle creature che sono identiche
nell’aspetto a specie animali esistenti, ma con proporzioni fuori scala: ragni,
serpenti, scorpioni, zanzare hanno tutti subito prima o poi un’opera di
ingigantimento che li ha trasformati in minacce adeguate per un film. E anche
guardando al di fuori della cultura pop: non è un caso che i dinosauri abbiano
avuto fin da subito un’enorme presa sull’immaginario collettivo, e con loro i
mammiferi giganti (orsi, lupi, leoni, cavalli) che abbiamo scoperto essergli
succeduti. C’è un’idea, che risale al Diciannovesimo secolo, secondo cui il
passato remoto era popolato da giganti, e a noi esseri umani odierni
rimarrebbero solo le briciole, versioni in formato minore dei mostri grossi che
un tempo dominavano la Terra: la nostra passione per loro è anche una forma di
nostalgia per epoche che non abbiamo mai vissuto. Da grande amante della materia
“mostri”, che si trova al perfetto incrocio tra scienza e cinema, ritengo però
sia giusto fare un po’ di chiarezza, sfatare alcuni miti, confermarne altri e
anche omaggiare i pochi giganti che ancora abbiamo sul pianeta.
> L’idea che un tempo gli animali fossero più grandi è tanto affascinante quanto
> inesatta. Le specie di piccole dimensioni sono sempre esistite e non c’è
> alcuna relazione lineare tra il passare del tempo e il generico rimpicciolirsi
> delle forme di vita.
Partiamo da un presupposto fondamentale per impostare l’intero discorso: l’idea
che un tempo gli animali fossero più grandi è tanto affascinante quanto
sbagliata, o per lo meno inesatta. Le specie di piccole o minuscole dimensioni
sono sempre esistite e non esiste alcuna relazione lineare tra il passare del
tempo e il generico rimpicciolirsi di ogni forma di vita. È vero invece che ci
sono forme che in passato erano più grandi delle loro versioni attuali, e che ci
sono stati periodi nei quali le dimensioni di certi gruppi erano superiori alla
media delle altre epoche. Semplificando, se ne possono individuare quattro, e il
più antico risale a circa 360 milioni di anni fa.
Insetti mostruosi
Durante il Carbonifero, i livelli di ossigeno – che era comparso sulla scena
atmosferica circa 500 milioni di anni prima, contribuendo in maniera decisiva
all’esplosione della vita multicellulare – salirono rapidamente, fino ad
arrivare a una concentrazione del 35% (quindi molto superiore a quella attuale,
che non supera il 21%). Oltre a causare più incendi, l’ossigeno ebbe anche un
effetto tangibile su un gruppo che era comparso sulla scena alla fine del
periodo precedente, il Devoniano: parlo degli insetti, che ne sfruttarono le
alte concentrazioni per raggiungere dimensioni che non si sono più viste da
allora.
> La concentrazione di ossigeno in atmosfera ha un legame diretto con la taglia
> degli artropodi. Nel carbonifero, i livelli salirono al punto da consentire
> l’emergere di libellule, millepiedi e scorpioni fuori scala.
Il segreto del loro gigantismo sta nella respirazione: essendo privi di polmoni,
gli insetti respirano passivamente, diffondendo l’aria attraverso strutture
chiamate trachee. Questo pone un limite alle dimensioni massime che può
raggiungere un insetto: se è troppo grosso, rischia il soffocamento, perché
l’aria non riesce a diffondersi in maniera efficace nel suo sistema
respiratorio.
La concentrazione di ossigeno in atmosfera ha quindi un legame diretto con la
taglia degli insetti: più ce n’è, più la diffusione è efficace, più possono
crescere. E così durante il Carbonifero solcava i cieli Meganeura monyi, una
libellula con 70 centimetri di apertura alare, che verrà battuta solo nel
Permiano dalla sua parente Meganeuropsis permiana. A farle concorrenza in
termini di dimensioni c’era Mazothairos enormis, il cui nome è già un programma:
assomigliava a una cavalletta ma apparteneva a un ordine estinto,
Palaeodictyoptera, e raggiungeva i 55 centimetri di apertura alare. E anche
sulla terraferma abbondavano i giganti: Arthropleura, per esempio, che in realtà
non era un insetto ma un millepiedi, superava i 2 metri di lunghezza, una misura
mai più raggiunta da nessun artropode terrestre. E per finire, un incubo per gli
aracnofobi: Pulmonoscorpius era uno scorpione che viveva nelle paludi del
Carbonifero, e poteva superare i 70 centimetri di lunghezza.
Quando i giganti dominavano la Terra
Gli insetti enormi sono affascinanti, ma concorderete con me che, se si parla di
giganti, l’immaginazione corre subito a quelle famose bestie che dominavano la
Terra fino a che non sono state spazzate via quasi tutte da un asteroide (e da
altri fattori concomitanti che ignoreremo per amor di brevità). I dinosauri, e
più in generale i rettili del Mesozoico, sono i mostri grossi più conosciuti e
amati della storia della vita sul pianeta. Furono di fatto protagonisti sia
della seconda sia della terza era dei giganti, le quali avvennero quasi in
contemporanea, e videro i titani diffondersi sia sulla terraferma sia negli
oceani.
Per spiegare come abbiano fatto i dinosauri (e i plesiosauri, e i mosasauri, e
gli pterosauri) a raggiungere dimensioni che i rettili attuali non sfiorano
neanche, vale la pena fare un salto indietro nel tempo di un paio di secoli,
quando Edward Drinker Cope, uno dei padri della paleontologia, propose quella
che sarebbe stata poi battezzata “legge di Cope”, e che postula che tutti gli
animali tendano a diventare più grossi con l’evoluzione e il passare del tempo.
Discussa fin da quando venne formulata, smentibile con innumerevoli esempi
contrari (per citare un animale caro a Cope, è vero che i primi cavalli erano
grossi come cani, ma quelli attuali sono più piccoli dei loro antenati), la
legge di Cope ha diviso per decenni i paleontologi, fino a quando è stata
mirabilmente sintetizzata e riletta in questo studio, utile anche a rispondere
alla domanda iniziale.
> Quando acqua e cibo sono abbondanti, la competizione intraspecifica per le
> risorse diminuisce: è quello che nel Giurassico ha portato alla comparsa dei
> grandi sauropodi erbivori. Quando invece le risorse scarseggiano, la tendenza
> è opposta.
È vero, dice lo studio, che la dimensione degli animali cresce con il passare
del tempo. O meglio: può crescere, se non entrano in gioco fattori limitanti.
Quando e dove acqua e cibo sono abbondanti, la competizione intraspecifica per
le risorse diminuisce: è quello che è successo nel Giurassico, e che ha portato
alla comparsa dei grandi sauropodi erbivori, da Brachiosaurus (25 metri di
lunghezza per 50 tonnellate di peso) a Diplodocus (27 metri, 20 tonnellate),
passando per Supersaurus, che si pensa potesse raggiungere i 40 metri di
lunghezza. La legge di Cope, dunque, funziona sì, ma solo in condizioni ideali:
se le risorse cominciano a scarseggiare, la tendenza diventa quella di
rimpicciolire. Incidentalmente, è anche per questo che si estinguono i giganti:
gli animali troppo grandi che si ritrovano all’improvviso senza cibo a
sufficienza non fanno in tempo a rimediare diventando più piccoli. Il fatto poi
che le specie più grosse abbiano popolazioni meno numerose le rende
ulteriormente vulnerabili a cambiamenti ambientali drastici: è il motivo per cui
gli unici dinosauri sopravvissuti a Chicxulub sono gli uccelli, che per quanto
grandi non hanno mai raggiunto le dimensioni dei loro antenati estinti.
La stessa versione riveduta e corretta della legge di Cope si può applicare ai
grandi rettili marini del Mesozoico (mosasauri, plesiosauri, ittiosauri, ecc.)
tutti gruppi che comprendono specie che hanno raggiunto anche i 20 metri di
lunghezza quando le risorse nei mari erano abbondanti, e che sono scomparsi nel
giro di poche centinaia di migliaia di anni perché non sono riusciti ad
adattarsi al nuovo mondo post-asteroide (e anche per colpa della concorrenza
degli squali, pericolosissimi ultimi arrivati). Uno schema simile a quanto
successo anche ai protagonisti della quarta era dei giganti, nella quale però
entriamo in gioco anche noi, cambiando (forse per sempre) gli equilibri.
Cacciatori di giganti
Il Pleistocene, cominciato 2,6 milioni di anni fa e finito 11.700 anni fa, fu
un’epoca caratterizzata da tre cose: i mammiferi giganti, il gran freddo e la
comparsa di Homo sapiens. I primi due fattori sono intimamente collegati:
formulata nel 1847 dall’eponimo biologo tedesco, la regola di Bergmann prevede
che più fa freddo, più gli animali di uno stesso gruppo diventino più grossi dei
loro parenti che vivono al caldo. Regola smentita e contestata più volte, ma è
vero che, in un clima mediamente più freddo, le grandi dimensioni aiutano:
diminuisce il rapporto superficie/volume, ed è più facile conservare il calore.
Se a questo si aggiunge l’abbondanza di risorse e soprattutto di territorio (le
glaciazioni fecero abbassare il livello dei mari e “liberarono” vaste aree di
terraferma), si capirà perché, per esempio, il mammut lanoso arrivava a 3,5
metri di altezza al garrese; o il megaterio, un bradipo gigante, raggiungeva i 6
metri di lunghezza e le 4 tonnellate di peso.
> La fine dell’era glaciale, e i cambiamenti climatici conseguenti, sono spesso
> indicati come uno dei fattori decisivi dietro l’estinzione della megafauna, ma
> c’è un’altra ipotesi altrettanto valida: è colpa nostra.
Indicati con il nome collettivo di “megafauna”, i mammiferi del Pleistocene si
estinsero in massa nel giro di 40.000 anni, con zone del mondo come il
continente americano dove la strage si concentrò in meno di 3.000 anni. La fine
dell’era glaciale, e i cambiamenti climatici conseguenti, sono spesso indicati
come uno dei fattori decisivi dietro questa estinzione, ma c’è un’altra ipotesi
altrettanto valida e altrettanto studiata: è colpa nostra. L’arrivo sulla scena
del genere Homo, e della nostra specie in particolare, trasformò gli erbivori
giganti in prede ideali, che vennero cacciate fino all’estinzione; ne subirono
le conseguenze anche i predatori (per esempio Smilodon, la tigre dai denti a
sciabola, che poteva superare i 400 chilogrammi di peso), non equipaggiati per
resistere alla nostra concorrenza, sia in termini di sottrazione delle risorse
sia di caccia attiva. È un’idea che ha raccolto sempre più attenzione negli
ultimi anni, e anche i più scettici ammettono che sia possibile che dietro
l’estinzione delle megafaune non ci siano stati solo i cambiamenti climatici, ma
una combinazione di fattori, tra cui quello umano fu decisivo.
Il futuro dei giganti
Considerando quello che abbiamo fatto al mondo animale negli ultimi 10.000 anni,
non è difficile crederci: che esista o meno, l’Antropocene si sta rivelando
l’incubo di tutti gli amanti dei mostri grossi. Gli animali (e le piante) stanno
diventando sempre più piccoli: i motivi sono sempre gli stessi (cambiamenti
climatici, scarsità di risorse, distruzione dell’habitat), ma accelerati a ritmi
insostenibili dalle nostre attività. Se è vero che i fattori limitanti per la
crescita di un organismo sono la disponibilità di risorse e le condizioni
climatiche (ed ecologiche) nelle quali vive, la nostra crescita incontrollata ha
ridotto le prime e deteriorato le seconde, al punto che, al di fuori degli
animali domestici, sono pochissime le specie che possono dire di avere più
risorse a disposizione da quando esistiamo noi. In particolare, stanno
beneficiando della nostra presenza le specie più adattabili e tetragone
all’urbanizzazione: gli scoiattoli grigi, per esempio, stanno crescendo di
dimensioni perché hanno a disposizione più risorse (le nostre).
> Le condizioni attuali rendono sempre più difficile la sopravvivenza di animali
> giganti, questo perché la nostra crescita incontrollata ha ridotto la
> disponibilità di risorse e deteriorato le condizioni climatiche ed ecologiche.
Ma si tratta di eccezioni a un trend molto evidente, che ci dice che anche i
pochi giganti rimasti stanno rimpicciolendo: sta succedendo ad alcune balene,
agli squali, e ai bisonti. Siamo dunque destinati a un futuro di animali sempre
più piccoli, nel quale tutti gli ippopotami saranno Moo Deng? La risposta più
semplice è “sì”, nel senso che se la traiettoria dovesse rimanere questa, gli
animali continueranno a rimpicciolirsi per colpa nostra. C’è chi è convinto che
la soluzione a questa perdita di biodiversità (gli animali grossi hanno un ruolo
decisivo nel funzionamento degli ecosistemi) sia guardare al passato: è
possibile che abbiate sentito parlare di Colossal Biosciences, startup
statunitense che è solo l’ultima di una lista di imprese private che si sono
messe in testa di tentare la de-estinzione di animali scomparsi: mammut e dodo
sono di solito i candidati principali, ma Colossal sostiene di recente di avere
de-estinto un enocione, il “lupo terribile” vissuto nel Pleistocene (nonostante
il risultato dell’esperimento sia di fatto nient’altro che una modificazione
genetica del lupo grigio), e ora punta al moa, uno degli uccelli più grossi di
sempre.
L’elenco dei problemi scientifici ed etici dietro la de-estinzione è però lungo
quanto un elenco del telefono, e da approfondire eventualmente altrove.
Preferisco proporvi una visione alternativa: non è del tutto vero che i mostri
grossi siano scomparsi, ce li abbiamo anche noi e dobbiamo pensare a tutelare
loro prima che a riportare in vita specie estinte. Prendete la balenottera
azzurra: con i suoi 30 metri di lunghezza e 200 tonnellate di peso è l’animale
più grande mai esistito, più “mostro grosso” anche del più grosso dei dinosauri.
Un elefante africano non è tanto più piccolo di un mammut, il varano di Komodo
può raggiungere i 3 metri di lunghezza e il coccodrillo marino arrivare a 7 e
pesare una tonnellata. Sono tutte specie le cui dimensioni rappresentano per
loro, nel contesto climatico ed ecologico attuale, un pericolo enorme: corriamo
il rischio di portare all’estinzione i nostri ultimi giganti, con l’aggravante
che questa volta sappiamo che sta succedendo.
L'articolo La scomparsa dei giganti proviene da Il Tascabile.
P roviamo a immaginare questa scena: siamo nello studio di un ambulatorio
ospedaliero di medicina interna. Il monitor è acceso da qualche minuto. La
cartella clinica digitale è completa: anamnesi, esami ematochimici, imaging, una
serie di indicatori sintetizzati in grafici che scorrono ordinati sulla destra
dello schermo. In basso, evidenziata in un riquadro discreto ma visivamente
centrale, compare una raccomandazione: probabilità di beneficio elevata, rischio
accettabile, consigliato l’avvio di una terapia anticoagulante in un paziente
con fibrillazione atriale e profilo di rischio tromboembolico significativo. Il
medico legge, rilegge, poi alza lo sguardo verso il paziente seduto di fronte a
lui. La decisione, almeno formalmente, spetta ancora a lui.
Non c’è nulla di coercitivo in quel suggerimento. Nessun allarme rosso, nessun
obbligo esplicito. Eppure, il peso che esercita è tangibile. Non perché imponga
una scelta, ma perché la rende asimmetrica: accoglierla significa seguire una
traiettoria già validata, statisticamente fondata, condivisa da
un’infrastruttura che promette affidabilità; discostarsene richiede invece una
giustificazione ulteriore, una deviazione consapevole che dovrà essere spiegata,
forse difesa. In questo scarto silenzioso prende forma una nuova condizione
della decisione clinica contemporanea: un atto che resta umano nella sua firma
finale, ma che viene preparato, orientato e in parte anticipato da sistemi
tecnologici sempre più pervasivi, come accade nei sistemi di supporto alle
decisioni cliniche (CDSS, Clinical Decision Support Systems), software che
analizzano dati sanitari e suggeriscono possibili decisioni terapeutiche,
affiancando il giudizio clinico senza sostituirlo.
> Studi clinici hanno mostrato che modelli di deep learning possono raggiungere
> prestazioni comparabili o superiori a quelle degli specialisti
> nell’identificazione di patologie come tumori cutanei o lesioni radiologiche
> complesse.
Scene come questa non sono eccezionali. Si ripetono quotidianamente in reparti
ospedalieri, ambulatori, pronto soccorso. A volte il suggerimento arriva sotto
forma di punteggio di rischio inteso come una stima numerica della probabilità
che si verifichi un determinato evento clinico, altre come raccomandazione
terapeutica, altre ancora come priorità di accesso a una procedura. Cambia
l’interfaccia, non la logica sottostante: un insieme di modelli predittivi,
regole apprese dai dati, correlazioni statistiche trasformate in indicazioni
operative.
Studi clinici hanno mostrato che modelli di deep learning, cioè sistemi
informatici che apprendono a riconoscere schemi complessi analizzando grandi
quantità di dati, in modo simile a come l’esperienza permette agli esseri umani
di affinare il riconoscimento visivo, possono raggiungere prestazioni
comparabili o superiori a quelle degli specialisti nell’identificazione di
alcune patologie, come tumori cutanei o lesioni radiologiche complesse,
contribuendo a migliorare l’accuratezza diagnostica e la stratificazione del
rischio nei pazienti. In questi contesti, l’intelligenza artificiale (IA) non
sostituisce il medico, ma amplia la sua capacità di osservazione, rendendo
disponibili informazioni che difficilmente emergerebbero dall’esperienza
individuale. La decisione resta nelle mani del clinico, ma viene indirizzata
verso opzioni considerate ragionevoli, efficienti e più facilmente
giustificabili, che orientano il percorso di cura.
La scena raccontata a inizio articolo ha radici lontane. Già nel Novecento i
primi sistemi di supporto alle decisioni cliniche aiutavano il medico a ridurre
la variabilità e l’errore, affiancando il giudizio umano con strumenti
oggettivi. Tra questi primi sistemi c’era ad esempio MYCIN, sviluppato negli
anni Settanta all’Università di Stanford, che aiutava a diagnosticare infezioni
batteriche e suggeriva dosaggi di antibiotici basandosi su un insieme di regole
codificate dagli esperti. Sempre in quegli anni, altri sistemi, come
Internist-1, fornivano supporto nella diagnosi di malattie complesse, chiedendo
al medico di inserire sintomi e segni clinici per ottenere un elenco di
possibili diagnosi ordinate per probabilità. All’epoca si trattava di strumenti
relativamente semplici, costruiti su poche variabili e su schemi decisionali
predefiniti; oggi parliamo, invece, di modelli complessi, addestrati su milioni
di dati, in grado di cogliere pattern invisibili all’esperienza individuale. Ma
il nodo concettuale resta sorprendentemente simile: come cambia una decisione
quando non nasce più soltanto dal sapere di una persona, ma da un’infrastruttura
che combina l’intelligenza di esseri umani e macchine, come già avveniva nei
primi sistemi esperti medici sviluppati negli anni Settanta.
> L’intelligenza artificiale non decide al posto del medico, piuttosto
> costruisce l’orizzonte entro cui la decisione prende forma. Il risultato è una
> forma di delega parziale, che non elimina la responsabilità individuale ma la
> riorganizza.
Un episodio spesso citato nella storia della medicina computazionale riguarda
l’introduzione dei primi sistemi di triage algoritmico nei pronto soccorso
statunitensi. Nati per gestire l’aumento dei flussi e ridurre i tempi di attesa,
questi strumenti promettevano di assegnare le priorità in modo più equo e
razionale. Il personale restava libero di intervenire, di modificare l’ordine
suggerito. Tuttavia, col tempo, la deviazione dalla raccomandazione algoritmica
iniziò a essere percepita come un’eccezione da giustificare, non come una delle
alternative legittime. Il criterio implicito non era più soltanto “che cosa è
meglio per questo paziente”, ma anche “che cosa è difendibile rispetto a ciò che
il sistema indica”, una dinamica che diventa particolarmente visibile quando gli
algoritmi incidono sulla distribuzione delle risorse sanitarie.
Un caso emblematico riguarda un algoritmo ampiamente utilizzato negli Stati
Uniti per identificare i pazienti che necessitavano di programmi di assistenza
sanitaria intensiva. Studi successivi hanno mostrato che il sistema sottostimava
sistematicamente i bisogni dei pazienti neri rispetto a quelli bianchi con
condizioni cliniche simili, perché utilizzava i costi sanitari sostenuti in
passato come proxy dello stato di salute. Poiché storicamente i pazienti neri
avevano avuto minore accesso alle cure, il modello interpretava questa minore
spesa come indicatore di minore gravità clinica, riproducendo e amplificando una
disuguaglianza preesistente. L’errore non nasceva da una decisione
discriminatoria esplicita, ma dalla logica statistica incorporata nel sistema.
Qui emerge il nodo centrale della questione. La decisione resta, sulla carta, un
atto umano: qualcuno clicca, firma, approva. Ma il contesto in cui quella
decisione viene presa è radicalmente trasformato. L’IA non decide al posto del
clinico; piuttosto, costruisce l’orizzonte entro cui la decisione prende forma,
stabilendo ciò che appare normale, probabile, raccomandabile. Il risultato è una
forma di delega parziale, spesso impercettibile, che non elimina la
responsabilità individuale ma la riorganizza.
Riflettere su questo passaggio non significa denunciare una perdita di umanità
né invocare un ritorno a un passato idealizzato. Significa piuttosto rendere
visibile un passaggio spesso dato per scontato: quello in cui la decisione, pur
restando formalmente umana, viene progressivamente trasformata in un atto di
ratifica di suggerimenti prodotti altrove. È da questo punto che occorre partire
per interrogarsi sul ruolo dell’intelligenza artificiale in sanità, non come
semplice strumento tecnico, ma come dispositivo culturale che ridefinisce il
modo in cui decidiamo, giudichiamo e assumiamo responsabilità.
Decidere, giudicare, approvare: una breve genealogia culturale
Decidere non è mai stato un gesto semplice. Nella tradizione occidentale, la
decisione è stata a lungo pensata come un atto puntuale, un momento in cui il
giudizio si cristallizza, assumendo la forma di una scelta che impegna chi la
compie. Ma questo atto è sempre stato sostenuto da un processo più ampio, fatto
di valutazioni, confronti, mediazioni e, soprattutto, da un’assunzione di
responsabilità che non si esaurisce nell’istante della scelta.
Nel contesto clinico, questa stratificazione è particolarmente evidente. Il
medico non decide soltanto, ma giudica sulla base della propria esperienza,
interpreta segni e sintomi, assume su di sé il rischio dell’errore. La decisione
non coincide con la procedura, ma con la capacità di rispondere delle
conseguenze di ciò che si è scelto di fare o di non fare.
A partire dal Novecento, questo equilibrio comincia lentamente a spostarsi. Con
l’espansione delle organizzazioni complesse e della burocrazia moderna, il
giudizio individuale viene progressivamente affiancato da procedure
standardizzate. Max Weber descriveva questo passaggio come una razionalizzazione
necessaria: regole formali, criteri impersonali, processi replicabili servono a
garantire equità, prevedibilità, controllo. La decisione, in questo schema, non
scompare, ma viene incastonata in una sequenza di passaggi che ne delimitano il
perimetro.
> Il medico non decide soltanto, ma giudica sulla base della propria esperienza
> e si assume il rischio dell’errore. La decisione non coincide con la
> procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è
> scelto di fare. O di non fare.
In altre parole, il giudizio si trasforma progressivamente in procedura: l’atto
decisionale diventa il punto finale di un percorso già in gran parte tracciato.
Questo spostamento non modifica solo il modo di decidere, ma ridefinisce il
significato stesso della responsabilità: se la decisione è l’esito “corretto” di
una procedura correttamente seguita, la responsabilità tende a spostarsi
dall’atto al processo. Non si tratta più di dire “ho deciso questo”, ma di poter
affermare “ho seguito ciò che era indicato”. È su questa trasformazione, spesso
silenziosa, che opera oggi l’intelligenza artificiale.
Che cosa fa oggi l’IA generativa in sanità
Quando si parla di intelligenza artificiale in sanità, l’immaginario oscilla tra
due estremi: da un lato la promessa di macchine che decidono al posto dei
medici, dall’altro l’idea rassicurante di strumenti neutrali che si limitano a
“supportare” il lavoro umano. La realtà è più sfumata e più interessante. Oggi
l’IA generativa e predittiva opera principalmente come infrastruttura
decisionale. Non prende decisioni cliniche autonome, ma organizza informazioni,
suggerisce interpretazioni, propone priorità. Nei sistemi di supporto
diagnostico, analizza immagini, testi clinici, dati di laboratorio per
individuare pattern compatibili con determinate condizioni. Nei modelli
predittivi, stima rischi futuri: progressione di malattia, probabilità di eventi
avversi, risposta a un trattamento.
Nel triage e nella stratificazione del rischio, questi sistemi contribuiscono a
ordinare i pazienti secondo criteri di urgenza o complessità, allocando risorse
scarse ‒ tempo, posti letto, interventi ‒ in modo ritenuto più efficiente. Nelle
raccomandazioni cliniche, integrano linee guida e dati individuali per suggerire
opzioni terapeutiche personalizzate.
È importante notare che, nella maggior parte dei casi, non si tratta di
automazione della scelta, ma di automazione del contesto decisionale. L’IA non
dice “fai questo”, ma costruisce un ambiente in cui alcune opzioni emergono come
naturali, altre come marginali. Rende alcune decisioni più rapide, più
giustificabili, più difendibili. E, così facendo, ridefinisce ciò che appare
ragionevole.
> Quando qualcosa va storto, l’errore non è più attribuibile a un singolo
> individuo, ma al sistema nel suo complesso: non c’è colpa, ma
> malfunzionamento; non responsabilità, ma errore tecnico.
Questa infrastruttura è spesso invisibile. Il clinico vede il risultato, un
punteggio, una raccomandazione, ma non il lavoro di selezione, pesatura e
normalizzazione che lo ha prodotto. L’intelligenza artificiale non si presenta
come un nuovo decisore, ma come uno sfondo operativo che accompagna ogni gesto.
Il clic che decide
Non è solo la sanità a sperimentare la frammentazione delle decisioni. Accade
ogni volta che ci affidiamo a sistemi che guidano le nostre scelte: per esempio,
lasciamo che algoritmi filtrino i candidati per una posizione lavorativa prima
ancora che qualcuno li valuti personalmente; utilizziamo valutazioni di rischio
prodotte da sistemi finanziari o assicurativi per orientare decisioni economiche
e contrattuali; accettiamo i suggerimenti delle piattaforme digitali, cosa
guardare, cosa comprare, cosa leggere, senza conoscere i criteri con cui quelle
raccomandazioni sono state prodotte. In tutti questi casi, la decisione viene
scomposta in microdeleghe: nessuno decide tutto, ma ciascuno approva un
passaggio. Quando qualcosa va storto, l’errore non è più attribuibile a un
singolo individuo, ma al sistema nel suo complesso: non c’è colpa, ma
malfunzionamento; non responsabilità, ma errore tecnico. Gli studi sul bias di
automazione spiegano come gli operatori tendano a fidarsi dei suggerimenti delle
macchine anche quando sono errati, perché seguire la raccomandazione riduce il
carico cognitivo.
In sanità, questo crea un paradosso: il medico resta formalmente responsabile,
ma il margine effettivo di intervento si riduce, e la responsabilità si sposta
dal gesto decisionale al clic finale: non “che cosa hai deciso”, ma “perché non
hai seguito ciò che era indicato”. La letteratura sulle responsabilità mediche
nell’era dell’IA sottolinea come la supervisione umana rimanga obbligatoria e
non possa essere semplicemente delegata alla tecnologia. Sistemi di supporto
decisionale come quelli utilizzati nella prescrizione elettronica di farmaci
possono ridurre alcuni errori, ma introducono nuove vulnerabilità quando il
medico si affida senza verificarne le indicazioni. Studi sull’uso di sistemi di
allerta clinica hanno mostrato che i professionisti tendono talvolta ad
accettare le raccomandazioni algoritmiche senza verificarle criticamente,
soprattutto in condizioni di carico cognitivo elevato, mentre in altri casi
sviluppano una forma di assuefazione agli avvisi ripetitivi, ignorando segnali
potenzialmente rilevanti. Questo fenomeno, noto come automation bias, cioè la
tendenza a fidarsi eccessivamente delle indicazioni dei sistemi automatizzati,
non elimina il ruolo umano, ma lo trasforma: il rischio non è più soltanto
l’errore individuale, ma l’interazione imperfetta tra operatore e sistema.
> In alcuni casi gli operatori tendono a fidarsi dei suggerimenti delle macchine
> anche quando sono errati, sia perché seguire la raccomandazione riduce il
> carico cognitivo, sia perché una scelta alternativa potrebbe comportare
> responsabilità legali.
È qui che emerge lo slittamento cruciale: quando un suggerimento è ragionevole,
tempestivo e probabilistico, diventa difficile ignorarlo. Non perché sia
obbligatorio seguirlo, ma perché offre la via di minor resistenza. La decisione
non viene sottratta, ma alleggerita e trasformata. Il clinico resta libero di
fare diversamente, ma questa libertà è asimmetrica: seguire la raccomandazione
richiede poco (un clic, una firma, un’approvazione) mentre deviare comporta
lavoro cognitivo e morale extra, spiegazioni, documentazioni, assunzione di
rischi clinici, organizzativi e legali. Questioni etiche come trasparenza,
responsabilità e bias nei sistemi di IA sono tra i nodi critici nel dibattito
sull’integrazione dell’IA nei processi clinici.
Nei casi di terapia intensiva, ad esempio, scegliere un trattamento diverso da
quello suggerito dai modelli predittivi può comportare responsabilità legali e
giustificazioni agli audit clinici, anche quando la deviazione è clinicamente
motivata. La decisione tende così a diventare ratifica: non per rinuncia
consapevole, ma come esito naturale di un processo che ha già selezionato
l’opzione “migliore”. La velocità del suggerimento e l’aura di oggettività che
lo accompagna ‒ numeri, percentuali, modelli ‒ funzionano come criteri morali
impliciti: ciò che è rapido e calcolato appare anche giusto. La responsabilità
resta sempre del medico, ma cambia forma: non riguarda tanto la scelta in sé,
quanto il seguire, o non seguire, i suggerimenti del sistema. La libertà di
decidere esiste ancora, ma è più difficile da esercitare e spesso poco visibile.
Agentività residuale e libertà formale
L’effetto di questi meccanismi non è tanto l’eliminazione della libertà
decisionale, quanto la sua progressiva rarefazione. La possibilità di scegliere
diversamente rimane formalmente intatta, ma perde centralità nella pratica
quotidiana. La decisione autonoma non scompare, ma viene spostata ai margini,
trasformata in evento eccezionale, da attivare solo quando qualcosa interrompe
il flusso ordinario del lavoro clinico.
L’agentività che resta, cioè il margine reale di decisione e di azione autonoma
del clinico, la sua capacità effettiva di agire intenzionalmente e assumersi la
responsabilità delle proprie scelte, è residuale. Non perché sia stata abolita,
ma perché è stata resa onerosa. La libertà decisionale sopravvive come
eccezione, non come norma. In molti settori tecnologici, dall’aviazione alla
finanza algoritmica, si osserva un fenomeno simile: gli operatori formalmente
possono intervenire, ma ogni deviazione dai protocolli automatizzati richiede
una documentazione aggiuntiva e aumenta il rischio di responsabilità. Anche la
storia della medicina offre paralleli. L’introduzione dei protocolli di
sicurezza chirurgica o dei sistemi di prescrizione elettronica ha ridotto gli
errori, ma ha trasformato la libertà decisionale individuale in un esercizio
oneroso e spesso invisibile.
> La questione non è scegliere tra autonomia umana e automazione, ma riconoscere
> ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che il
> giudizio clinico rischia di ridursi a conferma di opzioni già selezionate
> altrove.
In questo contesto, la frase “si poteva fare diversamente” perde il suo
significato morale. Non indica più una possibilità reale, ma una clausola
formale che tutela il sistema, non chi decide. È una libertà che esiste sulla
carta, ma nella pratica diventa spesso solo una scelta teorica, costosa in
termini di tempo, responsabilità e stress cognitivo. Il margine di decisione
personale non scompare, ma si nasconde, e chi la esercita deve confrontarsi con
un doppio vincolo: quello della ragione clinica e quello della difendibilità
organizzativa.
Abitare lo spazio intermedio
La medicina non è mai stata un atto solitario: il giudizio medico si è sempre
formato all’interno di apparati tecnici, protocolli e strumenti che ne hanno
orientato l’esercizio. Ciò che cambia oggi non è la presenza della tecnologia,
ma la sua capacità di strutturare in anticipo ciò che appare come una decisione
ragionevole. La questione, allora, non è scegliere tra autonomia umana e
automazione, ma riconoscere ciò che accade nello spazio intermedio tra
suggerimento e scelta. È lì che la raccomandazione algoritmica diventa norma
implicita, è lì che il giudizio clinico rischia di ridursi a conferma di opzioni
già selezionate altrove. L’agentività che sopravvive non scompare, ma si
restringe: non viene negata, viene resa costosa, eccezionale, giustificabile
solo a posteriori. In questo contesto, lo scostamento dal suggerimento non è più
un gesto ordinario del ragionamento clinico, ma un atto che deve essere difeso.
La responsabilità non riguarda più tanto ciò che si decide, quanto il motivo per
cui non si è aderito a ciò che era indicato.
L’intelligenza artificiale può rendere le decisioni più rapide, più coerenti,
più difendibili, ma proprio per questo rischia di rendere meno visibile il
momento in cui qualcuno decide davvero. In alcuni casi, gli strumenti predittivi
hanno migliorato sensibilmente diagnosi e allocazione delle risorse: ad esempio,
modelli predittivi in oncologia hanno aumentato la precisione nella
classificazione dei pazienti e nella personalizzazione dei trattamenti,
migliorando gli esiti clinici rispetto ai metodi tradizionali. Allo stesso
tempo, alcuni studi documentano come algoritmi di supporto decisionale possano
riprodurre e amplificare bias preesistenti, generando disparità nei risultati
tra gruppi etnici o razziali, specialmente quando i dati di addestramento non
sono rappresentativi della popolazione reale; in ambito diagnostico, sono state
osservate anche prestazioni peggiori dell’IA su immagini di pazienti con
caratteristiche meno rappresentate nei dataset, come alcune condizioni
dermatologiche o popolazioni con fenotipi cutanei diversi.
Questi esempi illustrano due facce della stessa medaglia: l’IA può ampliare la
capacità diagnostica e decisionale, eppure può anche riprodurre disuguaglianze
sanitarie e introdurre errori sistematici se non adeguatamente progettata,
validata e monitorata. In ultima analisi, la diffusione dell’intelligenza
artificiale non elimina la responsabilità individuale, la riorganizza. Non siamo
più davanti a un medico che decide “da solo”, ma a un professionista che decide
entro un contesto tecnologico e culturale in continua evoluzione, che richiede
non solo competenza tecnica, ma anche consapevolezza delle implicazioni etiche e
sociali associate all’uso dell’IA in sanità.
> L’IA può ampliare la capacità diagnostica e decisionale, ma può anche
> riprodurre disuguaglianze sanitarie e introdurre errori sistematici, se non
> adeguatamente progettata, validata e monitorata.
È proprio in questa riorganizzazione che emerge il cambiamento più rilevante:
una medicina in cui la firma continua ad apparire, e il consenso viene
formalmente ottenuto, può assumere un valore sempre più simbolico o ridursi a
una percezione di controllo, mentre le scelte realmente operative vengono
guidate, in parte, da algoritmi e infrastrutture complesse. La responsabilità
non scompare, ma si sposta e si distribuisce lungo una catena decisionale più
ampia, nella quale diventa meno immediato riconoscere chi abbia davvero deciso.
Abitare consapevolmente questo spazio intermedio, tra suggerimento e scelta, tra
supporto e delega, non è allora un limite della medicina contemporanea, ma la
condizione necessaria per preservarne la libertà e il senso di responsabilità
nell’epoca dell’intelligenza artificiale.
L'articolo Doctor ex machina proviene da Il Tascabile.
Q uando si parla di biodiversità alpina, la prima cosa che viene in mente
probabilmente sono gli animali. Solo in un secondo momento alberi e fiori,
forse, a causa della cosiddetta plant blindness, la nostra tendenza a prestare
meno attenzione alle piante rispetto a umani e animali. Ma a pochi verrà da
pensare agli ortaggi che coltiviamo. Il che è un problema, perché le valli
alpine custodiscono un tesoro spesso dimenticato: centinaia di varietà agricole
tradizionali che rappresentano non solo un patrimonio agroalimentare, ma anche
una risorsa strategica per l’agricoltura del futuro.
Le montagne come scrigni di biodiversità
La maggior parte di queste varietà si concentra nelle aree montane, in
particolare lungo l’Appennino e nelle grandi valli alpine come la Valtellina e
la Valle Camonica. Mentre le pianure sono state progressivamente destinate a
colture intensive con ibridi moderni, le montagne hanno conservato in misura
maggiore queste risorse genetiche. Per ibridi si intendono quelle varietà
vegetali ottenute attraverso l’incrocio controllato di due linee parentali
geneticamente diverse, selezionate per combinare caratteristiche desiderabili.
Il processo sfrutta il fenomeno del “vigore ibrido”: la prima generazione (F1)
spesso mostra prestazioni superiori in termini di resa, uniformità, resistenza a
malattie e parassiti rispetto a entrambi i genitori. C’è, però, un aspetto
particolarmente critico: gli agricoltori devono riacquistare i semi ogni anno,
poiché le generazioni successive (F2) perdono il vigore ibrido e presentano
caratteri sostanzialmente imprevedibili. Questo crea dipendenza dalle aziende
sementiere e aumenta i costi di produzione annuali. Le varietà locali
tradizionali di montagna, invece, non presentano questo problema.
> Le valli alpine custodiscono un tesoro spesso dimenticato: centinaia di
> varietà agricole tradizionali che rappresentano non solo un patrimonio
> agroalimentare, ma anche una risorsa strategica per l’agricoltura del futuro.
Le principali famiglie botaniche di queste varietà locali tradizionali che si
trovano in montagna sono le Graminacee ‒ ovvero i cereali ‒, le Leguminose e le
Solanacee. La segale è il cereale che cresce a quota più elevata, seguita da
mais e orzo. Particolarmente interessante è il mais, coltivato tradizionalmente
anche sopra i 500 metri di quota. Con Leguminose si fa riferimento soprattutto
ai fagioli, che in passato rappresentavano la principale fonte proteica di
origine vegetale per le popolazioni montane, mentre le Graminacee fornivano
energia sotto forma di amido. La famiglia delle Solanacee è abbastanza vasta, ma
nel caso delle montagne non si può non pensare alle patate, alimento tipico di
queste aree.
Cosa rende queste varietà diverse da quelle più “commerciali”? “Innanzitutto c’è
bisogno di caratterizzarle”, spiega Luca Giupponi, ricercatore nell’ambito della
botanica ambientale applicata dell’Università degli studi di Milano, presso il
Polo Unimont di Edolo, in Alta Valle Camonica: “meno del 10% di quello che
abbiamo trovato e mappato è stato oggetto di studi scientifici”. E questo, per
varietà potenzialmente a rischio, è un grosso problema, che può sfociare in
quella che viene chiamata dark extinction: rischiamo di perdere specie ancora
prima di conoscerne l’esistenza, specie che potrebbero avere caratteristiche
utili, che meriterebbero di essere rivalorizzate. Ci sono varietà che sono state
scartate in passato perché producevano poco. Alla fine delle due guerre mondiali
la priorità era proprio quella di sfamare la popolazione: gli agronomi e i
genetisti, da quel punto di vista, hanno ottenuto risultati eccellenti. Per il
mais, ad esempio, si è passati da una produzione di 12-14 quintali per ettaro a
superare oggi i 100 quintali. Ma ora, almeno in Italia, l’attenzione si è
spostata dalla quantità alla qualità.
> Ci sono varietà che sono state scartate in passato perché producevano poco, in
> un periodo in cui la priorità era sfamare la popolazione. Ma queste varietà
> talvolta offrono caratteristiche nutrizionali superiori.
Le varietà tradizionali producono meno, è vero, ma talvolta offrono
caratteristiche nutrizionali superiori. Il mais nero spinoso di Valle Camonica,
ad esempio, deve il suo colore a molecole antiossidanti ‒ proprio quelle che
conferiscono il colore scuro ‒ presenti in concentrazioni molto elevate,
caratteristica assente nei mais ibridi moderni, coltivati nelle pianure degli
Stati Uniti o della Cina. Sono alimenti che vengono definiti nutraceutici per le
loro proprietà benefiche. L’obiettivo ultimo è proprio quello di valorizzare
queste eccellenze, anche perché puntare sulla quantità in montagna sarebbe
fallimentare: non si parla di ettari di terreno, ma di metri quadri; non ci
sarebbe competizione.
La genetica della resilienza
Un altro vantaggio fondamentale è la rusticità: queste varietà sono adattate a
terreni montani meno profondi e meno ricchi di nutrienti, spesso resistenti alla
siccità. Studiarle dal punto di vista genetico per il miglioramento delle
colture, in vista dei cambiamenti climatici, potrebbe essere una strategia
vincente. Si tratta di risorse che non possiamo permetterci di perdere: se
manteniamo ampia la diversità di cibi che possiamo consumare è un bene per
l’essere umano, per gli animali e per la biodiversità in sé. Un esempio
emblematico è il mais delle Fiorine di Clusone: produce solo 10 quintali per
ettaro, ma durante la siccità dell’estate 2022, quando il mais in pianura è
andato completamente perso, ha continuato a produrre la sua unica spiga per
pianta senza essere irrigato.
> Queste varietà sono adattate a terreni montani meno profondi e meno ricchi di
> nutrienti, spesso resistenti alla siccità. Considerando l’impatto crescente
> dei cambiamenti climatici, potrebbero rivelarsi cruciali.
A differenza degli ibridi moderni, che sono linee genetiche pure e uniformi, le
varietà tradizionali sono popolazioni con un’ampia variabilità genetica. “In
campo puoi trovare una pianta alta e una bassa, una spiga di un colore e
un’altra di colore diverso”, spiega Giupponi: “Se un anno sopravvive meglio la
pianta resistente alla siccità, l’anno dopo, con più pioggia, sopravvive meglio
un’altra variante. Questa diversità le rende più resilienti ai cambiamenti
ambientali”.
Si tratta di un aspetto particolarmente rilevante nel contesto del cambiamento
climatico e non è, tutto sommato, così intuitivo. Trattandosi di varietà locali,
infatti, si potrebbe pensare che siano molto più sensibili alle variazioni, ma è
proprio la diversità genetica a fare la differenza. Gli ibridi sono tarati per
ambienti di pianura, richiedono condizioni molto più specifiche e possono avere
difficoltà nell’ambiente montano, le varietà tradizionali invece si adattano
gradualmente alle variazioni ambientali locali, generazione dopo generazione.
Una ricchezza minacciata
Le principali minacce a questo patrimonio sono chiare: l’abbandono delle terre
alte e la mancanza di conoscenza. Pur essendoci numerose università nel nostro
Paese, infatti, sono poche a occuparsi di queste tematiche: oltre a Unimont
possiamo citare la libera Università di Bolzano e l’Università della Tuscia.
Mancano ricerca, disseminazione e divulgazione, che comunque da sole non
bastano. Occorre anche un supporto a livello di governance, norme che preservino
le varietà, ne promuovano l’utilizzo, tutelando al tempo stesso il territorio e
chi lo abita.
La questione è complessa e si traduce nel vivere in montagna, far sapere quali
sono le sue risorse, come si coltivano, cosa contengono e come puoi valorizzarle
e trasformarle. Anche e soprattutto perché serve continuità: queste varietà
vanno coltivate annualmente, se i semi vengono dimenticati per 5-10 anni vanno
persi. Ed è un vero e proprio patrimonio che se ne va. “Ognuna di queste varietà
è legata anche a un concetto di storia, uso tradizionale, ricette tipiche”,
aggiunge Giupponi: “Se vogliamo c’è di mezzo anche il turismo:
l’agrobiodiversità è una ricchezza strategica per le aree montane”. In ogni
caso, i cambiamenti climatici non sono da dimenticare: si osserva uno sfasamento
dei periodi di fioritura e di maturazione dei frutti, ma queste varietà
incontrano meno difficoltà rispetto a quelle vissute dalle specie ibride.
> Le principali minacce a questo patrimonio sono l’abbandono delle terre alte e
> la mancanza di conoscenza. Anche e soprattutto perché serve continuità: queste
> varietà vanno coltivate annualmente, se i semi vengono dimenticati per 5-10
> anni vanno persi.
L’abbandono e il mancato ricambio generazionale hanno, tra l’altro, un effetto
diretto sul paesaggio: negli ultimi decenni si è osservata un’espansione
incontrollata del bosco a discapito dei prati, dei pascoli e dei campi. A ciò si
aggiunge l’impatto del ritorno della fauna selvatica, in particolare gli
ungulati ‒ come cervi, caprioli e cinghiali. Per gli agricoltori, questo ritorno
è una difficoltà e un costo aggiuntivo: raccolti preziosi come lo zafferano
rendono necessarie costose recinzioni.
Prima di progettare il futuro delle comunità montane, occorre guardarsi dagli
errori del passato: “Buona parte delle varietà moderne che ci vengono fornite
sono studiate per ambienti di pianura”, spiega in proposito Giupponi: “Vale
anche per la zootecnia: in pianura abbiamo creato vacche che producono enormi
quantità di latte con mangimi super calorici, poi abbiamo imposto questo modello
alla montagna”. Ma per poter allevare quel tipo di animale o coltivare quel tipo
di pianta in montagna era necessario modificare l’ambiente rendendolo più simile
possibile alla pianura, con costi ambientali insostenibili”. Oggi, però,
assistiamo a un cambio di paradigma: non si cerca più la varietà con la migliore
resa assoluta, ma quella meglio adattata a ogni specifico territorio.
Il valore economico della qualità
Fino a pochi anni fa ‒ ma in alcuni casi ancora oggi ‒ questi saperi venivano
tramandati di padre in figlio. Ora, però, esistono anche i social, che
permettono di trovare video in cui, per esempio, viene spiegato come coltivare
il mais nero. Il problema non riguarda, di solito, come coltivare, ma perché, e
nel momento in cui ci sono così grandi differenze dal punto di vista della
produttività, non si tratta di una questione banale.
La vera comprensione, infatti, è nel valore intrinseco: un chilo di farina di
mais locale tradizionale può arrivare a costare anche 5-6 euro, rispetto a un
chilo di farina prodotta magari in Cina o negli Stati Uniti, che al supermercato
si trova a 1 euro, o, in alcuni casi, anche a prezzo inferiore. Quindi è vero
che si produce meno, ma si vende a un prezzo maggiore. Se poi si è pure in grado
di trasformare il prodotto vuol dire che al posto di vendere la farina si
producono biscotti, grissini, birra o altri prodotti. A quel punto, quel chilo
di farina non vale più 5-6 euro, ma molto, molto di più.
Si tende, poi, a pensare alle vallate alpine come a luoghi chiusi, eppure, come
spiega Giupponi, “in passato gli agricoltori delle diverse valli si scambiavano
i semi, c’è sempre stato un flusso genetico. Avere i semi significava essere
detentori di ricchezza. Oggi, quando qualcuno ha i soldi si dice che ‘ha la
grana’, ma questa definizione viene dal fatto che chi aveva ‘i grani’ era
potente, aveva una risorsa, in prezzo valeva più dei soldi. Quando le persone si
sposavano, nella dote degli sposi si includevano i semi ‒ era come fare un
assegno di migliaia di euro”. C’era il baratto, c’era la compravendita. Questo
scambio ha creato una rete di biodiversità che supera i confini delle singole
valli: “abbiamo trovato un fagiolo, che noi chiamiamo ‘Copafam’ ‒ significa
ammazzafame ‒ che è diffuso su tutte le Alpi con nomi diversi ‒ logicamente ogni
valle ha il suo dialetto ‒ ma è sempre lo stesso fagiolo, con piccolissime
differenze genetiche e impercettibili differenze morfologiche”.
Il quadro normativo
L’Italia è da sempre riconosciuta come un Paese ricco di biodiversità
agroalimentare, ma solo di recente ha cominciato a quantificare questa
ricchezza. Dall’inizio degli anni Duemila alcune regioni hanno iniziato a
promulgare leggi regionali volte alla tutela delle risorse genetiche autoctone
di interesse agrario. Altre, come per esempio la Lombardia, hanno deciso di
preservare il proprio patrimonio utilizzando strumenti nazionali come il
registro varietale sezione “varietà da conservazione” o il registro dei PAT
(Prodotti Agroalimentari Tradizionali).
È solo del 2015 la legge n. 194 “Disposizioni per la tutela e la valorizzazione
della biodiversità di interesse agricolo e alimentare”, operativa dal 2018, che
dovrebbe far convogliare tutti i diversi sforzi fatti dalle varie regioni in un
unico strumento: l’anagrafe della biodiversità di interesse agricolo e
alimentare, che raccoglie le varietà locali tradizionali ‒ quelle che
tecnicamente vengono chiamate landraces ‒ presenti sul territorio nazionale. Nel
2016 la Regione Lombardia ha coinvolto Unimont in un progetto con il fine di
censire le landraces lombarde: in due anni si è passati da uno scarno elenco con
una decina di specie a scoprirne una settantina. In seguito, grazie a un
progetto finanziato dal Dipartimento degli affari regionali della Presidenza del
Consiglio dei ministri, il censimento è stato esteso a livello nazionale,
individuando oltre 1600 varietà locali tradizionali.
> Una specie locale tradizionale viene definita tale quando è coltivata nello
> stesso territorio per almeno 50 anni: potrebbe sembrare poco tempo, ma
> parliamo di 50 generazioni successive. Il nostro equivalente di oltre 1200
> anni.
Questo patrimonio si concentra in gran parte sull’Appennino e nelle grandi valli
alpine come la Valtellina e la Valle Camonica; in contrasto con le aree di
pianura, dove il territorio è stato adibito a coltivare principalmente ibridi e
varietà moderne, oltre che dedicato all’urbanizzazione.
Guardare al futuro
Oggi, la ricerca si concentra non solo sulle specie autoctone in senso stretto,
ma anche su quelle che si sono adattate nel tempo: basti pensare che molte
piante ormai tipiche nel nostro Paese (mais, patate, fagioli, pomodori) vengono
dall’America. Una specie locale tradizionale viene definita tale quando è
coltivata in uno stesso territorio per almeno 50 anni: potrebbe sembrare poco
tempo, ma quando si parla di piante annuali significa fare riferimento a 50
generazioni. Che per noi umani corrisponderebbero a circa 1250 anni.
Un esempio è la caigua (o cetriolo andino), trovata in Valle Camonica. Questa
varietà, pur essendo originaria di un altro continente, si è adattata al
territorio camuno, sviluppando caratteri propri e producendo molto di più (tanti
piccoli frutti) rispetto alla caigua americana coltivata a fini sperimentali in
Valle Camonica (un unico frutto che non arriva a maturazione). “Le piante si
sono sempre mosse, l’uomo le ha sempre trasportate e quindi siamo invasi da
vegetali che non sono tipici dei nostri territori”, chiosa Giupponi: “Non ha
alcun senso fare delle discussioni sulla ‘proprietà’ di queste piante da parte
di un territorio in base a dove queste si sono originate o erano coltivate
secoli fa: guardiamo cosa sono diventate, quali potenziali possono avere oggi
per i territori in cui si trovano”.
Le varietà tradizionali delle valli alpine sono, in sostanza, una cassetta degli
attrezzi genetica. Se quelle moderne sono attrezzi specializzati, perfetti per
la massima resa in condizioni ideali, le varietà rustiche sono l’insieme
completo e variegato di strumenti che, grazie al loro ampio pool genetico,
consentono all’agricoltura di affrontare e adattarsi a ogni imprevisto e
cambiamento ambientale, garantendo la resilienza necessaria per il futuro.
L'articolo Il patrimonio nascosto delle valli alpine proviene da Il Tascabile.
A nche questo inverno, come ogni inverno dal 1951, l’Italia si ferma per quello
che è al contempo l’evento più divisivo e più unificante dell’anno. Il Festival
di Sanremo è una di quelle ricorrenze impossibili da ignorare, e infatti
puntualmente il Paese finisce per spaccarsi in due frange asimmetriche: da un
lato quelli (tanti) che seguiranno più o meno fedelmente la rassegna,
sceglieranno le canzoni preferite e la mattina si agganceranno al treno di
discussioni Sanremo-centriche; dall’altro quelli (meno) che tenteranno di
isolarsi tappandosi le orecchie, nella speranza che il supplizio passi in
fretta. Che tu appartenga a una frangia o all’altra, c’è buona probabilità che
le canzoni di Sanremo ti entreranno in testa lo stesso. E per quanto tu abbia
provato a evitare qualsiasi cosa abbia lontanamente a che fare con l’Ariston, è
possibile che fra qualche settimana, nel silenzio della tua testa, scoprirai che
quei ritornelli hanno aggirato le difese e hanno colonizzato anche il tuo
paesaggio sonoro. Come vedremo, se questo succede non è perché i brani di
Sanremo siano particolarmente belli, ma perché il nostro cervello fa una fatica
tremenda a resistere ai ritornelli, e alle ripetizioni musicali in generale.
Repetita sonant
Partiamo dal 1995, quando la psicologa Diane Deutsch fa una scoperta che da sola
è in grado di cambiare la neuropsicologia della musica. Come molte scoperte
spartiacque, anche questa avviene per caso. Deutsch sta preparando un CD
divulgativo, ha già registrato tutte le sue parti ma vuole assicurarsi che le
tracce non abbiano difetti di registrazione. Comincia così a riprodurre spezzoni
del suo intervento a ripetizione. A un certo punto, mentre ascolta un
particolare segmento, si rende conto di una cosa: parole che lei aveva letto
senza alcuna intonazione consapevole, ora presentano una certa musicalità,
sembrano quasi cantate. Quando prova a riascoltare per intero il discorso la sua
voce appare neutra, ma quando arriva quel pezzo di frase d’un tratto la voce si
impenna in una melodia cantata. Quella che Deutsch sta sperimentando è una forma
piuttosto comune di illusione sonora, oggi nota come speech-to-music illusion
(se volete sperimentarla voi stessi, è possibile ascoltare il file originale).
> Nel parlato c’è sempre una componente melodica e ritmica (prosodia) che spesso
> non notiamo perché concentrati sul senso della frase. Con la ripetizione
> l’attenzione si sposta: la componente semantica passa in secondo piano e la
> prosodia emerge.
Ma perché un pezzo di parlato ripetuto un certo numero di volte trascolora in
musica? Deutsch ha passato gli ultimi trent’anni a cercare di rispondere a
questa domanda, e una delle prime cose che ha scoperto è che la speech-to-music
illusion non è automatica. Dipende innanzitutto dalla lingua: in quelle tonali,
come il cinese mandarino, dove l’intonazione modifica il significato della
singola sillaba, per dire, l’effetto si verifica meno facilmente. Inoltre è
fondamentale che la ripetizione sia esatta: se ad esempio le sillabe vengono
invertite, l’effetto diminuisce o scompare. Al di là di questi distinguo, esiste
una spiegazione piuttosto convincente dietro questa specie di magia sonora: nel
parlato c’è sempre una componente melodica e ritmica (prosodia) che tendiamo a
non notare perché siamo concentrati sul senso della frase; quando però un pezzo
di frase viene ripetuto in loop, l’attenzione si sposta: la componente semantica
passa in secondo piano e la prosodia emerge.
È una spiegazione convincente, ma non sufficiente. Se infatti bastasse una
ripetizione decontestualizzata per trasformare una frase parlata in una frase
cantata, allora sperimenteremmo questa illusione molto più di frequente. Il
punto è che la musicalità degli elementi ripetuti è anche legata ad aspetti
cognitivi e culturali.
Una questione di intenzionalità
La musicologa cognitiva Elizabeth Hellmuth Margulis ha dedicato la propria vita
a studiare la capacità che la musica ha di monopolizzare la nostra attenzione.
Nel suo ultimo saggio, Transported, in uscita a maggio 2026, analizza come le
canzoni siano in grado di farci rivivere momenti passati e immaginare scenari
futuri, innescando una specie di sogno a occhi aperti. Ma prima di focalizzarsi
su questo fronte di ricerca ha passato anni ad analizzare i cosiddetti earworm,
i tormentoni virali di cui parlavo a inizio pezzo.
Nel 2013, volendo dimostrare l’importanza della ripetizione nella fruizione
musicale, ha ideato un esperimento talmente subdolo da assomigliare a un
tranello. Come prima cosa ha selezionato una serie di estratti di musica
contemporanea poco accessibili a un ascoltatore non specializzato, tratti dai
brani di Luciano Berio ed Elliott Carter: parliamo di musica piuttosto
complessa, praticamente priva di elementi ripetitivi, che un fruitore medio
farebbe fatica a suddividere in parti distinte. In una seconda fase, ha
modificato digitalmente questi brani introducendo ripetizioni non previste nelle
composizioni originali. Questa modifica è stata eseguita in maniera
sostanzialmente casuale, senza seguire alcun criterio compositivo. In teoria,
dunque, i brani modificati sarebbero dovuti risultare più sghembi e rozzi
rispetto a quelli originali, e invece, una volta che le due versioni sono state
sottoposte a una schiera di ascoltatori non specializzati, i brani modificati
venivano giudicati più piacevoli e interessanti. Non solo, quando veniva chiesto
quale delle due versioni fosse stata realizzata da un essere umano, quasi tutti
sceglievano quella alterata.
Da questi esperimenti Margulis dedusse che la presenza di ripetizioni viene
percepita dal cervello umano come un segno di intenzionalità: se ci rendiamo
conto che degli elementi si ripresentano in forma simile nel corso del brano,
una parte di noi si convince che qualcuno abbia scelto di proporre quella
sequenza di suoni, e questo ci porta a spostare il fuoco dell’attenzione: quello
che prima poteva essere un insieme disordinato di suoni, d’un tratto lo
consideriamo informazione.
Che l’ascolto ripetuto di una canzone finisca per aumentarne il gradimento è
qualcosa di cui tutti abbiamo esperienza. Un disco che inizialmente non ci
diceva più di tanto dopo qualche ascolto comincia a suscitare emozioni più
intense, a volte addirittura a commuoverci, finché ci ritroviamo ad ascoltarlo a
ripetizione. Questo fenomeno è noto come “effetto di mera esposizione”: la
familiarità rende più facile anticipare e riconoscere un brano, e questo spesso
aumenta il piacere; almeno finché non subentra la saturazione. Ma è una linea di
ricerca che rischia di portarci altrove: qui ci interessa capire come mai una
canzone ascoltata per caso, o addirittura in modo inconsapevole, finisca per
piantarci le tende in testa. Per farlo occorre analizzare in che modo il nostro
cervello si rapporta al mondo esterno.
Un dispositivo per risolvere incertezze
Dagli anni Ottanta a oggi diverse linee di ricerca neurologica e neurocognitiva
sembrano suggerire che la nostra percezione della realtà esterna non sia “in
presa diretta”, ma si affidi piuttosto a modelli mentali in continuo
aggiornamento. Per dirla in parole più semplici: invece di acquisire in
continuazione informazioni dall’esterno, il nostro cervello tende a sviluppare
una simulazione interna della realtà che ci circonda, che viene aggiornata solo
quando gli input esterni si dimostrano diversi da quelli previsti. Secondo la
teoria dell’inferenza attiva il nostro cervello funzionerebbe dunque come una
macchina predittiva, e il nostro rapporto con la realtà sarebbe costantemente
sbilanciato verso il futuro. Non è difficile intuire perché l’evoluzione abbia
premiato questa soluzione: il cervello è un organo estremamente energivoro, e la
possibilità di affidarsi a un modello simulato, e non dover processare
continuamente ogni input esterno, ha consentito ai nostri antenati di conservare
energie preziose, così da poterle riorientare su compiti in cui il margine
d’errore può costare caro, come ad esempio monitorare un pericolo, o decidere in
una frazione di secondo se sia meglio scappare o attaccare.
> Alcuni studi di psicologia della musica hanno mostrato come i brani che
> tendiamo ad apprezzare di più siano quelli che riescono contemporaneamente a
> confermare e tradire le nostre aspettative.
Ecco, la teoria dell’inferenza attiva postula che, poiché il nostro cervello è
costantemente impegnato a prevedere il futuro e a individuare errori di
previsione, non c’è nulla che lo gratifichi di più di un errore di previsione
che è in grado di correggere al volo. “Quando ascoltiamo musica generiamo
continuamente ipotesi plausibili su ciò che potrebbe accadere di lì a poco”,
scrivono in proposito i neuroscienziati Stefan Koelsch e Karl Friston “mentre
l’atto stesso dell’ascolto risolve l’incertezza che queste ipotesi producono. In
questo modo la musica soddisfa senza sosta il nostro bisogno di ridurre
l’incertezza, ed è proprio questo a renderla gratificante”.
In uno studio del 2025 intitolato “Predictive processes shape individual musical
preferences”, gli psicologi cognitivi catalani Ernest Mas-Herrero e Josep
Marco-Pallarés hanno mostrato come i brani che tendiamo ad apprezzare di più
sono quelli che riescono contemporaneamente a confermare e tradire le nostre
aspettative. Dico “tendono” perché naturalmente le risposte alle varie canzoni e
ai diversi generi sono soggettive. I gusti sono gusti, ci mancherebbe, ma nella
maggior parte dei casi il discorso regge: se un brano presenta troppi elementi
spiazzanti finirà per risultare indigesto all’ascoltatore medio, se al contrario
ripropone stilemi noti e logori, finirà per annoiarlo.
I brani che vengono selezionati per Sanremo di solito rientrano nell’intervallo
tra questi due estremi, e non stupisce che molte canzoni mostrino espedienti che
giocano su questo equilibrio: dalle variazioni sincopate ai cambi d’intensità,
per non parlare dell’usatissimo salto di tono nell’ultimo ritornello,
praticamente un cliché del festival (basta riascoltare Amici come prima, Fiumi
di parole e L’essenziale e per rendersi conto che, per quanto questi brani siano
diversi, giocano tutti sulla classica modulazione tonale verso l’alto).
Un po’ come succede con l’apprendimento, il nostro cervello trae gratificazione
quando riesce a risolvere un’incertezza. In questo senso, i ritornelli più
orecchiabili e infettivi sono come dei cubi di Rubik, tutto sommato semplici, ma
con dettagli spiazzanti che non possiamo fare a meno di rimettere a posto.
Insomma, quando fatichiamo a levarci di testa un particolare ritornello, è
perché il nostro cervello lo considera un trastullo perfetto per placare il suo
bisogno di ridurre l’incertezza. A prescindere che quel ritornello ci piaccia
effettivamente o meno.
Formule propiziatorie e ganci mnemonici
La ripetizione musicale è uno dei pochi elementi sostanzialmente trasversali a
ogni cultura. Nel suo “The Biology and Evolution of Music” il biologo cognitivo
W. Tecumseh Fitch include la ripetibilità tra le proprietà fondamentali che
rendono la musica una forma comunicativa autonoma dal linguaggio. Certo, in
alcune culture ha un’importanza diversa rispetto ad altre. In quella italiana,
ad esempio, il ritornello è un perno strutturale della canzone moderna almeno da
fine Ottocento, quando la canzone popolare e quella da salotto cominciano a
fissare forme sempre più standardizzate basate sul ritorno di un motivo.
> Se fatichiamo a levarci di testa un particolare ritornello, è perché il nostro
> cervello lo considera un trastullo perfetto per placare il suo bisogno di
> risolvere incertezza. A prescindere che quel ritornello ci piaccia
> effettivamente o meno.
Quanto all’origine del ritornello in sé le teorie si sprecano. C’è chi ha
ipotizzato sia nato come elemento di stabilità strutturale, una sorta di
contrafforte che consentiva alla composizione di svilupparsi in relativa
libertà; chi invece ipotizza che le radici affondino nel canto popolare, dove
veniva utilizzato per indicare i momenti in cui la voce del pubblico si univa a
quella dell’esecutore solista; un’altra teoria ancora vuole che il ritornello
nasca come intermezzo strumentale tra due parti cantate, un intervallo che
doveva spezzare la strofa e dare un po’ di tregua a chi cantava – e chi
ascoltava ‒ prima di riprendere il canto (refrain, in effetti, deriva dal
francese antico refraindre, che significa “rifrangere” o “rompere”). Sono teorie
affascinanti, ma non del tutto convincenti.
Già nel 1910, quasi un secolo prima che Elizabeth Margulis pubblicasse le sue
ricerche, il musicologo francese Jules Combarieu aveva suggerito che il
ritornello fosse prima di tutto un gancio cognitivo, un elemento ricorrente che
aveva come scopo quello di catalizzare l’attenzione di un uditorio. In questo
senso, il moderno ritornello sarebbe una rielaborazione delle formule rituali
degli antichi canti propiziatori. Prendiamo ad esempio le cerimonie magiche
delle tribù Pawnee in Nord America: in questi canti i due elementi più
riconoscibili sono esclamazioni prive di un vero significato verbale. Il primo,
“Ho-o-o”, era una sorta di preludio al canto; mentre il secondo, “I’hare”
serviva a richiamare l’attenzione dei presenti sullo spirito a cui il canto era
rivolto. Una costruzione simile la ritroviamo anche in culture molto diverse, ad
esempio negli imenei greci. L’idea di Combarieu è che queste costruzioni, una
volta spogliate del significato religioso, abbiano mantenuto la loro funzione di
appigli sonori, aiutando il fruitore a orientarsi nell’ascolto.
Nella canzone popolare moderna il ritornello è l’elemento più riconoscibile,
quello a cui è più facile unirsi (cantando o battendo le mani), e soprattutto,
quello che più spesso risulta gratificante. In un certo senso è una sorta di
nord della bussola: qualunque direzione prenda la canzone che stiamo ascoltando,
ci aspettiamo che prima o poi ritornerà su quel blocco sonoro; e per certi versi
non vediamo l’ora che ciò avvenga. Questo gioco di attesa e gratificazione è una
dinamica difficilmente aggirabile, e oggi più che mai ha un ruolo centrale nel
decretare il successo di una canzone.
Tutta colpa dei Beatles (o quasi)
Oggi tendiamo a dare per scontato che una canzone debba avere una strofa e un
ritornello, che prima di concludersi ci sarà un bridge (qualcuno la chiamerebbe
variazione), e che questi elementi saranno presentati grossomodo in
quest’ordine. In effetti, è questo lo schema che ha dominato la musica popolare
degli ultimi decenni, e Sanremo non fa eccezione. Basta dare un’occhiata ai
brani vincitori degli ultimi vent’anni per rendersi conto che nella quasi
totalità dei casi sono caratterizzati da una struttura strofa-ritornello-bridge,
con strofe lunghe che accumulano tensione, e un ritornello riconoscibile che la
fa esplodere.
In realtà, però, la prevalenza di questo schema, noto come Verse-Refrain (VR), è
un fenomeno recente. Prima degli anni Sessanta, soprattutto in ambito
anglosassone, era piuttosto comune trovare canzoni che cominciavano con il
ritornello e a volte nemmeno presentavano una vera strofa. Pensiamo a brani
jazz, come I Got Rhythm di George Gershwin, o a ballate anni Cinquanta, come
Everyday di Buddy Holly, in cui la struttura si esaurisce con tre ritornelli
intervallati da un bridge nell’arco di 32 battute. Questo schema, noto come
Chorus-Bridge (CB), oggi sembra aver abdicato al predominio di quello VR; ed è
probabile che la colpa, almeno in parte, sia dei Beatles.
Molti dei singoli del primo periodo (A Hard Day’s Night, I Want To Hold Your
Hand, Love Me Do) presentano una chiara struttura CB. Prendiamo il primissimo
singolo, Love Me Do (1962): la canzone comincia con il ritornello (“Love, love
me do…”), che ripete due volte prima di lasciare spazio alla variazione
(“Someone to love…”), per poi atterrare nuovamente sul ritornello. Ancora nel
1964, la maggior parte delle canzoni del quartetto di Liverpool seguiva questo
schema. A un certo punto, però, a partire dal 1965, Lennon e McCartney
cominciano a spostare il baricentro compositivo verso lo schema VR (Help!,
Paperback Writer, Penny Lane) e a esplorare strutture più ibride (A Day In The
Life, Happiness Is A Warm Gun). Non è un cambiamento da poco. Abbiamo visto come
la musica popolare giochi da sempre su dinamiche di attesa e gratificazione,
ecco: in queste strutture il ritornello gioca un ruolo significativamente
diverso.
> Lo schema strofa-ritornello sembra capace di sopravvivere a mode e rivoluzioni
> come un macigno piantato in un torrente. Il motivo è semplice: è la dinamica
> che meglio garantisce di scodellare tormentoni infettivi, e dunque quella più
> funzionale a batter cassa.
Come ha scritto il musicologo Franco Fabbri, che alle dinamiche compositive dei
Beatles ha dedicato anni di studio, nelle canzoni VR il ritornello è una sorta
di premio posto alla fine di una strofa – “la torta dopo la bistecchina con gli
spinaci” – , un piacere che una volta sperimentato deve essere ripresentato, in
abbondanza e alla svelta, tanto che molte canzoni finiscono per ripeterlo sul
finale. Lo schema CB invece segue una dinamica diversa: il ritornello arriva
subito, ma non viene più concesso così facilmente. In pezzi come She Loves You,
per dire, viene presentato nella sua forma completa solo all’inizio, dopodiché
viene centellinato per il resto della canzone.
Negli ultimi anni della loro carriera i Beatles ripresero in parte il modello
CB, ma nel frattempo lo schema VR aveva conquistato il mondo. Oggi,
cinquant’anni dopo, lo schema strofa-ritornello sembra capace di sopravvivere a
mode e rivoluzioni come un macigno piantato in un torrente. Il motivo è
semplice: promettere la torta di un ritornello memorabile dopo una strofa di
bistecca e spinaci è la dinamica che meglio garantisce di scodellare tormentoni
infettivi. E dunque quella più funzionale a batter cassa.
Tu chiamala se vuoi piattaformizzazione
Chiunque abbia seguito le ultime edizioni di Sanremo (ma anche chi avesse
provato a ignorarle) si sarà reso conto di una cosa: le canzoni si stanno
accorciando. In un illuminante e approfondito studio, pubblicato lo scorso
dicembre, Dino Mignogna ha analizzato 934 brani in gara al Festival tra il 1983
e il 2025, e ha notato che negli ultimi trent’anni la durata media delle canzoni
è diminuita di 45 secondi, stabilizzandosi attorno ai 3 minuti e 25 secondi. La
scure si è abbattuta principalmente sulle introduzioni, che sono state dimezzate
(da 15 a 8 secondi in media), quando non proprio eliminate. La ragione è
facilmente intuibile: una canzone con un ritornello che arriva presto
(possibilmente entro i primi 40 secondi) ha più chance di funzionare sulle
piattaforme streaming come Spotify, che conta i singoli ascolti a partire da 30
secondi di riproduzione, e sulle piattaforme social come TikTok, il cui
algoritmo tende a premiare frammenti sonori ancora più brevi.
Naturalmente parliamo di una tendenza che va oltre Sanremo: ricerche recenti
mostrano come TikTok stia cambiando le dinamiche compositive nel panorama pop.
Non è un caso che sempre più spesso a diventare virali non siano vere e proprie
canzoni, ma spezzoni strumentali specificamente ideati per diventare sottofondi
per i reel degli utenti.
> A Sanremo come altrove, le canzoni si stanno facendo sempre più corte e le
> scelte compositive sempre più standardizzate; allo stesso tempo, i nostri
> ascolti tendono a chiudersi in percorsi sempre più personalizzati.
Che il passaggio a un nuovo supporto finisca per influenzare anche la sfera
compositiva non è una novità. Come non manca di sottolineare Mignogna, già tra
gli anni Venti e Trenta del Novecento, il passaggio dai palcoscenici di Broadway
ai dischi portò molte canzoni a perdere la strofa introduttiva, che funzionava
bene nella dimensione teatrale, per mantenere solo il nucleo musicale composto
da ritornello e bridge, più adatto ai limiti temporali dei 78 giri e delle
trasmissioni radiofoniche. Analogamente, il passaggio dai supporti fisici alle
piattaforme digitali sta producendo effetti palesi, non tanto sul piano
strutturale (lo schema VR, l’abbiamo visto, rimane), quanto su quello della
complessità. Le canzoni si stanno facendo più semplici, le scelte compositive
più standardizzate, il tutto mentre gli ascolti tendono a chiudersi in percorsi
sempre più personalizzati.
Poiché Sanremo è da sempre una cartina al tornasole affidabile delle tendenze
musicali in atto, è probabile che anche quest’anno avremo prova di come un
mercato condizionato e un contesto di ascolto frammentato finiscano per incidere
sulle dinamiche compositive. Ma non è scontato. Perché se è vero che le canzoni
si stanno standardizzando e semplificando, è anche vero, come abbiamo visto, che
il nostro cervello di fronte a un brano nuovo vuole essere almeno in parte
sfidato. Del resto, negli anni Sanremo ha dimostrato di saper regalare anche
sorprese inattese e, cosa non banale, di saper riunire su uno stesso palco
artisti e generi che intercettano uditori anche lontani tra loro.
Per questo non mi stupirei più di tanto se di qui a qualche settimana ti
ritroverai a canticchiare un ritornello che hai giurato a tutti di detestare.
L’abbiamo detto: un tormentone non ci conquista perché è bello, ma perché il
nostro sistema predittivo, ancora una volta, ha trovato un modo semplice e poco
dispendioso per sentirsi meno incerto. Non è necessariamente un male. Potrebbe
essere l’occasione per uscire, anche solo per un po’, dalla bolla degli ascolti
su misura.
L'articolo L’eterno ritornello proviene da Il Tascabile.
N el 2014, all’Università della Virginia, un gruppo di psicologi guidato da
Timothy Wilson chiese a oltre quattrocento studenti di passare tra i sei e i
quindici minuti seduti in una stanza vuota, senza stimoli esterni, solo con i
propri pensieri. In una delle varianti dell’esperimento, i partecipanti avevano
a disposizione un pulsante che produceva una fastidiosa scossa elettrica alla
caviglia. Prima di iniziare, la maggior parte si dichiarò disponibile a pagare
pur di evitarla. Ma una volta soli, il 67% degli uomini e il 25% delle donne
premette il pulsante almeno una volta. Alcuni più volte. Uno arrivò a farlo
centonovanta volte in meno di un quarto d’ora.
Dopo la pubblicazione su Science, la scena fu letta e raccontata dai media come
un sintomo sociale: l’incapacità a stare da soli, la fuga da sé stessi, la
società talmente assuefatta agli stimoli da preferire il dolore all’ozio
mentale. L’esperimento, però, isolava una condizione che nelle vite quotidiane
si presenta di rado, e con sempre meno agio: il pensiero lasciato libero,
sciolto da obiettivi, senza una direzione impostata dall’esterno. Quei minuti
sospesi mettevano alla prova il modo in cui la mente reagisce alla mancanza di
un compito preciso, all’assenza di punti di riferimento esterni, e la scossa si
presentava quindi come l’unica soluzione per spezzare l’attesa e per ristabilire
una minima forma di libero arbitrio.
> James Danckert e John Eastwood descrivono la noia come la spiacevole
> condizione in cui desideriamo essere impegnati in qualcosa di significativo,
> ma non riusciamo a trovare nulla che ci coinvolga.
I quattrocento volontari avevano sperimentato quella che comunemente chiamiamo
noia, un’esperienza che si manifesta quando l’attenzione cerca un appiglio di
valore e non lo trova. Un disallineamento tra il desiderio di sentirci coinvolti
e l’incapacità di trovare qualcosa che ci catturi davvero.
Una noia, tante noie
Per lungo tempo, in psicologia, la noia è rimasta un oggetto difficile da
definire in modo condiviso. È un’esperienza comune ma sfuggente: varia per
intensità, durata, contesto, e si sovrappone ad altri stati come apatia,
frustrazione o disinteresse. Proprio per questo, la letteratura ha prodotto
spiegazioni parziali e talvolta divergenti. Tra le definizioni oggi più
accreditate e utilizzate, c’è quella proposta dal neuroscienziato James Danckert
e dallo psicologo John Eastwood, che descrivono la noia come uno stato
spiacevole in cui desideriamo essere impegnati in qualcosa di significativo, ma
non riusciamo a trovare nulla che ci coinvolga. La mente resta attiva, ma nulla
nel mondo intorno riesce a catturare il nostro interesse.
Uno tra i primi psicologi a studiare sistematicamente la noia è stato Joseph E.
Barmack, negli anni Trenta. Interessato all’alienazione degli operai di
fabbrica, chiese agli studenti della Columbia University di simularne le
condizioni, per esempio, cancellando per lunghi periodi di tempo lettere
specifiche da testi, o semplicemente fissando schermi vuoti. Una o due ore dopo
si manifestavano i primi segnali di irrequietezza, seguiti da un forte calo del
rendimento. La soluzione proposta da Barmack consisteva in somministrazioni di
caffeina, efedrina e benzedrina (un’anfetamina), che facevano calare i livelli
di noia. Proprio come la scossa elettrica dell’esperimento di Wilson, gli
stimolanti tenevano a bada gli effetti mentali della monotonia, anche se solo
temporaneamente.
A interessare Barmack era la noia situazionale, caratterizzata da episodi legati
al contesto, come una riunione di lavoro interminabile o un compito
particolarmente ripetitivo: una sensazione temporanea che si risolve cambiando
attività e differente dalla noia cronica, che invece è una predisposizione
personale che prescinde dalle circostanze esterne.
> Negli ultimi anni la noia è stata interpretata come un meccanismo adattivo,
> che svolge un ruolo preciso nella regolazione del comportamento, e cioè
> monitorare ciò che facciamo e avvisarci quando l’attività in corso ha perso
> valore o significato.
Oggi, grazie al lavoro degli psicologi tedeschi Thomas Goetz e Reinhard Pekrun,
specializzati nello studio delle emozioni in contesto scolastico, sappiamo che
la noia situazionale può assumere forme diverse. Attraverso rilevazioni in tempo
reale, condotte in ambito universitario, i due ricercatori ne hanno distinte
quattro configurazioni principali, ma al di là delle differenze fenomenologiche,
il denominatore comune rimane lo stesso: un divario tra l’aspettativa cognitiva
e gli stimoli esterni, percepiti come inadeguati.
Negli ultimi anni, filosofi come Andreas Elpidorou (The Anatomy of Boredom,
2025) e scienziati tra cui lo stesso Danckert (Out of My Skull, 2018) hanno
proposto di leggere la noia come un meccanismo adattivo, che svolge un ruolo
preciso nella regolazione del comportamento. In questa prospettiva, la noia
monitora ciò che facciamo e ci avvisa quando l’attività in corso ha perso valore
o significato, spingendoci a riorientare la nostra attenzione e le nostre
scelte. Il suo carattere spiacevole svolge un ruolo chiave e agisce come un
meccanismo di allerta: come la fame ci spinge a cercare cibo o la stanchezza a
riposare, la noia ci chiede di interrompere routine inefficaci per esplorare
novità e ridefinire obiettivi.
Guardando alla noia in prospettiva evolutiva, la si può interpretare come un
meccanismo che ci segnala quando un comportamento ha perso la sua utilità
adattiva. Laddove, per i nostri antenati, la ripetizione sterile poteva
rivelarsi costosa, un impulso che li spingesse a esplorare e a cambiare
direzione avrebbe rappresentato un vantaggio per la sopravvivenza. Una ricerca
pubblicata su Nature nel 2025 suggerisce che la noia funzioni come un segnale di
allontanamento da uno stato cognitivo ottimale. Quando la mente si accorge che
le risorse cognitive non vengono utilizzate al meglio ‒ o vengono impiegate male
‒ la noia emerge per spingerci a riorientare l’interesse e dare nuovo senso a
ciò che facciamo. Senza questa spinta regolativa, rischieremmo di restare
bloccati in situazioni che non ci soddisfano, senza riuscire ad adattarci ai
cambiamenti.
Intrattenimento e saturazione
Ma per accogliere questo segnale e riorientarci serve tempo, quello stesso tempo
che oggi sembra essere scomparso. Nel giro di pochi decenni, l’ambiente
cognitivo in cui questa esperienza si manifesta è cambiato profondamente. Le
tecnologie digitali hanno accorciato drasticamente i tempi dell’attenzione. Le
code, i viaggi, le pause sono riempite da flussi continui di microstimolazioni:
notifiche, aggiornamenti, scorrimenti rapidi. La concentrazione, sollecitata da
stimoli frammentari e incessanti, fatica a trovare un ritmo interno e la noia
cambia forma: si accorcia, si manifesta più frequentemente e diventa più
difficile da abitare.
La psicologa Gloria Mark studia da anni il legame tra concentrazione e digitale.
Nel suo libro Attention Span (2023) documenta come il tempo medio dedicato a una
singola attività si sia accorciato progressivamente, e sia passato in pochi anni
da oltre due minuti a una manciata di secondi. Dopo ogni interruzione, però,
servono decine di minuti per recuperare la concentrazione. Ricostruire il filo
del pensiero, reintegrare le informazioni e ritrovare lo stato di immersione
richiede tempo. Ne consegue che l’attenzione viene continuamente spostata da un
punto all’altro, senza potersi consolidare, e la noia si manifesta in queste
micropause, ma scompare prima di potersi sviluppare o trasformare in
qualcos’altro.
> Oggi, sollecitata com’è da stimoli frammentari e incessanti, la nostra
> attenzione fatica a trovare un ritmo interno e la noia cambia forma: si
> accorcia, si manifesta più frequentemente e diventa più difficile da abitare.
Uno studio del 2024, pubblicato su Nature Communications Psychology, mostra come
i media digitali, con i loro contenuti brevi, personalizzati e ad alta
rotazione, invece di ridurre la noia, contribuiscono ad accentuarla, innalzando
la soglia di ciò che viene percepito come coinvolgente. Quando guardiamo
qualcosa che segue un ritmo diverso, magari semplicemente più lento o meno
dinamico, lo percepiamo subito come faticoso. Quindi passiamo da un contenuto
all’altro per alleggerire stati di sovraccarico, inquietudine e lieve
frustrazione. Questa strategia funziona sul breve termine, poi le soglie
percettive si alzano ancora, il bisogno di novità cresce, e la sensazione di
insoddisfazione ricompare più forte.
La noia contemporanea sembra quindi diventata un disagio diffuso, una latenza
emotiva che viene assorbita prima di poter orientare il comportamento verso
qualcosa di specifico. Quella legata agli ambienti digitali si confonde con la
stimolazione stessa. Accompagna lo scrolling, spinge la ricerca compulsiva di
contenuti e alimenta un’attesa che genera ulteriore insoddisfazione. Il gesto
stesso del cercare produce il vuoto che vorrebbe colmare.
Questa dinamica ha conseguenze concrete sul comportamento. Una rassegna
sistematica pubblicata nel 2025, e intitolata Connected by Boredom, mostra come
la predisposizione alla noia agisca da fattore di rischio per l’uso problematico
di smartphone, social media e Internet. Il meccanismo assume una forma
circolare. La noia ci orienta verso i dispositivi in cerca di sollievo
immediato; le microgratificazioni digitali innalzano rapidamente la soglia di
coinvolgimento; e quando la noia riaffiora, l’apertura dello schermo diventa una
risposta automatica. Si struttura così un ciclo anticipatorio, in cui anche un
accenno minimo di vuoto emotivo attiva l’uso compulsivo del dispositivo.
> Se fatichiamo ad abitare la noia forse è perché il modo in cui viene
> riconosciuta e interpretata dipende sempre dal tempo in cui si manifesta e dal
> modo in cui quel tempo viene organizzato.
La ricerca identifica diversi mediatori in questo processo: la paura di perdersi
qualcosa (FOMO), stati depressivi, bassa capacità di autoregolazione,
metacognizioni disfunzionali. Recenti studi esplorano anche come la propensione
alla noia, così come la noia cronica, si associ a un senso di scarsa agentività
‒ la percezione di poter influenzare attivamente ciò che ci accade ‒ e a
frustrazione, con implicazioni per disturbi d’ansia e depressione.
Che cosa chiamiamo noia
Se fatichiamo ad abitare la noia forse è perché il modo in cui viene
riconosciuta e interpretata dipende sempre dal tempo in cui si manifesta e dal
modo in cui quel tempo viene organizzato. Nelle società antiche esistevano
esperienze affini a ciò che oggi chiamiamo noia, ma il loro significato era ben
riconosciuto e inscritto, per esempio, all’interno di cornici spirituali o
simboliche. I Greci descrivevano la melanconia come una disposizione del
temperamento legata agli equilibri del corpo e dell’animo, mentre la filosofia
la associava alla riflessione e talvolta anche all’ingegno. Con il taedium
vitae, Seneca individua nella noia una stanchezza dell’esistenza legata allo
spreco del tempo. Il tedio monastico, l’acedia medievale, viene letto come una
prova spirituale, una crisi del rapporto con il divino.
Questa relazione muta profondamente con la modernità. A partire dal Settecento
il tempo viene progressivamente misurato e trasformato in una variabile
economica. Come mostra E.P. Thompson nel celebre Time, Work-Discipline, and
Industrial Capitalism (1967), la diffusione dell’orologio e della misurazione
standardizzata del tempo accompagna la trasformazione del lavoro e della vita
quotidiana. Il tempo diventa così uno strumento di disciplina sociale, perché
introduce un criterio esterno che sincronizza le attività e distingue i momenti
produttivi da quelli improduttivi. Dentro questo nuovo regime temporale prende
forma la noia moderna. Come ricostruisce Elizabeth S. Goodstein, il discorso
moderno sulla noia emerge quando si indeboliscono le cornici di senso che in
passato orientavano l’esperienza. Il tempo continua a scorrere in modo lineare e
continuo, ma perde la capacità di offrire un significato condiviso agli
intervalli, all’attesa, alla ripetizione. La noia si configura allora come una
forma di coscienza riflessiva, il segnale di una frattura tra il fluire del
tempo e la possibilità dell’esperienza di farsi significativa.
Nel corso dell’Ottocento questa trasformazione diventa visibile anche
nell’immaginario letterario. In Bleak House (1853) di Charles Dickens,
l’aristocratica Lady Dedlock si dice “annoiata a morte” da un’esistenza fatta di
rituali sociali e intrattenimenti insignificanti. È una noia che nasce dal
privilegio e dall’eccesso di tempo, una forma di noia simile a quella che
riemerge, un secolo più tardi, nel romanzo La noia di Alberto Moravia, dove
Dino, ricco e senza urgenze materiali, sperimenta l’incapacità di attribuire
valore e di sentirsi coinvolto dalla realtà che lo circonda.
Con l’industrializzazione avanzata e poi con la cultura di massa, la noia viene
progressivamente ricondotta a un problema individuale. All’inizio del Novecento
la psicologia la collega a difficoltà attentive, cali motivazionali, riduzione
della risposta emotiva. Questa lettura si consolida nel secondo Novecento: Erich
Fromm individua nella noia una delle malattie del nostro tempo, legata tanto al
lavoro ripetitivo quanto al tempo libero colonizzato dal consumo. Quando
l’essere umano non trova stimoli autentici, la noia lo spinge verso forme
perverse di coinvolgimento, come violenza, aggressività, dipendenze.
> Studi sperimentali recenti, come quelli di Sandi Mann e Rebekah Cadman,
> mostrano che attività monotone e temporalmente dilatate possono favorire la
> generazione di idee nuove.
Qualche anno più tardi la noia entra stabilmente nei laboratori e viene misurata
come tratto con la cosiddetta boredom proneness (predisposizione alla noia),
associata a impulsività, comportamenti a rischio e stati depressivi. Negli anni
Duemila, alcuni studiosi iniziano a identificare con maggiore precisione le
diverse forme della noia. Il classicista Peter Toohey distingue tra una noia
semplice, legata alla mancanza contingente di stimoli e presente anche negli
animali non umani, e una noia esistenziale, più duratura e pervasiva.
Quest’ultima, che assume la forma di uno stato d’animo più che di un’emozione
momentanea, viene concettualizzata e nominata soprattutto negli ultimi due
secoli, quando filosofi, scrittori e critici sociali iniziano a descriverla come
esperienza di vuoto e alienazione. Studi sperimentali ancora più recenti, come
quelli di Sandi Mann e Rebekah Cadman, mostrano che attività monotone e
temporalmente dilatate possono favorire la generazione di idee nuove.
Abitare la noia
Uscita dal binario del disturbo, la noia può entrare tra le competenze emotive e
cognitive da coltivare. Si tratta di imparare a riconoscerla e ad abitarla senza
reagire in automatico. In ambienti educativi e clinici si sperimenta da tempo la
possibilità di trasformarla in uno strumento. Il programma Boredom Intervention
Training (BIT), sviluppato nel 2021, ad esempio, alterna momenti di
psicoeducazione a esercizi di esposizione, aiutando i partecipanti a riconoscere
gli stimoli che scatenano la noia e a tollerare l’inattività senza evitarla. I
risultati mostrano un aumento della consapevolezza e una riduzione della fuga
immediata da contesti poveri di stimoli.
Anche fuori dagli spazi terapeutici, alcune pratiche semplici mostrano effetti
interessanti: camminare senza meta (e senza telefono) aumenta la fluidità del
pensiero creativo, facilitando la generazione di idee; restare per alcuni minuti
senza stimoli esterni aiuta a riconfigurare i problemi; lasciare vagare la mente
durante una pausa può aiutare a migliorare un testo già scritto, soprattutto
quando si riprende lo stesso tema dopo l’interruzione. La possibilità di
individuare e abitare la noia riguarda anche le scelte collettive. Alcune
scuole, centri culturali e luoghi di formazione iniziano a fare spazio a questo
approccio. Esperienze strutturate di “educazione al vuoto”, letture lente,
silenzio condiviso, laboratori di inattività vengono proposti come strumenti per
sviluppare autonomia, concentrazione, immaginazione.
> Scuole e luoghi di formazione stanno iniziando a integrare la noia nei loro
> approcci. Esperienze strutturate di “educazione al vuoto”, letture lente,
> silenzio condiviso, laboratori di inattività vengono proposti come strumenti
> per sviluppare autonomia, concentrazione, immaginazione.
Restare nella noia apre uno spazio in cui le priorità si spostano, le domande si
riformulano e il ritmo interiore si modifica. Chi riesce a sostare in quella
soglia senza cercare una soluzione immediata guadagna spesso un punto di vista
diverso. Nel celebre esperimento di Timothy Wilson, molti partecipanti hanno
scelto una scossa elettrica per interrompere pochi minuti di silenzio mentale.
Quel dato mostra quanto risulti difficile restare in un tempo privo di stimoli e
di compiti. Eppure, proprio in quel tempo la mente può interrompere gli
automatismi, generare un cambiamento, orientarsi verso qualcosa di più utile o
più adatto. Premere il pulsante spezza l’attesa, ma chiude ogni possibilità.
L'articolo L’arte della noia proviene da Il Tascabile.
Q uando osserviamo qualcosa immaginiamo qualcosa. Lo dice la psicologia
cognitiva: nell’elaborare mentalmente quello che vediamo, ne allarghiamo i
confini. Se guardiamo la fotografia di una finestra in un palazzo, nella nostra
mente estendiamo l’inquadratura. Ogni atto di visione suscita una risposta
emotiva che produce immaginazione. Se al mattino vediamo le foto che i nostri
amici hanno pubblicato la sera prima, ricostruiamo mentalmente i contorni di
quell’evento. Se eravamo presenti sarà un ricordo, altrimenti la nostra
immaginazione suggerirà i contorni di una festa che ci siamo persi. Ricordo
quando, durante un seminario di disconnessione digitale, nel corso di storia dei
media del 2023 all’università di Torino, un ragazzo raccontò di svegliarsi ogni
mattina con la sensazione di essersi perso qualcosa, di inseguire la festa degli
altri. Questo suggerisce che quando guardiamo delle fotografie non è solo il
nostro apparato visivo ad attivarsi, ma anche un sistema di proiezione del
contesto sociale che trasforma quell’immagine, in qualcos’altro: per esempio una
fonte di nostalgia per una possibilità non realizzata.
I confini dell’immaginario
Nel racconto Pics di Tony Tulathimutte (incluso nella raccolta Rifiuto, 2025)
Alison guarda le foto della fidanzata dell’amico, con cui vorrebbe stare, e
sente il bisogno di competere, comunicando un’immagine di sé che risulti
affascinante. Vorrebbe usare Instagram per creare un’aura da elusiva
intellettuale, ma con una spontaneità che faccia sembrare la rivale, al
confronto, una cacciatrice di attenzioni. Purtroppo per Alison ogni soluzione le
sembra banale, nessun angolo sembra valorizzarla, e resta imprigionata nel
paradosso dell’autenticità costruita ‒ realizzare una foto che nasconda la
finalità implicita in ogni immagine postata: indirizzare lo sguardo degli altri,
fare sì che ci vedano come vogliamo essere visti. Come vedremo, questa spinta a
costruire un’immagine di sé giocando con l’immaginazione altrui contribuisce a
restringere le possibilità dell’immaginazione e dell’azione, spingendoci verso
una “simbiosi” talvolta parassitaria con i nostri dispositivi.
Secondo la sociologa Eva Illouz la modernità è caratterizzata dall’onnipresenza
del sogno a occhi aperti, che ha come oggetto essenziale la costruzione di
un’immagine: un “sé sognato”. Nella serie TV Too Much scritta e diretta da Lena
Dunham, Jessica ha registrato 537 video di dialogo immaginario con la fidanzata
del suo ex. Un flusso che la tiene bloccata in una realtà parallela, l’unica
dove esprime quello che prova. Quando per errore pubblica i video, si meraviglia
di come la soglia tra pubblico e privato sia sorvegliata da un solo tasto.
Nell’introduzione al romanzo Queer, nel 1985, William Burroughs scriveva che “la
disintegrazione dell’immagine di sé produce spesso un’indiscriminata fame di
immagini”, riferendosi all’indifferenza per la propria immagine provocata dalla
dipendenza da eroina.
> La spinta a costruire un’immagine di sé giocando con l’immaginazione altrui
> contribuisce a restringere le possibilità dell’immaginazione e dell’azione,
> spingendoci verso una “simbiosi” talvolta parassitaria con i nostri
> dispositivi.
A giudicare dalle stime, nel 2025 l’umanità ha scattato più di 2 trilioni di
fotografie, la quasi totalità con uno smartphone; questa iperattenzione
all’immagine di sé e questa iperesposizione alle immagini sono associate a
maggiori livelli di stress, specie quando i feed amplificano contenuti
emotivamente coinvolgenti o competitivi. Negli anni, diversi studi hanno
dimostrato che la sola presenza dello smartphone sia sufficiente a consumare
risorse cognitive (fenomeno noto come brain drain), inoltre, per quanto gli
smartphone possano essere utilizzati per alleggerire il carico cognitivo di
alcuni compiti, un utilizzo indiscriminato può comportare serie ripercussioni su
memoria e attenzione. Abbiamo detto che, quando guardiamo delle fotografie, ne
allarghiamo con l’immaginazione i confini, così come allarghiamo con le dita il
dettaglio di un’immagine. Se l’immaginario è il luogo dove abitano gli oggetti
dell’immaginazione ‒ siano essi ricordi, fantasticherie, sogni a occhi aperti e
chiusi, credenze religiose o opere d’arte – allora è lecito chiedersi se ci sia
abbastanza spazio per le fantasticherie provocate dalle immagini che abbiamo sul
telefono.
Nostalgia immaginaria
Nel 1973 Susan Sontag scriveva: “la nostra è un’epoca nostalgica e i fotografi
sono promotori attivi della nostalgia”. Nell’accelerazione del presente la
nostalgia ha assunto le proporzioni di un mondo fantastico, in cui si può
desiderare di abitare anche se non lo si è mai sperimentato in prima persona.
Per avere un’idea di cosa intendiamo, torna utile un aneddoto musicale piuttosto
recente.
> A giudicare dalle stime, nel 2025 l’umanità ha scattato più di 2 trilioni di
> fotografie, la quasi totalità con uno smartphone. Questa iperattenzione
> all’immagine di sé è associata a un aumento significativo del livello di
> stress.
Nel 2004, i White Stripes stanno suonando a Blackpool, una città sulla costa del
Lancashire nota per le storiche luci artificiali, che la illuminano fin dal
1879, ossia prima del brevetto della lampadina a bulbo di Thomas Edison. Poiché
il concerto ha luogo nei rari giorni in cui le luci sono spente, Jack White
commenta: “Sono nel posto giusto, al momento sbagliato? È così che mi sento
tutti i giorni”; poi attacca Jolene, la famosa canzone di Dolly Parton del 1973.
Sentirsi nel posto giusto al momento sbagliato è un tipo di nostalgia
particolare, perché non investe il vissuto, ma l’immaginato: la possiamo
chiamare nostalgia storica. Secondo lo Human Flourishing Lab (HFL) la nostalgia
storica è una risorsa per costruire l’immagine di sé, grazie a esplorazioni
culturali di un passato mai vissuto. Ci si costruisce un’identità con citazioni
e gadget di epoche superate. Il fidanzato di Jessica, la protagonista di Too
Much, un aspirante musicista, usa un walkman e prepara compilation di CD, come
negli anni Novanta: una playlist non algoritmica. Secondo la ricerca di HFL se
il fenomeno del viaggio nel tempo culturale è comune a più generazioni, per la
generazione Z ha particolare rilevanza il tema della disconnessione. La
nostalgia storica viene usata per dare forma a un futuro con meno ansia, con
relazioni significative e un senso di sé più stabile.
In Italia, secondo l’ultimo rapporto Coop circa il 69% degli intervistati
afferma che in passato si vivesse meglio, e il 53% degli appartenenti alla
generazione Z è convinto che i propri genitori abitassero una realtà più
confortevole. Ma come fa notare l’autore e scienziato Ian Bogost, una cosa che
le nuove generazioni non sanno è che quella senza smartphone era una vita piena
di tempi morti e attività noiose, e chi l’ha sperimentata tende a non averne
particolare nostalgia.
> Viene definita nostalgia vicaria, o storica, la tendenza a rimpiangere un
> passato che non abbiamo mai vissuto. Alcuni studi ipotizzano sia una risorsa
> che il nostro cervello utilizza per costruire l’immagine di sé.
Secondo Clay Routledge, la psicologa sociale che dirige lo Human Flourishing
Lab, non c’è motivo per credere che le nuove generazioni abbandonino o attenuino
l’entusiasmo con cui accolgono le nuove tecnologie; ma in ogni processo di
adozione ci sono reazioni e revisioni, e l’interesse che la generazione Z
manifesta per esperienze di fruizione culturale analogica, come ascoltare un
vinile senza venire interrotti dai consigli per il brano successivo, indica il
desiderio di un futuro diverso.
A proposito di White Stripes: è cosa nota che Jack White creda che i limiti
nutrano la creatività. I White Stripes facevano concerti senza scaletta, usavano
solo tre colori per gli abiti di scena, e le chitarre erano strumenti da banco
dei pegni, scelti appositamente perché sollecitassero un ulteriore impegno. Non
era un rifiuto della tecnologia, ma il tentativo di non adagiarsi nelle sue
scorciatoie. White ha resistito senza uno smartphone fino ai cinquant’anni,
impresa che oggi non riesce quasi a nessuno. Eppure come notava nel suo Contro
lo smartphone (2023) l’informatico Juan Carlos De Martin, non dovremmo dare per
scontato che lo smartphone debba essere come quelli che maneggiamo adesso,
controllati da due soli sistemi operativi, con applicazioni che hanno lo scopo
di aumentare il tempo sul dispositivo.
Un’indagine del Washington Post ha scoperto che bastano 35 minuti di esposizione
al formato video di TikTok per creare un’abitudine al consumo; inoltre, dopo una
settimana d’uso il tempo trascorso sulla piattaforma tende a aumentare del 40%.
“Non si tratta di dare la colpa alla tecnologia, ma di non rassegnarsi a una
tecnologia che erode lo spazio di convivenza sociale e democratica”, mi ha detto
De Martin, quando gli ho chiesto se negli ultimi anni ha visto cambiare
l’atteggiamento delle nuove generazioni verso lo smartphone: “ho visto crescere
un senso di autodifesa”.
> Il punto non è mettere alla berlina la tecnologia in sé e per sé, ma piuttosto
> non rassegnarsi a una tecnologia che erode lo spazio di convivenza sociale e
> democratica.
A questo proposito è interessante il caso dello scrittore Franklin Schneider,
che fa parte del 2% degli statunitensi sotto i cinquant’anni che non hanno e non
hanno mai avuto uno smartphone: negli ultimi due anni si è accorto che la
considerazione intorno a lui è cambiata, passando dallo sguardo di imbarazzata
commiserazione per chi è rimasto indietro all’ammirazione per chi è un passo
avanti.
Mente estesa, simbiosi e parassiti
“Tutti gli oggetti materiali fatti dall’uomo possono essere trattati come
estensioni di ciò che l’uomo una volta faceva con il proprio corpo o con una
parte specializzata del proprio corpo”, scriveva nel 1959 l’antropologo Edward
Hall. Lo citava Marshall McLuhan all’inizio di La galassia Gutenberg (1962), in
cui il sociologo canadese discute di come l’alfabeto fonetico e la stampa
abbiamo contribuito a plasmare la società che abitiamo. Nella teoria dei
filosofi Andy Clark e David Chalmers lo smartphone è un’estensione della nostra
mente. Il telefono connesso a Internet e le applicazioni che usiamo sono uno
strumento cognitivo, come le dita delle mani del bambino che impara a contare e
la lista della spesa che aiuta a non dimenticare. Una recente obiezione a questa
teoria è che gli smartphone non siano un’estensione cognitiva, perché
incorporano interessi potenzialmente divergenti da chi li usa: gli smartphone
sono progettati per manipolare gli utenti, quindi la relazione
persona-smartphone somiglia piuttosto a una relazione simbiotica.
Nel loro recente paper “Smartphones: Parts of Our Minds? Or Parasites?”, la
filosofa Rachael L. Brown e l’evoluzionista Robert C. Brooks ricordano che lo
spettro delle relazioni simbiotiche in biologia va dal mutualismo al
parassitismo: si passa dalla cooperazione con beneficio reciproco, a interazioni
che, per asimmetria di vantaggi, indeboliscono l’ospite; sottolineano inoltre
che si tratta di relazioni con uno scambio dinamico, fortemente caratterizzato
dal contesto. L’analogia con lo spettro delle relazioni simbiotiche permette di
evidenziare sia gli aspetti positivi dell’uso dello smartphone (orientamento,
relazionalità, conoscenza), sia quelli negativi, dove cioè la volontà
dell’agente soccombe a un’abitudine d’uso nociva.
> Secondo Clark e Chalmers lo smartphone è un’estensione della nostra mente. Ma
> c’è chi non è d’accordo: poiché gli smartphone sono progettati per manipolare
> gli utenti, ci avviciniamo piuttosto a una relazione simbiotica di tipo
> parassitario.
C’è chi sostiene che gli economisti potrebbero cominciare a considerare lo
scrolling infinito di video, il cosiddetto brainrot, come un furto, dato che la
forza di volontà da sola non basta a contrastare macchine che creano un ambiente
ostile alla concentrazione, oltre a essere ottimizzate per ottenere il massimo
coinvolgimento dell’utente. Per quanto abbiamo imparato a bilanciare certe
attività, come guidare e telefonare, per quanto rapidamente possiamo passare da
una all’altra, avendo la sensazione di poterci dedicare a due cose
simultaneamente, la nostra capacità di concentrazione è limitata: in realtà,
riusciamo a dedicarci con impegno soltanto a una cosa per volta. Sempre di più
l’attenzione viene considerata una risorsa fragile, oltre che scarsa; già nel
1997, in un pionieristico articolo, Michael Goldhaber aveva notato che quando ci
concentriamo su qualcosa tendiamo a escludere il resto. Negli Stati Uniti il 69%
della generazione Z sta provando a diminuire il tempo speso sullo schermo, che
oggi, per i più giovani, si aggira attorno alle otto ore al giorno.
Nei primi diciassette giorni del nuovo anno scolastico la biblioteca del liceo
Pleasure Ridge Park High a Louisville, ha prestato 1.200 libri, in meno di venti
giorni ha raggiunto la metà dei prestiti dell’intero anno precedente. A seguito
di un divieto imposto dalla scuola, gli studenti, non potendo più usare i
telefoni, prendono libri in prestito. Lo ha raccontato Jessica Grose, in un
articolo in cui evidenzia come i livelli di comprensione del testo e i risultati
di matematica, nel 2024, siano stati i più bassi degli ultimi trent’anni.
> Per quanto possiamo avere la sensazione di poterci dedicare a due cose
> simultaneamente, la nostra capacità di concentrazione è limitata: riusciamo a
> dedicarci con impegno soltanto a una cosa per volta.
“Il divieto dello smartphone a scuola può aiutare a gestire uno strumento così
potente”, mi spiega Simone Natale, docente di storia dei media all’Università di
Torino:
> crea uno spazio vuoto che può essere usato per riflettere su come usare il
> mezzo. In fin dei conti non si tratta di non usare il telefono, ma di ridurre
> e circoscrivere il tempo passato sullo schermo. Con lo smartphone abbiamo la
> sensazione di poter controllare un’infinità di funzioni, una sensazione di
> potenza che ci risarcisce delle molte cose su cui invece non riusciamo a
> esercitare il controllo. Sottovalutiamo però quanto a nostra volta siamo
> controllati dallo strumento.
Restringimento dell’immaginario
Quando ho chiesto ai ragazzi di famiglia della generazione Z se lo smartphone a
loro avviso estenda i confini dell’immaginario, mi hanno risposto senza
esitazione che, al contrario, li restringe. Immagino che volessero dire che lo
smartphone comporti una diminuzione di scelta, di possibilità di azione, perché
sei indirizzato a seguire il flusso delle immagini proposte, a rispondere,
dialogare, costruire, nei limiti delle applicazioni che usi.
Un’altra forma di nostalgia è quella per il futuro che non avremo. Brian Eno ha
fatto spesso riferimento a questo tipo di nostalgia, di recente anche con il
brano Cmon scritto con Fred Again. Come sarebbe un futuro in cui gli smartphone
non fossero disegnati per creare dipendenza, isolarci dal mondo esterno,
accumulare dati, appiattire l’offerta culturale, costruire monopoli finanziari,
oltre ai servizi per cui li usiamo tutti i giorni. Brian Eno, come Jack White,
non è un nemico della tecnologia, anzi, deve la sua carriera all’uso obliquo e
inatteso di essa: “quando sono davanti a un dispositivo tecnologico non voglio
sapere cosa può fare. Voglio sapere come posso usare quel dispositivo per fare
qualcosa che il suo produttore non immaginava si potesse fare”. Non è una scelta
comune. Gran parte del successo dell’offerta tecnologica si basa sulla vittoria
della pigrizia contro l’iniziativa. L’opzione default, la modalità standard, la
soluzione più veloce, la versione con meno passaggi, che riduce o annulla ogni
frizione, vince. Insomma, vince, e viene adottato, ciò che scorre senza
ostacoli, come sa chiunque lavori sull’esperienza d’uso, che sia un produttore
di sintetizzatori o lo sviluppatore di un’interfaccia digitale.
Per Brian Eno, Jack White e molti altri artisti usare la tecnologia in modo
inatteso fa parte del lavoro. Invece i limiti dell’immaginario e l’accumulo
della nostalgia riguardano tutti; come la costruzione, fotografia dopo
fotografia, di un sé che vorremmo ammirato da tutti, o il dialogo fantastico,
giorno dopo giorno, con le migliaia di doppi digitali che incontriamo sul
telefono. A tutti tocca scegliere tra immersione e minimalismo digitale, tra
scorciatoie e scelte personali. In Jolene di Dolly Parton chi canta chiede alla
rivale di non andarsene con il suo uomo. È una canzone che suggerisce di non
fare qualcosa solo perché lo si può fare, ma di pensarci sopra e scegliere.
L'articolo Il parassita a forma di smartphone proviene da Il Tascabile.
L a biologia evoluzionistica ha una storia strana. Per certi versi, la si
potrebbe definire asimmetrica: dalla presentazione della teoria di Darwin e
Wallace del 1858 (anche se, come i più appassionati sanno bene, il concetto di
evoluzione non nasce certo lì), all’integrazione con la genetica mendeliana, la
cosiddetta sintesi moderna intorno agli anni Trenta del Novecento, dagli
sviluppi della genetica molecolare nel secondo dopoguerra, alle teorie
sull’equilibrio punteggiato di Gould, alle recenti integrazioni con biologia
dello sviluppo, epigenetica e le ultime scoperte in campo genetico (tra cui lo
straordinario trasferimento genico orizzontale), l’impressione è che la materia
sia nata come argomento da copertina, quasi pop, per diventare via via sempre
più un tema di nicchia, adatto più che altro agli addetti ai lavori.
È chiaro che il successo straordinario di L’origine delle specie di Darwin e il
suo impatto sulla società sono praticamente impossibili da replicare ai giorni
nostri, ma rimane il fatto che un tema che occupava le prime pagine dei giornali
nella seconda metà del Diciannovesimo secolo sia, di fatto, quasi totalmente
scomparso da quelli che sono i grandi temi del dibattito scientifico, sociale e
culturale mainstream. Con un’unica eccezione: i continui attacchi e dibattiti
sulla veridicità della teoria.
Anche se alcuni di questi temi sanno un po’ di stantio per chi mastica bene la
materia, è indubbio che un aspetto che ha sempre tenuto viva l’attenzione almeno
di una parte del grande pubblico sulla biologia evoluzionistica sono state le
continue critiche degli antievoluzionisti. La storia è ben nota:
l’antievoluzionismo nasce nel Diciannovesimo secolo come reazione religiosa e
culturale alle idee di Darwin, soprattutto in contesti cristiani conservatori.
Poi, nel corso del Novecento, prende forma il creazionismo moderno, protagonista
di scontri pubblici come il celebre processo Scopes del 1925 negli Stati Uniti.
Col tempo, però, alcune posizioni si rivelano eccessivamente antiscientifiche
per restare a galla e così, ironicamente, è lo stesso antievoluzionismo a
evolversi: dagli anni Settanta si sviluppa il cosiddetto “disegno intelligente”,
una versione aggiornata di questa dottrina, che continua a influenzare il
dibattito pubblico, soprattutto sull’insegnamento dell’evoluzione delle scuole,
ma non solo. Ma il dibattito, in certi casi, viene riacceso grazie anche ad
alcuni studi scientifici tout-court, sfruttati ad arte. Ed è il caso di una
recente ricerca.
Uno studio condotto da un gruppo dell’Università di Haifa in collaborazione con
ricercatori del Ghana ha infatti riacceso un dibattito antico quanto la biologia
evolutiva: le mutazioni sono davvero eventi casuali? Oppure il genoma possiede
una sorta di predisposizione interna a generare alcune mutazioni più di altre?
La domanda non è banale, perché la casualità delle mutazioni è stata
storicamente uno dei pilastri della sintesi moderna. Non solo: uno studio del
genere potrebbe riportare in auge una sorta di finalismo nell’evoluzione, di
lamarckiana memoria. E il povero Lamarck, grande biologo che fu tra i primi a
dare dignità scientifica a tanti gruppi animali fino ai suoi tempi pressoché
ignorati, meriterebbe di essere ricordato per ben altro.
> Un nuovo studio ha riacceso un dibattito antico quanto la biologia evolutiva:
> le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta
> di predisposizione interna a generare alcune mutazioni più di altre?
Lo studio in questione, concentrato su una mutazione del gene APOL1 (che
conferisce resistenza a una forma di tripanosomiasi, meglio nota come malattia
del sonno), mostra che la variazione non si distribuisce in modo uniforme in
tutte le popolazioni umane: la mutazione, infatti, compare più frequentemente
nelle popolazioni dell’Africa sub-sahariana, le stesse in cui la malattia è, o è
stata, endemica. Gli autori propongono, con un linguaggio a tratti provocatorio,
l’idea che le mutazioni possano seguire una sorta di “forza interna”, cioè un
insieme di meccanismi intrinseci al genoma che, nel tempo, rendono più probabili
alcune variazioni rispetto ad altre.
L’elemento più interessante, e per certi versi destabilizzante, non è soltanto
la correlazione tra mutazione e ambiente selettivo, ma il fatto che
l’organizzazione del genoma stesso sembri creare canali preferenziali per
l’innovazione genetica. Quando i ricercatori citano fenomeni come la “fusione
genica”, intendono proprio questo: geni che interagiscono di frequente e che,
trovandosi spesso fisicamente vicini all’interno della cromatina (il complesso
formato da DNA e proteine che si trova nel nucleo delle cellule eucariotiche),
hanno una probabilità maggiore di fondersi. Ne deriva, almeno sulla carta, una
visione meno accidentale delle mutazioni, che non sarebbero soltanto il frutto
di errori casuali durante la replicazione del DNA, ma anche il risultato di una
struttura interna del genoma che orienta, in qualche misura, il tipo di
variazioni che possono emergere.
Nonostante la recente pubblicazione, lo studio sembra aver già sollevato
l’interesse di più di un sostenitore del disegno intelligente. E non è un caso:
è chiaro che una simile interpretazione può essere letta come una sfida alla
sintesi moderna. Come accennato in precedenza quest’ultima, nella sua
formulazione classica, si basa proprio sull’idea che la variazione genetica sia
essenzialmente casuale, mentre la selezione naturale funge da filtro non casuale
che amplifica le mutazioni vantaggiose. Ma quella che potrebbe apparire come
un’arma in mano ai sostenitori del disegno intelligente, in realtà, non è di
certo un’arma e forse nemmeno un proiettile.
> Molti ricercatori lavorano già da tempo a un’estensione concettuale della
> sintesi moderna che non nega la validità della selezione naturale, ma
> riconosce che l’origine della variazione ereditaria non è riducibile solo a
> mutazioni casuali.
Da almeno quarant’anni i biologi evoluzionisti sviluppano teorie che rivelano
come la realtà sia ben più complessa: lo sviluppo embrionale, l’epigenetica, la
regolazione genica, la struttura cromosomica, la plasticità fenotipica, la
costruzione di nicchia e la selezione multilivello sono tutti processi che
introducono vincoli e direzioni che la Modern synthesis originaria non
contemplava esplicitamente. Il che, da un certo punto di vista, non è di certo
inaspettato: in fondo si parla di una teoria nata quasi cento anni fa e che dai
tempi è stata integrata dall’apporto di centinaia di nuove scoperte.
E infatti, da questo punto di vista, lo studio non rappresenta necessariamente
una demolizione della sintesi moderna, quanto piuttosto l’ennesimo tassello che
invita ad ampliarla. Del resto, molti ricercatori lavorano già da tempo in
direzione di una Extended evolutionary synthesis, un’estensione concettuale che
non nega la validità della selezione naturale, ma riconosce che l’origine della
variazione ereditaria non è riducibile solo a mutazioni casuali. C’è un’intera
costellazione di meccanismi regolativi che condizionano ciò che può variare e in
che modo può farlo.
La lettura proposta da alcuni critici, secondo cui scoperte di questo tipo
aprirebbero le porte a un ritorno dell’ortogenesi, una teoria evolutiva oggi
abbandonata secondo cui l’evoluzione seguirebbe una direzione predeterminata,
guidata da una sorta di “forza” o impulso intrinseco alle specie, è però
forzata. Non c’è nulla, nei dati disponibili, che implichi un orientamento
finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, né
tantomeno una qualche volontà interna dei genomi. Si può parlare, con più
prudenza, di mutazioni non del tutto casuali nel senso statistico del termine:
distribuzioni non uniformi, predisposizioni legate all’organizzazione
cromatinica e alle pressioni ambientali. In altre parole, una complessità
maggiore. Discorso ben diverso dalla teleologia, in cui gli eventi accadono in
vista di un obiettivo prestabilito. Niente mutazioni che avvengono al fine di
contrastare malattie endemiche, insomma.
> Anche dai nuovi studi non emerge nulla che lasci pensare a un orientamento
> finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità,
> né tantomeno una qualche volontà interna dei genomi.
Nello specifico, lo studio è focalizzato su un caso molto particolare e non
dimostra che le mutazioni in generale seguano schemi predittivi di questo tipo.
Ci sono anche altre considerazioni da fare: la correlazione tra mutazione e
ambiente non prova automaticamente che il genoma “scelga” di mutare in quella
direzione. Chi studia i meccanismi di riparazione del DNA, per esempio, sa bene
che certe regioni sono più esposte a rotture, altre più soggette a errori, altre
ancora più accessibili o meno protette. In tutti questi casi ci si discosta
dalla casualità “pura”, ma non per questo abbiamo mutazioni che operano con una
direzione preferenziale.
D’altro canto, è innegabile che il quadro si stia evolvendo verso una visione
più complessa della variazione. A partire dagli anni Novanta, con l’emergere di
concetti come il natural genetic engineering (termine coniato da James A.
Shapiro per indicare i meccanismi attivi di ristrutturazione del materiale
genico) o la facilitated variation, un’idea proposta da Marc Kirschner e John
Gerhart per spiegare come gli organismi possano produrre nuove varianti
evolutive in modo relativamente semplice ed efficiente grazie alla loro
architettura biologica, l’idea di un genoma del tutto passivo ha perso
credibilità. Gli organismi possiedono sistemi sofisticati per rispondere allo
stress, limitare i danni, modificare pattern di espressione, attivare trasposoni
o ricombinazioni non casuali. Questo non significa che tali sistemi abbiano un
fine evolutivo consapevole, ma che l’evoluzione, nel corso di milioni di anni,
ha selezionato organismi capaci di generare variazioni in modi più strutturati
rispetto al semplice “errore”.
Si parla sempre più spesso di evolvabilità, la capacità di un sistema biologico
come un gene, un organismo o un’intera popolazione, di generare una variazione
ereditabile su cui la selezione naturale può agire. L’evolvabilità stessa può
essere selezionata: un organismo in grado di produrre variazioni utili (ad
esempio grazie a una maggiore plasticità fenotipica) ha un vantaggio in ambienti
particolarmente mutevoli. Vedendola sotto questa luce, la direzionalità
dell’evoluzione non è un piano preordinato, ma l’effetto emergente di vincoli,
strutture interne e pressioni selettive che rendono alcuni percorsi, molto
semplicemente, più probabili di altri.
Ragionando in questi termini, si potrebbe pensare alla direzionalità come a una
proprietà statistica: non un tragitto obbligato, ma una certa tendenza a
muoversi lungo percorsi più agevoli. L’organizzazione del genoma, i pattern di
regolazione, la struttura delle reti metaboliche e di sviluppo, la storia
evolutiva precedente (ciò che Stephen Jay Gould chiamava contingency)
contribuiscono tutti a creare una direzionalità, ma tutto questo non implica un
fine, né un progresso. Comporta invece che l’evoluzione non sia un cammino del
tutto aperto, bensì un processo che si muove all’interno di un ventaglio di
possibilità limitate.
> Gli studi sulle mutazioni non casuali ci invitano a riconsiderare i meccanismi
> interni del genoma: non dei banali replicatori che incappano in errori
> casuali, bensì un sistema complesso che possiede vincoli, predisposizioni e
> una storia che ha modellato la sua possibilità stessa di mutare.
È ben difficile dire che la sintesi moderna sia morta o in declino. Al giorno
d’oggi, invece, affermare che è incompleta è quasi un’ovvietà. Ha funzionato, e
funziona tuttora, come un quadro teorico essenziale, ma il suo riduzionismo
basato sulla genetica, che si rivelò cruciale nel periodo in cui fu elaborata,
non è in grado di esaurire la complessità dei processi evolutivi emersi dalla
genomica, dalla biologia dello sviluppo, dall’epigenetica e dalle scoperte
biologiche più recenti. Siamo probabilmente in una fase di trasformazione, in
cui la Modern synthesis sta diventando parte di una visione più ampia. Non si
tratta di sostituirla completamente, ma di integrarla con nuovi concetti e nuove
prove scientifiche.
Il lavoro su APOL1 non annuncia il ritorno del lamarckismo né un nuovo “slancio
vitale”, ma ricorda che l’evoluzione è un processo molto più ricco e dinamico
rispetto allo schema che comprende una mutazione casuale unita alla selezione
naturale. Ci invita a considerare i meccanismi interni del genoma non come dei
banali replicatori che ogni tanto incappano in errori casuali, ma come un
sistema complesso che possiede vincoli, predisposizioni e, soprattutto, una
lunghissima storia antecedente, che ha modellato la sua possibilità stessa di
mutare. Lo studio di Haifa, come ho già detto, non si rivela un’arma contro la
sintesi moderna, ma forse nemmeno un proiettile. Anzi, è più probabile il
contrario: potrebbe aggiungere un tassello in più in un’architettura sempre più
meravigliosamente complessa e che solo in questi decenni si sta rivelando ai
nostri occhi.
L'articolo L’evoluzione non ha una bussola proviene da Il Tascabile.
S e negli ultimi decenni, grazie agli studi postcoloniali, è stato reso noto
l’impatto del capitalismo sugli ambienti umani e non umani di tutto il mondo,
esiste una colonizzazione ancora più profonda e pervasiva operata dal sistema
economico imperante: quella delle menti – non solo in senso ideologico, ma anche
puramente neuronale; e, con questa, la colonizzazione del tempo futuro, oltre
che dello spazio. Su questo nucleo si concentra l’analisi che Matteo Motterlini
fa in Scongeliamo i cervelli non i ghiacciai. Perché la nostra mente è
l’ostacolo più grande nella lotta al cambiamento climatico (2025): un saggio
tanto agevole quanto dettagliato sui meccanismi cognitivi, prima ancora che
socio-politici, che hanno innescato la crisi ecologica in atto.
Il capitalismo da finanziario si è fatto limbico: ha imparato ad attivare e
sfruttare i circuiti dopaminergici degli esseri umani, le reazioni istintive, i
riflessi emotivi e le tendenze comportamentali controllate dalle strutture
cerebrali che vanno sotto il nome di sistema limbico, appunto. È il sistema
dell’anticipazione del piacere, emotivo e reattivo, in tensione con i circuiti
del controllo cognitivo e della pianificazione, in cui la corteccia prefrontale
ha un ruolo centrale. Questo equilibrio dinamico, ci spiega Motterlini, è stato
programmaticamente alterato, e i disequilibri ecologici e geopolitici che sono
ormai sotto gli occhi di tutti ne sono una conseguenza su larga scala. La
promozione di beni e servizi che incoraggiano l’eccesso e la dipendenza,
attraverso ricompense rapide ma a breve termine, è alla base di un’economia
(digitale e non) in cui la sovrabbondanza si maschera da scarsità percepita,
alterando così il modo in cui pensiamo e prendiamo decisioni. E il paradosso è
che l’edonismo sfrenato alla base dei consumi in costante crescita sfocia in
realtà in un’anedonia solipsistica e nichilista.
Scongeliamo i cervelli affronta questi e tanti altri meccanismi, attraverso dati
ed esperimenti sociocognitivi che illuminano la profondità del pozzo in cui ci
troviamo, ma anche molte possibili strategie per venirne fuori. In occasione
dell’uscita del libro abbiamo dialogato con l’autore, professore ordinario di
filosofia della scienza presso l’Università Vita-Salute San Raffaele di Milano,
dove dirige il Centro di ricerca in epistemologia sperimentale e applicata.
Da un lato l’attenzione del saggio si rivolge ai meccanismi neuronali che
distinguono gli esseri umani dagli altri esseri viventi: in particolare, la
pianificazione a lungo termine e i comportamenti da questa derivanti vengono
presentati come capacità caratteristiche della sola nostra specie,
distinguendoli dai comportamenti animali che sarebbero anticipatori solo come
riflesso dell’evoluzione. Dall’altro lato è molto efficace, nel libro, la
definizione della crisi climatica come crisi di astinenza in un sistema
economico drogato di crescita, che suggerirebbe un parallelo tra il sistema
cognitivo umano e il sistema planetario: la mente umana sarebbe quindi il motore
di dinamiche globali che a loro volta influiscono sui (dis)funzionamenti
cognitivi dei singoli.
QUALI SONO I VANTAGGI DELLO SCORPORARE I MECCANISMI COGNITIVI UMANI DA QUELLI
PIÙ-CHE-UMANI? IN CHE MISURA È NECESSARIO DISTINGUERE I NOSTRI MODI DI PENSARE –
QUELLI VIRTUOSI MA SOPRATTUTTO QUELLI FALLACI – PER COMPRENDERE UNA CRISI CHE È
IN LARGA PARTE ORIGINATA PROPRIO DA UN’ERRONEA LETTURA DELLA CENTRALITÀ
DELL’ESSERE UMANO SULLA TERRA?
Gli animali anticipano il futuro solo perché l’evoluzione li ha “programmati” a
farlo. Noi, invece, possiamo rappresentarcelo, simularlo, immaginarlo. Questa
capacità – che nasce dall’evoluzione, certo – è però fragile, discontinua,
facilmente sabotata da impulsi più antichi. È lì che si determina un
cortocircuito: abbiamo un cervello capace di pianificare il lungo periodo, ma lo
usiamo poco, male e spesso contro noi stessi. L’incapacità di reagire alla crisi
climatica nasce da una combinazione di miopia temporale, present bias e ambienti
decisionali che amplificano le nostre debolezze.
Il capitalismo della crescita infinita funziona perché parla direttamente al
nostro sistema limbico, non alla parte riflessiva della mente. È una gigantesca
macchina dopaminergica che trasforma una vulnerabilità biologica in un modello
economico. In questo senso, quando descrivo la crisi climatica come una crisi di
astinenza, non è una metafora azzardata: è una diagnosi cognitiva. Stiamo
chiedendo a un sistema dipendente dai consumi di smettere, senza cambiare il
contesto che lo rende dipendente.
MA NON È LA RIFLESSIONE UMANA ESSA STESSA UNA CONSEGUENZA DELL’EVOLUZIONE? COSA
POTREMMO IMPARARE DAL RIPENSARLA IN QUANTO TALE?
Capire come funziona la nostra mente serve a decentrare l’umano, non a
celebrarlo. Ci mostra che non siamo osservatori esterni del sistema Terra, ma
una sua parte biologica, con limiti precisi, bias prevedibili e una capacità di
autoinganno sorprendente. Pensarci come “speciali” perché razionali è uno degli
errori che ci ha portato fin qui. La riflessività umana è un prodotto
dell’evoluzione. Ma è un prodotto incompiuto. Non è una conquista definitiva, è
una possibilità che va allenata, sostenuta da istituzioni, norme, incentivi,
architetture di scelta. Se la lasciamo sola, perde quasi sempre contro l’urgenza
del presente.
È per questo che nel libro insisto tanto su regole, vincoli, default,
cooperazione: non come limitazioni della libertà, ma come protesi cognitive.
Strumenti che compensano ciò che l’evoluzione non ha avuto il tempo di
perfezionare. Se siamo arrivati fin qui cambiando l’ambiente naturale, possiamo
anche cambiare l’ambiente decisionale per non autodistruggerci. Non dobbiamo
diventare “più buoni” o “più saggi”. Dobbiamo diventare più realisti su come
funzioniamo davvero. È da lì che può nascere una risposta alla crisi climatica.
IN BASE AL MODELLO ECONOMICO DELLO SCONTO ESPONENZIALE, OGNI INTERVALLO DI TEMPO
RIDUCE IL VALORE DI UNA RICOMPENSA IN MODO PROPORZIONALE E COSTANTE, SECONDO UNA
CURVA DECRESCENTE, REGOLARE E CONTINUA. TENDEREMMO QUINDI A PREFERIRE
GRATIFICAZIONI IMMEDIATE PIUTTOSTO CHE LAVORARE CON LUNGIMIRANZA SULLA
RISOLUZIONE DI PROBLEMI CHE SAPPIAMO ANDARE PEGGIORANDO. EPPURE, ALMENO NEL
MONDO OCCIDENTALE, SI RISCONTRA UN’INCAPACITÀ DIFFUSA A GODERE DEL PRESENTE
STESSO, AD ESSERNE SODDISFATTI, AD ATTRIBUIRE UN VALORE NON MONETARIO AL QUI E
ORA. COME VEDE QUESTA DISSONANZA TRA I MODELLI ECONOMICI E L’EFFETTIVO MODO DI
STARE AL MONDO DI MOLTI DI NOI IN QUESTA PARTE DEL MONDO?
Lo sconto intertemporale non dice che il presente ci rende felici, ma che tende
a pesare troppo nelle nostre decisioni. Sovrastimiamo i costi immediati e
sottostimiamo i benefici futuri. Questo però produce un paradosso: non sappiamo
rinunciare a gratificazioni rapide, ma al contempo non traiamo soddisfazione
duratura da ciò che facciamo. Questa distorsione nasce da un conflitto interno:
tra un sé orientato all’immediato, sensibile alle perdite e all’urgenza, e un sé
proiettato nel futuro ma psicologicamente e politicamente debole. È per questo
che rimandiamo scelte che sappiamo necessarie, e allo stesso tempo viviamo in
una condizione di affanno permanente. Lo stesso meccanismo opera sul piano
collettivo e intergenerazionale. Trattiamo le generazioni future come se
contassero meno, come se avessero un valore ridotto. È una forma di miopia
temporale che rende possibile la procrastinazione climatica: sappiamo che i
costi arriveranno, ma non ricadranno su di noi, almeno non subito. Un presente
governato dall’urgenza della crescita, dalla logica della performance e
dall’illusione dell’ottimizzazione continua finisce per erodere le condizioni
stesse del benessere, oggi e domani. È un presente che divora il futuro senza
riuscire a nutrire chi lo vive.
MI PARE CHE IL DISCORSO POSSA ESSERE AMPLIATO ANCHE ALL’OTTIMISMO IMPOSTO
DALL’ALTO INSIEME A UN’IDEA DISTORTA DI PROGRESSO, IN NETTO CONTRASTO CON
PESSIMISMO E CATASTROFISMO SEMPRE PIÙ DIFFUSI NEL MONDO REALE.
L’ottimismo imposto dall’alto si inserisce come una narrazione rassicurante che
promette progresso senza costi, soluzioni senza rinunce, tecnologia senza
limiti. Ma, paradossalmente, proprio per questo genera sfiducia. Quando il
racconto ufficiale è in contrasto con l’esperienza quotidiana, produce
dissonanza. E la dissonanza, se non viene riconosciuta, si trasforma in cinismo
o in fatalismo. Il pessimismo che vediamo emergere non è un rifiuto del futuro
in sé, ma la percezione che il patto intergenerazionale sia stato rotto. Che
qualcuno stia incassando oggi lasciando ad altri il conto di domani. La
risposta, come sostengo nel libro, non è scegliere tra ottimismo e pessimismo,
ma ricostruire istituzioni, regole e norme sociali capaci di rendere il futuro
rilevante nel presente.
IN PARTE COLLEGATA ALLA DOMANDA PRECEDENTE C’È UNA CURIOSITÀ SUL DATO DA LEI
RIPORTATO IN BASE AL QUALE NEGLI ULTIMI VENTI ANNI IL BENESSERE SOGGETTIVO DI
TUTTE LE FASCE D’ETÀ È DIMINUITO IN NORD AMERICA. SEMBRA DUNQUE CHE SI STIA
RISVEGLIANDO UNA CONSAPEVOLEZZA DEI TANTI E VARI PROBLEMI INTRINSECHI AL
COSIDDETTO SVILUPPO CAPITALISTA E ALLO STESSO SOGNO AMERICANO. COME MAI, SECONDO
LEI, NON SI RIESCE A INCANALARE QUESTA PERCEZIONE IN UN CAMBIO DI ROTTA
CULTURALE E POLITICO? CHE TIPO DI STRATEGIE COGNITIVE DOVREBBERO ESSERE
SOLLECITATE PER GENERARE UN CAMBIO DI QUESTO TIPO?
Il calo del benessere percepito che osserviamo negli ultimi vent’anni,
soprattutto in Nord America e tra i più giovani, è un segnale forte perché
smentisce l’idea che più crescita, più consumo e più stimoli dopaminergici
coincidano automaticamente con più “felicità”. L’epidemia di obesità, l’aumento
delle dipendenze, l’abuso di psicofarmaci e oppioidi mostrano che quando un
ambiente è progettato per stimolare continuamente il circuito della ricompensa,
il risultato non è la soddisfazione, ma l’assuefazione. E l’assuefazione non
produce felicità: produce bisogno e, nei casi peggiori, dipendenza. È così che
possiamo avere società sempre più ricche e individui sempre meno felici. Nel
libro spiego perché questa non è una contraddizione, ma un effetto diretto del
modo in cui definiamo e misuriamo il progresso. Il PIL registra flussi di
produzione e consumo, ma ignora ciò che viene eroso per ottenerli. Conta come
crescita ciò che in realtà è consumo di capitale – sociale e naturale. Se
inquiniamo, degradiamo ecosistemi o compromettiamo la salute pubblica, il PIL
sale comunque. Questo modello di crescita assomiglia sempre più a un ciclo di
dipendenza: ricerca continua del piacere, illusione di eccessi senza
conseguenze, rimozione sistematica dei costi reali. Funziona finché funziona.
Poi il sistema non regge più.
La sostenibilità non riguarda un flusso annuale, ma uno stock: il patrimonio
complessivo che lasciamo in eredità. Confondere questi due livelli significa
prendere decisioni pubbliche con una bussola che punta nella direzione
sbagliata. Per tutelare davvero il benessere dei futuri abitanti del pianeta
servirebbe una contabilità della ricchezza inclusiva, che consideri il capitale
naturale e sociale come parte integrante della ricchezza collettiva. La “L” in
PIL sta per lordo, non per “al netto” della distruzione di suolo, aria e
biodiversità. È uno strumento utile per il breve periodo, ma inadatto a guidare
scelte di lungo termine. Un Paese che aumenta il PIL distruggendo il proprio
capitale naturale non sta diventando più ricco: sta firmando una cambiale a
carico di chi verrà dopo di noi. E rimandare non elimina il costo, lo accumula.
Quando il futuro presenterà il conto, la vera domanda non sarà quanto ci costerà
cambiare, ma quanto ci è costato non averlo fatto prima.
TROVO MOLTO PRODUTTIVA LA SUA DISCUSSIONE DEL MECCANISMO DEL PREIMPEGNO, CHE
PREVEDE UN’AUTOIMPOSIZIONE DI VINCOLI CHIARI E IRREVERSIBILI A CUI OGNI NUOVO
CICLO POLITICO DOVRÀ TENERE FEDE. LEI SPIEGA BENE COME LA SCELTA DI
PREIMPEGNARSI A RIDURRE PRODUZIONE, CONSUMI E CRESCITA ECONOMICA PER TUTELARE
L’AMBIENTE – E DUNQUE LIMITARE ALCUNE SCELTE NEL PRESENTE – SIA CONDIZIONE
NECESSARIA PER LA SOPRAVVIVENZA DELLA STESSA CAPACITÀ DI SCELTA IN FUTURO,
DECOSTRUENDO COSÌ LA RETORICA LIBERISTA SECONDO CUI LE LIBERTÀ INDIVIDUALI
DOVREBBERO ESSERE INATTACCABILI. QUALE FORMA DI GOVERNO, A SUO PARERE, SAREBBE
LA PIÙ EFFICACE AD ACCOGLIERE UN CERTO GRADO DI DIRIGISMO AMBIENTALISTA,
CONSIDERANDO I PROBLEMI CHE LEI STESSO EVIDENZIA NELLE DEMOCRAZIE ODIERNE, ORMAI
SUCCUBI DI OLIGARCHIE FINANZIARIE E DIGITALI?
Nel libro insisto su un punto che spesso viene frainteso: il preimpegno non è
una limitazione della libertà, ma la condizione stessa affinché si intervenga a
favore del clima. Se continuiamo a interpretare la libertà solo come assenza di
vincoli nel presente, finiamo per distruggere proprio lo spazio entro cui le
scelte future potranno essere esercitate. Da qui discende una conseguenza
politica scomoda ma inevitabile. La questione ambientale non può essere
affrontata da una forma di governo che viva in uno stato di campagna elettorale
permanente, con l’orizzonte temporale fissato alle prossime elezioni o ai
prossimi sondaggi. Le democrazie contemporanee, così come funzionano oggi,
soffrono di una miopia strutturale: tendono a sovrappesare il consenso immediato
e a sottovalutare i costi differiti. Questo le rende particolarmente esposte
alla pressione di interessi concentrati, ben organizzati e finanziariamente
potenti.
La risposta non è né l’autoritarismo verde né una sospensione della democrazia.
L’idea che serva “meno democrazia” per salvare il pianeta è una falsa
alternativa. Il problema non è la democrazia in sé, ma una democrazia priva di
vincoli credibili contro il “breve-termismo”. La forma di governo più efficace è
una democrazia capace di autovincolarsi. Una democrazia che accetta alcune
scelte fondamentali, rendendole non negoziabili a ogni cambio di maggioranza. È
una logica molto semplice: se sappiamo che cederemo alla tentazione, l’unica
soluzione razionale è toglierci la possibilità di farlo. Questo significa
fissare obiettivi ambientali chiari e duraturi, sottrarli alla contingenza
politica e affidarli a regole e istituzioni progettate per durare nel tempo:
standard ambientali stringenti, politiche industriali coerenti, meccanismi
fiscali che rendano costoso tornare indietro. Non perché qualcuno “comandi
dall’alto”, ma perché senza vincoli il sistema deraglia.
Come detto, è una questione di giustizia intergenerazionale. Chi pagherà il
prezzo più alto delle scelte attuali non ha voce nel processo politico di oggi.
Il preimpegno serve anche a questo: a rappresentare interessi assenti, a dare
peso politico a chi oggi non può difendersi. L’idea che le libertà individuali
siano intoccabili anche quando distruggono le condizioni materiali della loro
stessa esistenza è una fallacia. La libertà di inquinare che consuma il futuro
non è libertà: è mettere il pianeta in liquidazione.
UN PREGIO DEL SUO LIBRO RISIEDE NELLA PROPOSTA DI SOLUZIONI, ALCUNE DELLE QUALI
A PORTATA DI OGNUNO DI NOI, ALTRE RELATIVE ALLA GESTIONE DELLA COSA PUBBLICA. IL
SUO STESSO LAVORO AGISCE NELL’ALVEO DI QUELLA CHE LEI DEFINISCE UN’EDUCAZIONE
CIVICA EPISTEMICA, PRODUCENDO INFORMAZIONE SCIENTIFICA AFFIDABILE E ACCESSIBILE,
CHE POSSA FARE DA BASE A SISTEMI VIRTUOSI DI GESTIONE COLLETTIVA. MI PIACEREBBE
QUINDI FINIRE CON UN ESPERIMENTO IMMAGINATIVO. SE LE VENISSE AFFIDATO DOMANI UN
RUOLO DECISIONALE ALL’INTERNO DEL GOVERNO DI UN PAESE OCCIDENTALE – L’ITALIA,
PERCHÉ NO? – QUALI SAREBBERO I PRIMI TRE CAMBIAMENTI SU CUI LAVOREREBBE
NELL’IMMEDIATO, E IN CHE MODO QUESTI ANDREBBERO AD AGIRE SUL MEDIO-LUNGO
PERIODO?
Il primo intervento riguarderebbe la visibilità del problema. Una delle ragioni
per cui la crisi climatica non ci muove è che resta astratta, lontana,
statisticamente corretta ma emotivamente irrilevante. Renderei salienti gli
impatti locali, presenti, quotidiani delle scelte ambientali. Dati chiari,
comparabili, territorializzati. Non “il pianeta”, ma l’aria che respiriamo,
l’acqua che beviamo, i costi sanitari che paghiamo. Nel medio periodo questo
crea una base di realtà condivisa, riducendo lo spazio per la dissonanza
cognitiva e il negazionismo.
La seconda leva sarebbe quella delle scelte per default. Non chiederei alle
persone di diventare improvvisamente più virtuose o più informate. Cambierei ciò
che accade quando non si sceglie. Energia, mobilità, edilizia, rifiuti: rendere
l’opzione sostenibile quella standard, lasciando sempre la possibilità di
opt-out, ma rendendo il comportamento dannoso più costoso, meno comodo, meno
invisibile. È una misura poco ideologica e molto efficace, perché lavora con,
non contro, i limiti cognitivi. Nel medio-lungo periodo questo normalizza
comportamenti che oggi appaiono “sacrifici”.
La terza azione riguarderebbe la fiducia. Senza fiducia nelle istituzioni, nella
scienza e nei processi decisionali, nessuna transizione regge. Investirei subito
in quello che nel libro chiamo educazione civica epistemica: non per insegnare
alle persone “cosa pensare”, ma come distinguere informazioni affidabili da
narrazioni manipolatorie. Questo significa rafforzare l’indipendenza delle
autorità scientifiche, proteggere gli spazi di competenza dagli attacchi
politici e rendere trasparenti i conflitti di interesse. Nel lungo periodo, è
l’unico antidoto strutturale alla disinformazione e al complottismo.
Sono interventi poco spettacolari, lo ammetto. Non promettono miracoli né
salvezze rapide. Ma hanno un vantaggio decisivo: non richiedono un’umanità
migliore, solo istituzioni un po’ più intelligenti e a misura di cittadino. E se
c’è una cosa che ho imparato studiando decisioni e comportamenti è che, quando i
contesti cambiano con “cognizione di causa”, le persone spesso fanno la cosa
giusta senza neppure accorgersene. In fondo, sarebbe già un enorme passo avanti.
L'articolo Capitalismo dopaminergico proviene da Il Tascabile.
I l 2025 verrà ricordato, quantomeno da chi ha la passione per cinema e
dinosauri, come un anno dorato. In un genere tradizionalmente parco di proposte
sono usciti ben due film di alto profilo con protagonisti i rettili mesozoici.
Il primo, Jurassic World – La rinascita, di Gareth Edwards, è il settimo
capitolo di una saga ultratrentennale e il quarto uscito negli ultimi dieci
anni. Costato intorno ai 200 milioni di dollari, ne ha incassati più di 800, a
dimostrazione che il franchise è uno dei pochi ancora in piena salute a
Hollywood, almeno tra quelli storici. A fronte di questo successo, passa in
secondo piano il fatto che i dinosauri del film non siano ormai più veri
dinosauri, ma ibridi con altre specie (anche tassonomicamente distanti), o
addirittura creature transgeniche con caratteristiche fisiche anatomicamente
impossibili e nomi altisonanti come Distortus rex (un Tyrannosaurus rex a sei
zampe).
Il secondo film di dinosauri dell’anno, Primitive War di Luke Sparke, di milioni
ne è costati appena sette, e non è arrivato a incassarne due. Tratto da un
romanzo scritto da un vero appassionato del tema (l’americano Ethan Pettus, che
ha anche collaborato alla sceneggiatura del film), è popolato, questo sì, di
veri dinosauri, strappati alla loro epoca da un macchinario – costruito dai
russi con lo scopo originario di teletrasportare i propri soldati in posizioni
vantaggiose – che ha aperto svariati varchi nello spazio-tempo. Da questi
varchi, strategicamente situati nel mezzo della giungla vietnamita nel 1968,
sono uscite intere popolazioni di Utahraptor, Deinonychus, ovviamente
Tyrannosaurus rex, e anche di creature che dinosauri non sono ma che hanno la
loro stessa età e tutto quello che serve per partecipare al carnaio, come
Quetzalcoatlus.
Nonostante abbiano in comune un aspetto fondamentale, quindi, cioè la presenza
dei dinosauri, Jurassic World – La rinascita e Primitive War hanno avuto
risultati molto diversi, prevedibili entrambi, e che rispondono alle più
basilari leggi del mercato cinematografico. Strizzando un po’ gli occhi, però,
si potrebbe vedere dietro questa sproporzione anche un aspetto simbolico, e un
avvertimento ai filmmaker di tutto il mondo: più i tuoi dinosauri sono
realistici, meno successo avranno.
> Per molto tempo la possibilità che i dinosauri avessero le piume rimase
> sostanzialmente inesplorata, anche perché andava contro quella che era
> l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia
> aperte da cinema e letteratura.
Cercare realismo e correttezza scientifica in un film nel quale i russi cattivi
squarciano lo spazio-tempo può sembrare un esercizio sciocco, almeno quanto
aspettarsi che un B-movie australiano ambientato in Vietnam abbia una funzione
pedagogica. Eppure la storia dell’audiovisivo insegna che molte rappresentazioni
della natura comparse su grande o piccolo schermo hanno contribuito, giuste o
sbagliate che fossero, a plasmare il nostro immaginario. Nel 1958, il presunto
documentario Artico selvaggio (White Wilderness) di James Algar, si inventò
l’idea che i lemming fossero animali con istinti suicidi di massa; si scoprì poi
che i roditori erano stati gettati apposta da una scogliera dagli stessi autori
del documentario, ma lo scandalo non fu sufficiente per sradicare del tutto la
diceria (ancora nel 2014 uscivano studi sul legame tra consumo di alcool e
percezione del rischio che parlavano di “Lemming-effect”). Gli effetti de Lo
squalo (Jaws, 1975) di Steven Spielberg sulla nostra immagine degli squali si
sentono ancora oggi. Vogliamo allargare il campo all’intero ambito culturale? In
Italia, la paura del lupo è quasi atavica, e Cappuccetto Rosso ha contribuito in
maniera decisiva a definirla.
Ed ecco perché un film come Primitive War ha attirato l’attenzione dei
paleontologi anche più che dei cinefili: i suoi dinosauri sono piumati, e un
eventuale successo dell’opera avrebbe potuto spalancare le porte a una
rivoluzione che è in pausa da trent’anni.
La questione delle piume
La questione delle piume dei dinosauri è in realtà ben più vecchia di
trent’anni. Le prime ipotesi sul legame tra dinosauri e uccelli risalgono al
1861, con la scoperta e descrizione di Archaeopteryx lithographica, il primo
dinosauro piumato, da parte di Christian Erich Hermann von Meyer, e poi al 1870,
quando Thomas Henry Huxley avanzò formalmente l’idea in un paper dall’esplicito
titolo “Further Evidence of the Affinity between the Dinosaurian Reptiles and
Birds”. Fino al 1969, però, la questione rimase sostanzialmente inesplorata,
anche perché era in netto contrasto con l’immagine dei dinosauri accettata dalla
scienza e accolta poi a braccia aperte da cinema e letteratura: quella che li
vedeva come grosse lucertole lente e un po’ tonte, oppure grosse e voraci (ma
altrettanto lente). Una visione nata in parallelo alla stessa paleontologia,
portata avanti a cavallo tra Ottocento e Novecento dai più grandi nomi della
disciplina e proposta anche al pubblico in giornali, riviste, mostre ed
esibizioni: le storiche sculture del Crystal Palace Park di Londra, create nel
1854 da Benjamin Waterhouse Hawkins, definirono l’immagine pubblica dei
dinosauri per più di un secolo.
> I dinosauri sono stati considerati delle grosse lucertole lente e un po’
> tonte, finché, cinquant’anni fa, alcuni studi hanno suggerito che fossero
> animali agili, a sangue caldo ed evolutivamente imparentati agli uccelli.
La rivoluzione scoppiò a cavallo tra gli anni Sessanta e Settanta del secolo
scorso. Prima, nel 1969, John Ostrom descrisse Deinonychus antirrhopus come un
“dinosauro carnivoro molto particolare” con “una serie di caratteristiche che
indicano un animale molto attivo e agile”, in contrasto quindi con lo stereotipo
della lucertola lenta. Poi, nel 1975, Robert Bakker aprì così il suo storico
articolo “Dinosaur Renaissance”:
> I dinosauri sono, per la maggior parte della gente, l’epitome dell’animale
> estinto, il prototipo della bestia talmente poco adatta ai cambiamenti
> ambientali che non può che morire, lasciando fossili ma nessun discendente. I
> dinosauri hanno una pessima immagine pubblica, che li vede simboli di
> obsolescenza e pachidermica inefficienza […] Le ricerche più recenti stanno
> riscrivendo questo dossier […] Le prove dimostrano che i dinosauri non si sono
> estinti del tutto. Un gruppo resiste ancora. Li chiamiamo uccelli.
L’articolo di Bakker proseguiva suggerendo che i dinosauri fossero omeotermi (“a
sangue caldo”), che avessero un metabolismo paragonabile a quello dei mammiferi,
ma anche, per esempio, che Archaeopteryx avesse le piume non per facilitarlo nel
volo ma per questioni di isolamento termico. Tutte idee rivoluzionarie, anche
provocatorie, che aprirono innumerevoli filoni di ricerca e contribuirono a
modificare, e pure con una certa rapidità, il modo in cui la paleontologia
immaginava i dinosauri: il legame con gli uccelli era ormai innegabile, e i loro
antenati diventarono all’improvviso creature attive, agili, forse anche
intelligenti.
> Niente ha contribuito a segnare per sempre il nostro immaginario quanto
> l’uscita, nel 1993, di Jurassic Park: un laboratorio a cielo aperto, un grande
> aggiornamento collettivo per mettere il pubblico in pari con la scienza.
E come già accaduto nell’Ottocento, anche queste novità filtrarono rapidamente
nel cosiddetto immaginario collettivo. Il cartone animato di Don Bluth Alla
ricerca della Valle Incantata (The Land Before Time), uscito nel 1988, avrebbe
avuto dinosauri molto diversi se fosse uscito solo dieci anni prima. Provate a
confrontare la versione cinematografica di Il mondo perduto (The Lost World) di
Conan Doyle del 1960, diretta da Irwin Allen, con quella del 1992, di Timothy
Bond: la prima è dominata dal Brontosaurus e i pericoli per i protagonisti sono
rappresentati da una tribù di cannibali; nella seconda, oltre all’immancabile T.
rex, compare un Herrerasaurus ischigualastensis, un grosso ma agile carnivoro
con zampe da corridore e denti seghettati da predatore attivo. E ovviamente
niente contribuì a segnare per sempre la nostra fantasia quanto l’uscita, nel
1993, di Jurassic Park.
Tratto da un romanzo che calcava ancora di più la mano sulla nuova immagine dei
dinosauri come grossi polli feroci, il film di Steven Spielberg portò a milioni
di persone tutto quello di cui la paleontologia discuteva con passione da
vent’anni. Sulla locandina campeggiava lo scheletro di un T. rex, ma i veri
protagonisti, gli alfieri della rivoluzione, erano i Velociraptor: Rapidi,
intelligenti, coordinati, si muovevano e cacciavano in branchi, e assomigliavano
più a grossi uccelli che a lucertole terribili. Certo, il vero Velociraptor era
più piccolo e meno minaccioso, e quelli che si vedevano nel film erano in realtà
Deinonychus che avevano subìto un cambio di nome semplicemente perché
“Velociraptor” suonava più cool.
Resta che un predatore del genere in un film di dinosauri non si era mai visto:
Jurassic Park fu un laboratorio a cielo aperto, un grande aggiornamento
collettivo per mettere il pubblico in pari con la scienza. E infatti conteneva
anche errori, omissioni e interpretazioni che poi sono state smentite: pensate
solo al Dilophosaurus e alla sua abitudine di sputare veleno. Ma era un’opera
(anche) didattica, e non a caso il consulente scientifico del film era il
paleontologo Jack Horner, quello che ha suggerito più volte “se l’avessimo fatto
davvero realistico, il Jurassic Park sarebbe stato un enorme pollaio” e che usò
i mezzi e il talento di Spielberg per rendere globale la rivoluzione lanciata da
Bakker.
Una rivoluzione a metà
Salutato come un miracolo dal mondo della scienza, accompagnato da un rinnovato
interesse generale per i dinosauri e da un boom di iscrizioni nelle facoltà di
paleontologia, Jurassic Park si rivelò però essere più che altro un punto
d’arrivo. L’enorme successo della saga, e i suoi costi sempre maggiori e
insostenibili per la concorrenza, ne stabilirono di fatto il primato
incontrastato: nessun altro aveva più il coraggio (e i soldi) per fare film sui
dinosauri, e con il passare dei capitoli la spinta innovativa e didattica del
franchise si andò affievolendo. Ancora una volta, nulla lo dimostra meglio delle
piume. Appena tre anni dopo l’uscita del film, nella provincia cinese di
Liaoning, il cacciatore di fossili semi-professionista Li Yumin scoprì il primo
esemplare fossile di Sinosauropteryx, il primo dinosauro piumato non-aviale
(Avialae è il nome del clade che comprende gli uccelli e i dinosauri più
strettamente imparentati con loro). Era la prova definitiva che le piume, o
strutture simili, erano diffuse tra i dinosauri, non limitate a pochi,
selezionati gruppi; negli anni a venire, la ricchezza appena scoperta dei
giacimenti fossiliferi cinesi fece il resto, e paleontologia (e paleoarte)
dovettero aggiornare un’altra volta il proprio immaginario.
> La frattura tra la scienza dei dinosauri e la loro immagine pubblica è una
> questione commerciale: i dinosauri piumati rischiano di risultare buffi e non
> spaventosi. Inoltre, ricostruire il comportamento e le abitudini di animali
> estinti è complicato, spesso si tende a non speculare per non rischiare
> figuracce.
Andiamo quindi al 2015, quasi vent’anni dopo la rivoluzione di Sinosauropteryx.
In occasione dell’uscita di Jurassic World, che rilanciò la saga dopo 14 anni di
iato, in un’intervista ad Atlas Obscura Jack Horner si ritrovò quasi a
giustificarsi per il fatto che i dinosauri del film non fossero ancora piumati.
“Bisogna restare coerenti tra film e film. Non puoi avere dinosauri senza piume
nel primo film, poi riproporli nel quarto con le piume […] Ne ho parlato con
Steven e, be’, ha ragione lui: un dinosauro con le piume colorate non è
spaventoso come quelli del film”.
Ed ecco il vero punto del discorso: la frattura profonda tra la scienza dei
dinosauri e la loro immagine pubblica è, tristemente, una questione commerciale.
I dinosauri attivi e intelligenti sono “really cool” come dice Horner: ecco
perché i Velociraptor di Jurassic Park hanno avuto successo. I dinosauri piumati
invece no: sono buffi, sembrano polli giganti, non sono spaventosi. Poco importa
che le loro piume avessero poco a che fare con quelle di oche e galline (nella
maggior parte dei casi erano poco più che filamenti, presenti solo sulle zampe e
sulla coda, con funzioni di isolamento termico e forse di display visivo ma non
adatte al volo): le squame sembrano una condizione irrinunciabile per portare al
cinema un dinosauro efficace.
La vexata questio delle piume è peraltro solo un aspetto, per quanto il più in
vista, della rivoluzione mancata. Ancora nel 2012, il paleontologo Darren Naish
e i paleoartisti John Conway e C.M. Kosemen sostenevano che la maggior parte
delle rappresentazioni dei dinosauri fossero obsolete e conservatrici. Il loro
esempio più famoso è quello relativo alla pelle in eccesso: osservando, per
esempio, il cranio fossile di una gallina, è impossibile immaginarsi cresta e
bargigli, e lo stesso discorso è applicabile ai dinosauri, che secondo Naish,
Conway e Kosemen potevano avere labbra, gengive o altre parti molli che ne
cambiavano radicalmente l’aspetto.
Ci sono poi le questioni etologiche: ricostruire il comportamento e le abitudini
di animali estinti da milioni di anni è complicato ma non impossibile, ma spesso
si tende a non speculare per non rischiare figuracce. L’opera di Naish, Conway e
Kosemen invitava invece a rischiare e immaginare, e fu prima di tutto una
provocazione, raccolta principalmente da quella nicchia che è la paleoarte.
Nicchia in espansione, certo: l’abbattimento dei costi tecnologici, e la
disponibilità sempre maggiore sia di software, sia di dati anatomici e scansioni
3D di fossili, ha moltiplicato gli artisti che si cimentano nel campo, e che
lavorano con attenzione sopraffina al dettaglio scientifico e alla plausibilità,
oltre che all’aspetto artistico. Ma pur sempre nicchia: al cinema, nei fumetti,
nei videogiochi, nei libri, siamo ancora fermi ai dinosauri squamosi.
Come si compone la frattura?
Il “Secondo Rinascimento” dei Dinosauri, dopo quello, efficacissimo, degli anni
Settanta, è quindi per ora una rivoluzione mancata, ma questo non significa che
sia morta: si tratta solo di trovare la chiave giusta per fare la proverbiale
breccia nella fantasia di chi frequenta i dinosauri solo di striscio, e di
solito davanti a uno schermo.
> Oggi sappiamo molte più cose sul comportamento dei dinosauri rispetto a trenta
> anni fa, e molte di queste (socialità, comportamenti di branco,
> organizzazione, gerarchie) sarebbero un ottimo gancio per presentare un’idea
> di dinosauro nuova, ma non per questo meno affascinante o commercialmente
> efficace.
In un certo modo un po’ obliquo e fin troppo antropomorfizzante, va ammesso che
i primi capitoli della saga di Jurassic World ci hanno provato, mostrandoci un
gruppo di Velociraptor addestrati come fossero cani di razza, spingendo quindi
sul tema – già sfiorato nella trilogia originale – dell’intelligenza dei
dinosauri. Una pura fantasia di potenza, certo, ma il fatto che sia stata
inserita nel franchise riflette il fatto che negli ultimi vent’anni si siano
moltiplicati gli studi di paleoetologia, lo studio del comportamento degli
animali estinti. Uno studio argentino del 2021 per esempio ha proposto che i
sauropodomorfi (“quelli grossi con il collo lungo”, quindi i vari Brontosaurus,
Diplodocus, Argentinosaurus…) vivessero in greggi organizzate, vere e proprie
colonie formate da gruppi sociali divisi per età.
Nello stesso anno, uno studio statunitense ha avanzato l’ipotesi che gli stessi
sauropodomorfi intraprendessero lunghe migrazioni di gruppo, non dissimili da
quelle di certi grandi erbivori moderni, e la scoperta della Dinosaur Highway
dell’Oxfordshire ha confermato che i grossi carnivori (e loro predatori) li
accompagnavano nei loro viaggi per ovvi motivi. Per tornare all’argomento più
caldo, una ricerca cinese suggerisce che le piume di Microraptor, un piccolo
dinosauro con quattro ali, fossero di un nero iridescente simile a quello dei
moderni corvi, e venissero usate per l’esibizione sessuale. Insomma: sappiamo
molte più cose sul comportamento dei dinosauri di quante ne sapessimo ai tempi
dell’uscita di Jurassic Park, e molte di queste (socialità, comportamenti di
branco, organizzazione, gerarchie) sarebbero un ottimo gancio per presentare in
un film un’idea di dinosauro nuova, o per lo meno aggiornata, e non per questo
meno affascinante o cool.
Ci sono comunque segnali di risveglio, anche potenti. La divulgazione via
social, per esempio, collabora da anni con la paleoarte, soprattutto quella “dal
basso”, per fare tutto quello che la Jurassic saga non fa più. Due anni fa,
accompagnate dall’inimitabile voce di Sir David Attenborough, molte delle
scoperte più recenti a tema dinosauri hanno preso vita in Prehistoric Planet, un
documentario ambientato poco prima della caduta dell’asteroide Chicxulub; per
la prima volta la serie mostrava a un pubblico vastissimo un altro lato dei
dinosauri, per ora noto solo alla scienza e agli appassionati: ad esempio uno
scontro tra maschi di Dreadnoughtus (un gigantesco erbivoro che arrivava a
pesare 50 tonnellate) per conquistare una femmina, una caccia di coppia di
(veri) Velociraptor e diversi casi di cure parentali.
La sensazione, però, è che la vera scintilla debba ancora scoccare; che manchi
un Jurassic Park contemporaneo, che convinca milioni di persone ad aggiornare la
propria visione dei dinosauri. La mia teoria (e non solo la mia) è che dobbiamo
ripartire dalle piume: una volta accettate quelle, il resto verrà di
conseguenza.
L'articolo Ripensare i dinosauri, di nuovo proviene da Il Tascabile.