Tag - Scienze

L’invenzione degli animali domestici
U na folta coda a strisce spunta da un bidone della spazzatura semiaperto. Dopo un po’ di trambusto, al di sotto del coperchio, compaiono due occhietti circondati da una maschera di pelo nera e una coppia di zampe con piccolissime dita. I procioni (Procyon lotor) non temono gli umani, sono onnivori e sanno cogliere il meglio che un ambiente urbanizzato possa offrire loro, tra cui i nostri avanzi di cibo. Anzi, più un’area sarà abitata, maggiore sarà la possibilità di rovistare nei rifiuti e trovare una leccornia da gustare. Questa è una forma di commensalismo simile a quella dei lupi che, migliaia di anni fa, si avvicinarono agli insediamenti umani per frugare tra gli scarti di quelle comunità. Una vicinanza che è diventata cooperazione, selezione, relazione, fino a plasmare il cane. Secondo un gruppo di ricerca statunitense, i procioni potrebbero essere l’animale perfetto da osservare in tempo reale per capire come una specie possa andare incontro a modificazioni tali da renderla diversa dal proprio antenato selvatico. La domesticazione, spesso definita come il controllo delle condizioni di vita di una determinata specie al fine di ricavarne servizi e prodotti utili all’essere umano, è un fenomeno più complesso e sfumato di quello che per molti anni è stato descritto dalla comunità scientifica. A partire da circa 10.000 anni fa, quando ha iniziato a delinearsi il passaggio da un’esistenza nomadica a una sedentaria nella transizione neolitica, essa ha contribuito a mutare radicalmente la biosfera terrestre. La nostra conoscenza della sua storia e dei suoi meccanismi è ancora lacunosa e continuiamo a compulsarne le tracce per recuperare i tasselli mancanti che compongono il nostro passato e che potrebbero aiutarci a prevedere un possibile futuro. La domesticazione: percorsi e nicchie Dalla metà del Ventesimo secolo l’interesse verso la comprensione della domesticazione di piante e animali ha trovato risposte in narrazioni incentrate sul progresso tecnologico, sull’intenzionalità e sul dominio umano sul proprio ambiente, punti di vista saldamente ancorati a una visione antropocentrica caratterizzata da un forte dualismo tra natura e cultura. Sebbene questa visione sia in parte ancora radicata nella letteratura archeologica, negli ultimi quarant’anni il concetto di domesticazione si è sviluppato e ampliato, come mi ha raccontato Thomas Cucchi, direttore di ricerca del Laboratorio di bioarcheologia del Museo nazionale di Storia naturale di Parigi: “A partire dagli anni Ottanta, gli antropologi hanno posto in rilievo prospettive che vanno oltre le ontologie occidentali, fornendo esempi etnografici in cui le distinzioni tra selvatico e domestico, cultura e natura, sono minime o addirittura inesistenti. Il campo della zooarcheologia si è quindi allontanato dalle narrazioni precedenti che enfatizzavano la domesticazione animale come dominio umano sugli animali non umani, orientandosi verso un’attenzione alle relazioni ecologiche, culturali e coevolutive che sono sempre esistite tra esseri umani e animali non umani e alla loro intensificazione ed elaborazione nei contesti delle prime società agricole”. > Secondo l’archeologa Melinda Zeder ci sono tre percorsi attraverso cui le > diverse specie rispondono alla domesticazione per poi essere integrate nelle > società umane: il percorso commensale, quello della preda e la gestione > diretta. Le combinazioni tra fattori ecologici, culturali ed evolutivi all’interno dei rapporti tra gli umani e gli altri animali possono essere molteplici, seguire traiettorie non lineari, imboccare vicoli ciechi, e giungere a risultati differenti in aree geografiche e finestre temporali più o meno lontane. Un esempio è la domesticazione del cavallo, i cui primi tentativi risalirebbero a circa 5.500 anni fa e sono documentati nel sito di Botaï, nel Kazakistan settentrionale. Qui sono stati trovati resti che indicano l’uso di recinti, briglie e la mungitura dei cavalli per ricavarne latte. Per molto tempo si è pensato che i cavalli moderni discendessero da quelli di Botaï. In seguito, uno studio pubblicato su Nature nel 2024 ha suggerito che il controllo della riproduzione della linea dei cavalli moderni sarebbe emerso solo più tardi, intorno al 2.200 a.C. nelle steppe pontico-caspiche. La definizione di un quadro teorico del fenomeno è una sfida che è stata colta e che solo negli ultimi anni ha dato origine ad approcci di più ampio respiro. Tra le teorie che meglio combinano le componenti biologiche e sociali della domesticazione c’è quella dei tre percorsi, elaborata dall’archeologa Melinda Zeder nel 2012. Zeder sostiene che, al di là delle caratteristiche universali comuni a tutti gli animali domestici – prima su tutte la docilità verso l’essere umano ‒, vi siano molteplici modi in cui le diverse specie rispondono alla domesticazione per poi essere integrate nelle società umane. Portando questo ragionamento alle estreme conseguenze, si potrebbe addirittura affermare che ogni animale domestico sia un caso a sé stante, partecipe di una relazione unica, modellata da un elevato numero di variabili. La scienziata ritiene, però, che siano tre i percorsi principali seguiti: il percorso commensale, quello della preda e la gestione diretta. Il percorso commensale è la via più nota al grande pubblico, la più citata tra le possibili ricostruzioni della domesticazione del cane, ed è anche quella che forse sta imboccando il procione. È un processo coevolutivo, in cui un gruppo di individui di una determinata specie trae giovamento dalle risorse, come avanzi di cibo e riparo, di un’altra. Non è necessario che vi sia intenzionalità da parte dell’essere umano, poiché l’interazione potrebbe sorgere semplicemente dalla condivisione dello stesso ambiente, e a sua volta può sfociare in legami sociali o economici più stretti da cui gli umani potrebbero trarre beneficio. A questo punto, la selezione guidata sarebbe il passo successivo. Gli animali d’allevamento come pecore, capre e bovini, invece, sono stati per la maggior parte i protagonisti di un percorso della preda: erano inizialmente cacciati per la loro carne e il processo di domesticazione è cominciato quando le comunità umane, per necessità, hanno dapprima sperimentato strategie di caccia per aumentarne la disponibilità, per poi arrivare a una vera e propria gestione delle mandrie, con il controllo esteso alle generazioni successive, se gli animali mostravano di possedere le caratteristiche idonee. Infine, vi è il percorso diretto, orientato, un processo avviato dagli esseri umani con l’obiettivo di domesticare animali che vivono in libertà e per ottenere una specifica risorsa o un insieme di risorse d’interesse. È ciò che sarebbe accaduto, ad esempio, a conigli, visoni e struzzi. È una strada che richiede già una certa dimestichezza con la domesticazione di altri animali e per cui sono necessarie intenzionalità e forme di progresso tecnologico, in quanto le specie coinvolte potrebbero non possedere molte delle caratteristiche comportamentali ritenute prerequisiti essenziali. I percorsi non sono esclusivi e possono incrociarsi. È il caso del maiale, Sus scrofa domesticus, che deriverebbe dal percorso commensale e da quello della preda: sembra che alcuni suini venissero cacciati, mentre altri fossero tollerati intorno agli insediamenti, dove si nutrivano di scarti, adattandosi così ad ambienti antropici. Queste condizioni si sarebbero presentate indipendentemente sia in Mesopotamia sia in Cina. > Più che un atto di dominio, la domesticazione è un processo coevolutivo, > poiché l’essere umano ha plasmato l’evoluzione degli animali e delle piante > domestiche, che poi a loro volta hanno modellato il genoma umano e la sua > diversità culturale. Un altro modo per spiegare le implicazioni biologiche, ecologiche e sociali della domesticazione è la teoria della costruzione della nicchia. Anche in questo caso si parla di una lunga coevoluzione basata su rapporti di reciproco vantaggio che si concretizza nella costruzione, da parte di umani, piante e animali, di nuove nicchie ecologiche, in una modifica attiva degli ambienti in cui vivevano. Gli esseri umani, nel ruolo di ingegneri ecosistemici, avrebbero trasformato i paesaggi per rendere più produttive e prevedibili alcune specie di loro interesse e, allo stesso tempo, anche piante e animali coinvolti nella domesticazione avrebbero contribuito a rimodellare gli ecosistemi, adattandosi, influenzando le condizioni ambientali e innescando effetti che avrebbero interessato altri organismi, modificandone indirettamente le traiettorie evolutive. Diviene chiaro come la domesticazione non sia ‒ o per lo meno, non sia sempre stata ‒ un atto di dominio, ma che si possa inserire nel più grande racconto dell’evoluzione. “La domesticazione è un eccezionale modello di evoluzione in atto, in cui la forza motrice principale è la pressione selettiva dell’ambiente umano, sia artificiale che naturale”, sottolinea Cucchi: “La domesticazione è un sottoinsieme dell’evoluzione, che dimostra come l’intervento umano possa accelerare e dirigere il processo evolutivo, con impatti profondi sia sulle specie domesticate che sugli esseri umani. In effetti, consideriamo la domesticazione come un processo coevolutivo. Poiché l’essere umano ha plasmato l’evoluzione degli animali e delle piante domestiche, questi ultimi hanno successivamente modellato anche il genoma umano e la sua diversità culturale”. Da selvatico a domestico Sono circa 2 milioni le specie conosciute e di queste solo una frazione (tra mammiferi, uccelli ma anche insetti e pesci) è stata domesticata dagli esseri umani. Un caso spesso citato di insuccesso è la zebra, particolarmente aggressiva rispetto ai suoi parenti, il cavallo e l’asino. Nel suo saggio del 1997, Armi, acciaio e malattie, il fisiologo e ornitologo Jared Diamond provò a spiegare il motivo per cui solo pochissimi animali sono stati domesticati dall’essere umano, introducendo quello che lui chiama “principio di Anna Karenina”. Se Lev Tolstoj, nel celebre incipit, asseriva che “Tutti i matrimoni felici si somigliano; ogni matrimonio infelice è infelice a modo suo”, Diamond rielabora la citazione affermando che “Tutti gli animali domestici si assomigliano; ogni animale non domesticabile è selvatico a modo suo”. Questo è un modo per dire che tutte le specie domesticate hanno delle caratteristiche biologiche comuni, tutte necessarie affinché il processo funzioni: una dieta flessibile, un tasso di crescita elevato, la capacità di riprodursi in cattività, docilità verso gli esseri umani, una minore tendenza alla fuga e una struttura gerarchica organizzata. Come racconta l’archeozoologa Juliet Clutton-Brock nel suo libro Storia naturale della domesticazione dei mammiferi (2001), nel 1865 anche Francis Galton, cugino di Charles Darwin, stilò una lista di requisiti per la domesticazione, che includeva la robustezza, un’innata inclinazione per gli esseri umani, la facilità di accudimento, l’utilità e la capacità di riprodursi liberamente. > Molti mammiferi domestici condividono caratteristiche fisiche e > comportamentali non presenti negli antenati selvatici, tra cui variazioni > nelle dimensioni corporee e nel comportamento sociale, code più corte o > arrotolate e orecchie pendenti. Non bastano, però, solo le peculiarità biologiche degli animali. Lo spiega il paleobiologo Marcelo Sánchez-Villagra nel volume The Process of Animal Domestication (2022): il numero relativamente ridotto di specie domestiche autoctone nelle Americhe dipenderebbe non solo dalle caratteristiche degli animali, ma anche dagli aspetti culturali delle popolazioni umane che convivono con essi, a loro volta legati all’ecologia dei territori. In Amazzonia, per esempio, alcune popolazioni intrattengono rapporti di stretta vicinanza con determinati  animali, come insetti, pappagalli, pecari, e persino con i cuccioli di esemplari uccisi durante la caccia, senza avviarne la domesticazione: una scelta che riflette una diversa visione del mondo e del rapporto tra esseri umani e altre specie. Nonostante i diversi percorsi e tempi della domesticazione nelle varie aree del mondo, molti mammiferi domestici – anche se lontanamente imparentati tra loro – condividono un insieme ricorrente di caratteristiche fisiche e comportamentali, noto come “sindrome da domesticazione”, già individuato da Charles Darwin nella sua analisi della selezione artificiale sugli animali allevati. Si tratta di cambiamenti non presenti negli antenati selvatici e tra i più comuni si osservano variazioni nelle dimensioni e nelle proporzioni del corpo, nella pigmentazione del mantello, nella riproduzione e nel comportamento sociale. A questi si aggiungono altre modifiche tipiche della domesticazione, come una riduzione delle dimensioni del cervello, cambiamenti nella struttura del pelo, code più corte o arrotolate e orecchie pendenti. Una possibile spiegazione della sindrome da domesticazione è che gli esseri umani abbiano selezionato, più volte e in modo indipendente, le stesse caratteristiche in specie diverse. Questa ipotesi è stata testata dal genetista russo Dmitry Belyaev nel celebre esperimento sulle volpi argentate, iniziato negli anni Cinquanta del Ventesimo secolo. Gli esemplari scelti vennero selezionati per docilità e, generazione dopo generazione, mostrarono attenzione verso gli esseri umani, orecchie pendenti, code rivolte all’insù, mantelli pezzati, cicli riproduttivi più frequenti e non legati alle stagioni e, successivamente, musi più corti e larghi. Nonostante approfondimenti e studi successivi, i risultati ottenuti sono ancora discussi nella comunità scientifica per alcuni aspetti controversi. > I procioni potrebbero essere l’animale perfetto da osservare in tempo reale > per capire come una specie possa andare incontro a modificazioni tali da > renderla diversa dal proprio antenato selvatico. Oggi sono proprio i procioni, probabile modello di domesticazione in atto, a essere protagonisti di un ampio studio in qualche modo accostabile a quello delle volpi, pubblicato su Frontiers in Zoology. Analizzando il rapporto tra la lunghezza del muso e quella del cranio in oltre 19.000 fotografie di procioni scattate negli Stati Uniti e raccolte tramite applicazioni di citizen science, gli autori della ricerca hanno osservato una tendenza chiara: gli individui che vivono in aree densamente popolate mostrano, in media, un muso più corto. Se da una parte la domesticazione interagisce con molte altre pressioni ambientali, scienziate e scienziati stanno mettendo in correlazione questi risultati con la cosiddetta ipotesi delle cellule della cresta neurale. Secondo questa teoria, la maggiore docilità selezionata negli animali domesticati sarebbe legata a una riduzione dell’attività o del numero di un gruppo di cellule embrionali coinvolte nello sviluppo non solo dei caratteri comportamentali, ma anche di molti tratti fisici. L’esito non intenzionale di queste modificazioni sarebbe la comparsa dei tipici cambiamenti fisici osservati negli animali domestici. Questa spiegazione sosterrebbe anche la tesi dell’auto-domesticazione umana, dibattuta già ai tempi di Darwin. Infatti, esistono alcuni mutamenti assimilabili alla sindrome da domesticazione nella nostra evoluzione, come descrive Cucchi: > Proprio come osservato nell’esperimento delle volpi di Belyaev, si sostiene > che ci sia stata una selezione che avrebbe favorito comportamenti più sociali > e meno aggressivi tra i cacciatori-raccoglitori del Paleolitico negli ultimi > 300.000 anni e, secondo la teoria delle cellule della cresta neurale, questa > selezione comportamentale avrebbe influenzato indirettamente l’evoluzione > fenotipica della nostra specie verso un corpo più piccolo e snello. Alcuni > sostengono che la selezione possa essere stata esercitata sugli individui più > inclini alla violenza reattiva. Attualmente altre ipotesi mettono in discussione il coinvolgimento di un alterato funzionamento della cresta neurale e l’esistenza stessa della sindrome da domesticazione, che per ora, però, sono tra le cornici esplicative più esaminate. Avanti il prossimo! Il procione è solo uno degli animali che probabilmente stanno percorrendo le prime tappe della strada che potrebbe portarli alla domesticazione. È spontaneo domandarsi quali saranno in futuro le nuove specie in stretta relazione all’essere umano, o da esso sfruttate, che subiranno un destino simile. L’antropologo Marcus Baynes-Rock, nella sua opera La vita segreta delle iene (2024), racconta la coesistenza tra i cittadini di Harar, in Etiopia, e gli esemplari di due clan di iene che si aggirano nelle strade della metropoli e accettano cibo dagli abitanti. L’estrema vicinanza e la riduzione dell’aggressività nei nostri confronti potrebbero forse essere dei buoni presupposti per l’avvento di nuovi compagni a quattro zampe. > C’è anche chi sta cercando di domesticare il polpo, che però non sembra un > candidato ideale: non è un animale sociale, è un predatore solitario, e > relegato in vasche con altri conspecifici potrebbe aggredirli. O ancora, dal 2018 l’azienda spagnola Nueva Pescanova sta lavorando alla realizzazione di quello che potrebbe essere il primo allevamento intensivo di polpi. Nel 2023, Nueva Pescanova ha dichiarato di essere stata in grado di completare in cattività il ciclo riproduttivo del polpo comune e di stare allevando la quinta generazione nel proprio centro di ricerca in Galizia. Secondo quanto afferma l’azienda, il processo avrebbe reso questi molluschi più adatti alle condizioni di allevamento, riducendo le criticità emerse nei tentativi precedenti. Il polpo, infatti, non sembra un candidato ideale per la domesticazione: non è un animale sociale, è un predatore solitario, e relegato in vasche con altri conspecifici potrebbe aggredirli. Inoltre, è carnivoro e la sua alimentazione in allevamento solleverebbe interrogativi dal punto di vista della sostenibilità. Thomas Cucchi ci riporta al presente: “La domesticazione dei pesci è la più recente e di maggiore impatto”. È stata un’attività in aumento solo in tempi recenti e la ricerca sull’acquacoltura ha rivelato effetti rapidi e vari nelle specie ittiche. Come descritto anche da Sánchez-Villagra nel suo libro, fino alla metà del Ventesimo secolo, erano pochi i pesci domesticati: c’erano le carpe, i pesci rossi e, più recentemente, i salmonidi. Molte altre sono state effettivamente domesticate, nel senso che la loro biologia riproduttiva è stata modificata dagli esseri umani, solo negli ultimi decenni. L’acquacoltura ittica coinvolge attualmente oltre 160 specie, sotto il nostro controllo per diversi scopi, tra cui l’alimentazione, la conservazione e la ricerca. Come evidenzia una review pubblicata su Trends in Ecology & Evolution nel 2022, sono ancora molte le domande senza risposta che riguardano la nostra comprensione di questo processo. Non è sempre chiaro quali percorsi ecologici ed evolutivi portino alla domesticazione, quanto le specie coinvolte dipendano dai rapporti di mutualismo con l’essere umano e come stabilire se una specie possa dirsi davvero domesticata. Resta ancora da chiarire quale sia il peso della selezione intenzionale rispetto a quella inconsapevole e il significato evolutivo della selezione di tratti estetici, spesso legata a preferenze culturali più che a vantaggi funzionali. Gli occhi mascherati e le code a strisce che spuntano dai bidoni della spazzatura statunitensi non ci forniranno tutte le risposte, ma sicuramente ci avvicinano a quelle prime comunità umane che si ritrovarono a condividere gli spazi con un’altra specie e che, a un certo punto di quella convivenza, si impegnarono a legare la propria vita a quella di quegli animali per sempre. L'articolo L’invenzione degli animali domestici proviene da Il Tascabile.
Scienze
animali
ecologia
evoluzione
zoologia
La scomparsa dei giganti
N el Godzilla originale, il capolavoro di Ishirō Honda datato 1954, il noto lucertolone era alto 50 metri e pesante 20.000 tonnellate. Le sue misure hanno continuato a crescere negli anni fino alle sue iterazioni più recenti, quando ha superato le 80.000 tonnellate (nelle versioni hollywoodiane) e i 300 metri d’altezza (nel giapponese Godzilla: Planet of the Monsters, 2017). Nel King Kong del 1933, l’arcinoto scimmione era alto 15 metri e pesava intorno alle 20 tonnellate; oggi, in Godzilla vs. Kong (2021) e Godzilla e Kong – Il nuovo impero (2024), arriva a superare i 100 metri di altezza e a toccare un peso di 90.000 tonnellate. Ancora: lo squalo dell’omonimo film di Spielberg del 1975 è lungo una volta e mezzo un vero squalo bianco; l’anaconda di Anaconda tocca i 15 metri, più del doppio di quanto sia davvero lungo questo serpente; le formiche di Assalto alla Terra (1954) sono grosse come cani. E per amor di sintesi mi sto limitando ai film: dovessi allargare il discorso a fumetti, videogiochi, romanzi, ma anche a miti, leggende, fiabe e favole, il pezzo raggiungerebbe proporzioni paragonabili a ciò di cui parla. Incrociando questi dati, comunque, si giunge a una conclusione difficilmente contestabile: ci piacciono le creature gigantesche (anche note nell’ambiente come mostri grossi), e più in generale tutto ciò che ha dimensioni ciclopiche. Ci piacciono in particolar modo tutte quelle creature che sono identiche nell’aspetto a specie animali esistenti, ma con proporzioni fuori scala: ragni, serpenti, scorpioni, zanzare hanno tutti subito prima o poi un’opera di ingigantimento che li ha trasformati in minacce adeguate per un film. E anche guardando al di fuori della cultura pop: non è un caso che i dinosauri abbiano avuto fin da subito un’enorme presa sull’immaginario collettivo, e con loro i mammiferi giganti (orsi, lupi, leoni, cavalli) che abbiamo scoperto essergli succeduti. C’è un’idea, che risale al Diciannovesimo secolo, secondo cui il passato remoto era popolato da giganti, e a noi esseri umani odierni rimarrebbero solo le briciole, versioni in formato minore dei mostri grossi che un tempo dominavano la Terra: la nostra passione per loro è anche una forma di nostalgia per epoche che non abbiamo mai vissuto. Da grande amante della materia “mostri”, che si trova al perfetto incrocio tra scienza e cinema, ritengo però sia giusto fare un po’ di chiarezza, sfatare alcuni miti, confermarne altri e anche omaggiare i pochi giganti che ancora abbiamo sul pianeta. > L’idea che un tempo gli animali fossero più grandi è tanto affascinante quanto > inesatta. Le specie di piccole dimensioni sono sempre esistite e non c’è > alcuna relazione lineare tra il passare del tempo e il generico rimpicciolirsi > delle forme di vita. Partiamo da un presupposto fondamentale per impostare l’intero discorso: l’idea che un tempo gli animali fossero più grandi è tanto affascinante quanto sbagliata, o per lo meno inesatta. Le specie di piccole o minuscole dimensioni sono sempre esistite e non esiste alcuna relazione lineare tra il passare del tempo e il generico rimpicciolirsi di ogni forma di vita. È vero invece che ci sono forme che in passato erano più grandi delle loro versioni attuali, e che ci sono stati periodi nei quali le dimensioni di certi gruppi erano superiori alla media delle altre epoche. Semplificando, se ne possono individuare quattro, e il più antico risale a circa 360 milioni di anni fa. Insetti mostruosi Durante il Carbonifero, i livelli di ossigeno – che era comparso sulla scena atmosferica circa 500 milioni di anni prima, contribuendo in maniera decisiva all’esplosione della vita multicellulare – salirono rapidamente, fino ad arrivare a una concentrazione del 35% (quindi molto superiore a quella attuale, che non supera il 21%). Oltre a causare più incendi, l’ossigeno ebbe anche un effetto tangibile su un gruppo che era comparso sulla scena alla fine del periodo precedente, il Devoniano: parlo degli insetti, che ne sfruttarono le alte concentrazioni per raggiungere dimensioni che non si sono più viste da allora. > La concentrazione di ossigeno in atmosfera ha un legame diretto con la taglia > degli artropodi. Nel carbonifero, i livelli salirono al punto da consentire > l’emergere di libellule, millepiedi e scorpioni fuori scala. Il segreto del loro gigantismo sta nella respirazione: essendo privi di polmoni, gli insetti respirano passivamente, diffondendo l’aria attraverso strutture chiamate trachee. Questo pone un limite alle dimensioni massime che può raggiungere un insetto: se è troppo grosso, rischia il soffocamento, perché l’aria non riesce a diffondersi in maniera efficace nel suo sistema respiratorio. La concentrazione di ossigeno in atmosfera ha quindi un legame diretto con la taglia degli insetti: più ce n’è, più la diffusione è efficace, più possono crescere. E così durante il Carbonifero solcava i cieli Meganeura monyi, una libellula con 70 centimetri di apertura alare, che verrà battuta solo nel Permiano dalla sua parente Meganeuropsis permiana. A farle concorrenza in termini di dimensioni c’era Mazothairos enormis, il cui nome è già un programma: assomigliava a una cavalletta ma apparteneva a un ordine estinto, Palaeodictyoptera, e raggiungeva i 55 centimetri di apertura alare. E anche sulla terraferma abbondavano i giganti: Arthropleura, per esempio, che in realtà non era un insetto ma un millepiedi, superava i 2 metri di lunghezza, una misura mai più raggiunta da nessun artropode terrestre. E per finire, un incubo per gli aracnofobi: Pulmonoscorpius era uno scorpione che viveva nelle paludi del Carbonifero, e poteva superare i 70 centimetri di lunghezza. Quando i giganti dominavano la Terra Gli insetti enormi sono affascinanti, ma concorderete con me che, se si parla di giganti, l’immaginazione corre subito a quelle famose bestie che dominavano la Terra fino a che non sono state spazzate via quasi tutte da un asteroide (e da altri fattori concomitanti che ignoreremo per amor di brevità). I dinosauri, e più in generale i rettili del Mesozoico, sono i mostri grossi più conosciuti e amati della storia della vita sul pianeta. Furono di fatto protagonisti sia della seconda sia della terza era dei giganti, le quali avvennero quasi in contemporanea, e videro i titani diffondersi sia sulla terraferma sia negli oceani. Per spiegare come abbiano fatto i dinosauri (e i plesiosauri, e i mosasauri, e gli pterosauri) a raggiungere dimensioni che i rettili attuali non sfiorano neanche, vale la pena fare un salto indietro nel tempo di un paio di secoli, quando Edward Drinker Cope, uno dei padri della paleontologia, propose quella che sarebbe stata poi battezzata “legge di Cope”, e che postula che tutti gli animali tendano a diventare più grossi con l’evoluzione e il passare del tempo. Discussa fin da quando venne formulata, smentibile con innumerevoli esempi contrari (per citare un animale caro a Cope, è vero che i primi cavalli erano grossi come cani, ma quelli attuali sono più piccoli dei loro antenati), la legge di Cope ha diviso per decenni i paleontologi, fino a quando è stata mirabilmente sintetizzata e riletta in questo studio, utile anche a rispondere alla domanda iniziale. > Quando acqua e cibo sono abbondanti, la competizione intraspecifica per le > risorse diminuisce: è quello che nel Giurassico ha portato alla comparsa dei > grandi sauropodi erbivori. Quando invece le risorse scarseggiano, la tendenza > è opposta. È vero, dice lo studio, che la dimensione degli animali cresce con il passare del tempo. O meglio: può crescere, se non entrano in gioco fattori limitanti. Quando e dove acqua e cibo sono abbondanti, la competizione intraspecifica per le risorse diminuisce: è quello che è successo nel Giurassico, e che ha portato alla comparsa dei grandi sauropodi erbivori, da Brachiosaurus (25 metri di lunghezza per 50 tonnellate di peso) a Diplodocus (27 metri, 20 tonnellate), passando per Supersaurus, che si pensa potesse raggiungere i 40 metri di lunghezza. La legge di Cope, dunque, funziona sì, ma solo in condizioni ideali: se le risorse cominciano a scarseggiare, la tendenza diventa quella di rimpicciolire. Incidentalmente, è anche per questo che si estinguono i giganti: gli animali troppo grandi che si ritrovano all’improvviso senza cibo a sufficienza non fanno in tempo a rimediare diventando più piccoli. Il fatto poi che le specie più grosse abbiano popolazioni meno numerose le rende ulteriormente vulnerabili a cambiamenti ambientali drastici: è il motivo per cui gli unici dinosauri sopravvissuti a Chicxulub sono gli uccelli, che per quanto grandi non hanno mai raggiunto le dimensioni dei loro antenati estinti. La stessa versione riveduta e corretta della legge di Cope si può applicare ai grandi rettili marini del Mesozoico (mosasauri, plesiosauri, ittiosauri, ecc.) tutti gruppi che comprendono specie che hanno raggiunto anche i 20 metri di lunghezza quando le risorse nei mari erano abbondanti, e che sono scomparsi nel giro di poche centinaia di migliaia di anni perché non sono riusciti ad adattarsi al nuovo mondo post-asteroide (e anche per colpa della concorrenza degli squali, pericolosissimi ultimi arrivati). Uno schema simile a quanto successo anche ai protagonisti della quarta era dei giganti, nella quale però entriamo in gioco anche noi, cambiando (forse per sempre) gli equilibri. Cacciatori di giganti Il Pleistocene, cominciato 2,6 milioni di anni fa e finito 11.700 anni fa, fu un’epoca caratterizzata da tre cose: i mammiferi giganti, il gran freddo e la comparsa di Homo sapiens. I primi due fattori sono intimamente collegati: formulata nel 1847 dall’eponimo biologo tedesco, la regola di Bergmann prevede che più fa freddo, più gli animali di uno stesso gruppo diventino più grossi dei loro parenti che vivono al caldo. Regola smentita e contestata più volte, ma è vero che, in un clima mediamente più freddo, le grandi dimensioni aiutano: diminuisce il rapporto superficie/volume, ed è più facile conservare il calore. Se a questo si aggiunge l’abbondanza di risorse e soprattutto di territorio (le glaciazioni fecero abbassare il livello dei mari e “liberarono” vaste aree di terraferma), si capirà perché, per esempio, il mammut lanoso arrivava a 3,5 metri di altezza al garrese; o il megaterio, un bradipo gigante, raggiungeva i 6 metri di lunghezza e le 4 tonnellate di peso. > La fine dell’era glaciale, e i cambiamenti climatici conseguenti, sono spesso > indicati come uno dei fattori decisivi dietro l’estinzione della megafauna, ma > c’è un’altra ipotesi altrettanto valida: è colpa nostra. Indicati con il nome collettivo di “megafauna”, i mammiferi del Pleistocene si estinsero in massa nel giro di 40.000 anni, con zone del mondo come il continente americano dove la strage si concentrò in meno di 3.000 anni. La fine dell’era glaciale, e i cambiamenti climatici conseguenti, sono spesso indicati come uno dei fattori decisivi dietro questa estinzione, ma c’è un’altra ipotesi altrettanto valida e altrettanto studiata: è colpa nostra. L’arrivo sulla scena del genere Homo, e della nostra specie in particolare, trasformò gli erbivori giganti in prede ideali, che vennero cacciate fino all’estinzione; ne subirono le conseguenze anche i predatori (per esempio Smilodon, la tigre dai denti a sciabola, che poteva superare i 400 chilogrammi di peso), non equipaggiati per resistere alla nostra concorrenza, sia in termini di sottrazione delle risorse sia di caccia attiva. È un’idea che ha raccolto sempre più attenzione negli ultimi anni, e anche i più scettici ammettono che sia possibile che dietro l’estinzione delle megafaune non ci siano stati solo i cambiamenti climatici, ma una combinazione di fattori, tra cui quello umano fu decisivo. Il futuro dei giganti Considerando quello che abbiamo fatto al mondo animale negli ultimi 10.000 anni, non è difficile crederci: che esista o meno, l’Antropocene si sta rivelando l’incubo di tutti gli amanti dei mostri grossi. Gli animali (e le piante) stanno diventando sempre più piccoli: i motivi sono sempre gli stessi (cambiamenti climatici, scarsità di risorse, distruzione dell’habitat), ma accelerati a ritmi insostenibili dalle nostre attività. Se è vero che i fattori limitanti per la crescita di un organismo sono la disponibilità di risorse e le condizioni climatiche (ed ecologiche) nelle quali vive, la nostra crescita incontrollata ha ridotto le prime e deteriorato le seconde, al punto che, al di fuori degli animali domestici, sono pochissime le specie che possono dire di avere più risorse a disposizione da quando esistiamo noi. In particolare, stanno beneficiando della nostra presenza le specie più adattabili e tetragone all’urbanizzazione: gli scoiattoli grigi, per esempio, stanno crescendo di dimensioni perché hanno a disposizione più risorse (le nostre). > Le condizioni attuali rendono sempre più difficile la sopravvivenza di animali > giganti, questo perché la nostra crescita incontrollata ha ridotto la > disponibilità di risorse e deteriorato le condizioni climatiche ed ecologiche. Ma si tratta di eccezioni a un trend molto evidente, che ci dice che anche i pochi giganti rimasti stanno rimpicciolendo: sta succedendo ad alcune balene, agli squali, e ai bisonti. Siamo dunque destinati a un futuro di animali sempre più piccoli, nel quale tutti gli ippopotami saranno Moo Deng? La risposta più semplice è “sì”, nel senso che se la traiettoria dovesse rimanere questa, gli animali continueranno a rimpicciolirsi per colpa nostra. C’è chi è convinto che la soluzione a questa perdita di biodiversità (gli animali grossi hanno un ruolo decisivo nel funzionamento degli ecosistemi) sia guardare al passato: è possibile che abbiate sentito parlare di Colossal Biosciences, startup statunitense che è solo l’ultima di una lista di imprese private che si sono messe in testa di tentare la de-estinzione di animali scomparsi: mammut e dodo sono di solito i candidati principali, ma Colossal sostiene di recente di avere de-estinto un enocione, il “lupo terribile” vissuto nel Pleistocene (nonostante il risultato dell’esperimento sia di fatto nient’altro che una modificazione genetica del lupo grigio), e ora punta al moa, uno degli uccelli più grossi di sempre. L’elenco dei problemi scientifici ed etici dietro la de-estinzione è però lungo quanto un elenco del telefono, e da approfondire eventualmente altrove. Preferisco proporvi una visione alternativa: non è del tutto vero che i mostri grossi siano scomparsi, ce li abbiamo anche noi e dobbiamo pensare a tutelare loro prima che a riportare in vita specie estinte. Prendete la balenottera azzurra: con i suoi 30 metri di lunghezza e 200 tonnellate di peso è l’animale più grande mai esistito, più “mostro grosso” anche del più grosso dei dinosauri. Un elefante africano non è tanto più piccolo di un mammut, il varano di Komodo può raggiungere i 3 metri di lunghezza e il coccodrillo marino arrivare a 7 e pesare una tonnellata. Sono tutte specie le cui dimensioni rappresentano per loro, nel contesto climatico ed ecologico attuale, un pericolo enorme: corriamo il rischio di portare all’estinzione i nostri ultimi giganti, con l’aggravante che questa volta sappiamo che sta succedendo. L'articolo La scomparsa dei giganti proviene da Il Tascabile.
Scienze
animali
paleontologia
zoologia
Doctor ex machina
P roviamo a immaginare questa scena: siamo nello studio di un ambulatorio ospedaliero di medicina interna. Il monitor è acceso da qualche minuto. La cartella clinica digitale è completa: anamnesi, esami ematochimici, imaging, una serie di indicatori sintetizzati in grafici che scorrono ordinati sulla destra dello schermo. In basso, evidenziata in un riquadro discreto ma visivamente centrale, compare una raccomandazione: probabilità di beneficio elevata, rischio accettabile, consigliato l’avvio di una terapia anticoagulante in un paziente con fibrillazione atriale e profilo di rischio tromboembolico significativo. Il medico legge, rilegge, poi alza lo sguardo verso il paziente seduto di fronte a lui. La decisione, almeno formalmente, spetta ancora a lui. Non c’è nulla di coercitivo in quel suggerimento. Nessun allarme rosso, nessun obbligo esplicito. Eppure, il peso che esercita è tangibile. Non perché imponga una scelta, ma perché la rende asimmetrica: accoglierla significa seguire una traiettoria già validata, statisticamente fondata, condivisa da un’infrastruttura che promette affidabilità; discostarsene richiede invece una giustificazione ulteriore, una deviazione consapevole che dovrà essere spiegata, forse difesa. In questo scarto silenzioso prende forma una nuova condizione della decisione clinica contemporanea: un atto che resta umano nella sua firma finale, ma che viene preparato, orientato e in parte anticipato da sistemi tecnologici sempre più pervasivi, come accade nei sistemi di supporto alle decisioni cliniche (CDSS, Clinical Decision Support Systems), software che analizzano dati sanitari e suggeriscono possibili decisioni terapeutiche, affiancando il giudizio clinico senza sostituirlo. > Studi clinici hanno mostrato che modelli di deep learning possono raggiungere > prestazioni comparabili o superiori a quelle degli specialisti > nell’identificazione di patologie come tumori cutanei o lesioni radiologiche > complesse. Scene come questa non sono eccezionali. Si ripetono quotidianamente in reparti ospedalieri, ambulatori, pronto soccorso. A volte il suggerimento arriva sotto forma di punteggio di rischio inteso come una stima numerica della probabilità che si verifichi un determinato evento clinico, altre come raccomandazione terapeutica, altre ancora come priorità di accesso a una procedura. Cambia l’interfaccia, non la logica sottostante: un insieme di modelli predittivi, regole apprese dai dati, correlazioni statistiche trasformate in indicazioni operative. Studi clinici hanno mostrato che modelli di deep learning, cioè sistemi informatici che apprendono a riconoscere schemi complessi analizzando grandi quantità di dati, in modo simile a come l’esperienza permette agli esseri umani di affinare il riconoscimento visivo,  possono raggiungere prestazioni comparabili o superiori a quelle degli specialisti nell’identificazione di alcune patologie, come tumori cutanei o lesioni radiologiche complesse, contribuendo a migliorare l’accuratezza diagnostica e la stratificazione del rischio nei pazienti. In questi contesti, l’intelligenza artificiale (IA) non sostituisce il medico, ma amplia la sua capacità di osservazione, rendendo disponibili informazioni che difficilmente emergerebbero dall’esperienza individuale. La decisione resta nelle mani del clinico, ma viene indirizzata verso opzioni considerate ragionevoli, efficienti e più facilmente giustificabili, che orientano il percorso di cura. La scena raccontata a inizio articolo ha radici lontane. Già nel Novecento i primi sistemi di supporto alle decisioni cliniche aiutavano il medico a ridurre la variabilità e l’errore, affiancando il giudizio umano con strumenti oggettivi. Tra questi primi sistemi c’era ad esempio MYCIN, sviluppato negli anni Settanta all’Università di Stanford, che aiutava a diagnosticare infezioni batteriche e suggeriva dosaggi di antibiotici basandosi su un insieme di regole codificate dagli esperti. Sempre in quegli anni, altri sistemi, come Internist-1, fornivano supporto nella diagnosi di malattie complesse, chiedendo al medico di inserire sintomi e segni clinici per ottenere un elenco di possibili diagnosi ordinate per probabilità. All’epoca si trattava di strumenti relativamente semplici, costruiti su poche variabili e su schemi decisionali predefiniti; oggi parliamo, invece, di modelli complessi, addestrati su milioni di dati, in grado di cogliere pattern invisibili all’esperienza individuale. Ma il nodo concettuale resta sorprendentemente simile: come cambia una decisione quando non nasce più soltanto dal sapere di una persona, ma da un’infrastruttura che combina l’intelligenza di esseri umani e macchine, come già avveniva nei primi sistemi esperti medici sviluppati negli anni Settanta. > L’intelligenza artificiale non decide al posto del medico, piuttosto > costruisce l’orizzonte entro cui la decisione prende forma. Il risultato è una > forma di delega parziale, che non elimina la responsabilità individuale ma la > riorganizza. Un episodio spesso citato nella storia della medicina computazionale riguarda l’introduzione dei primi sistemi di triage algoritmico nei pronto soccorso statunitensi. Nati per gestire l’aumento dei flussi e ridurre i tempi di attesa, questi strumenti promettevano di assegnare le priorità in modo più equo e razionale. Il personale restava libero di intervenire, di modificare l’ordine suggerito. Tuttavia, col tempo, la deviazione dalla raccomandazione algoritmica iniziò a essere percepita come un’eccezione da giustificare, non come una delle alternative legittime. Il criterio implicito non era più soltanto “che cosa è meglio per questo paziente”, ma anche “che cosa è difendibile rispetto a ciò che il sistema indica”, una dinamica che diventa particolarmente visibile quando gli algoritmi incidono sulla distribuzione delle risorse sanitarie. Un caso emblematico riguarda un algoritmo ampiamente utilizzato negli Stati Uniti per identificare i pazienti che necessitavano di programmi di assistenza sanitaria intensiva. Studi successivi hanno mostrato che il sistema sottostimava sistematicamente i bisogni dei pazienti neri rispetto a quelli bianchi con condizioni cliniche simili, perché utilizzava i costi sanitari sostenuti in passato come proxy dello stato di salute. Poiché storicamente i pazienti neri avevano avuto minore accesso alle cure, il modello interpretava questa minore spesa come indicatore di minore gravità clinica, riproducendo e amplificando una disuguaglianza preesistente. L’errore non nasceva da una decisione discriminatoria esplicita, ma dalla logica statistica incorporata nel sistema. Qui emerge il nodo centrale della questione. La decisione resta, sulla carta, un atto umano: qualcuno clicca, firma, approva. Ma il contesto in cui quella decisione viene presa è radicalmente trasformato. L’IA non decide al posto del clinico; piuttosto, costruisce l’orizzonte entro cui la decisione prende forma, stabilendo ciò che appare normale, probabile, raccomandabile. Il risultato è una forma di delega parziale, spesso impercettibile, che non elimina la responsabilità individuale ma la riorganizza. Riflettere su questo passaggio non significa denunciare una perdita di umanità né invocare un ritorno a un passato idealizzato. Significa piuttosto rendere visibile un passaggio spesso dato per scontato: quello in cui la decisione, pur restando formalmente umana, viene progressivamente trasformata in un atto di ratifica di suggerimenti prodotti altrove. È da questo punto che occorre partire per interrogarsi sul ruolo dell’intelligenza artificiale in sanità, non come semplice strumento tecnico, ma come dispositivo culturale che ridefinisce il modo in cui decidiamo, giudichiamo e assumiamo responsabilità. Decidere, giudicare, approvare: una breve genealogia culturale Decidere non è mai stato un gesto semplice. Nella tradizione occidentale, la decisione è stata a lungo pensata come un atto puntuale, un momento in cui il giudizio si cristallizza, assumendo la forma di una scelta che impegna chi la compie. Ma questo atto è sempre stato sostenuto da un processo più ampio, fatto di valutazioni, confronti, mediazioni e, soprattutto, da un’assunzione di responsabilità che non si esaurisce nell’istante della scelta. Nel contesto clinico, questa stratificazione è particolarmente evidente. Il medico non decide soltanto, ma giudica sulla base della propria esperienza, interpreta segni e sintomi, assume su di sé il rischio dell’errore. La decisione non coincide con la procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è scelto di fare o di non fare. A partire dal Novecento, questo equilibrio comincia lentamente a spostarsi. Con l’espansione delle organizzazioni complesse e della burocrazia moderna, il giudizio individuale viene progressivamente affiancato da procedure standardizzate. Max Weber descriveva questo passaggio come una razionalizzazione necessaria: regole formali, criteri impersonali, processi replicabili servono a garantire equità, prevedibilità, controllo. La decisione, in questo schema, non scompare, ma viene incastonata in una sequenza di passaggi che ne delimitano il perimetro. > Il medico non decide soltanto, ma giudica sulla base della propria esperienza > e si assume il rischio dell’errore. La decisione non coincide con la > procedura, ma con la capacità di rispondere delle conseguenze di ciò che si è > scelto di fare. O di non fare. In altre parole, il giudizio si trasforma progressivamente in procedura: l’atto decisionale diventa il punto finale di un percorso già in gran parte tracciato. Questo spostamento non modifica solo il modo di decidere, ma ridefinisce il significato stesso della responsabilità: se la decisione è l’esito “corretto” di una procedura correttamente seguita, la responsabilità tende a spostarsi dall’atto al processo. Non si tratta più di dire “ho deciso questo”, ma di poter affermare “ho seguito ciò che era indicato”. È su questa trasformazione, spesso silenziosa, che opera oggi l’intelligenza artificiale. Che cosa fa oggi l’IA generativa in sanità Quando si parla di intelligenza artificiale in sanità, l’immaginario oscilla tra due estremi: da un lato la promessa di macchine che decidono al posto dei medici, dall’altro l’idea rassicurante di strumenti neutrali che si limitano a “supportare” il lavoro umano. La realtà è più sfumata e più interessante. Oggi l’IA generativa e predittiva opera principalmente come infrastruttura decisionale. Non prende decisioni cliniche autonome, ma organizza informazioni, suggerisce interpretazioni, propone priorità. Nei sistemi di supporto diagnostico, analizza immagini, testi clinici, dati di laboratorio per individuare pattern compatibili con determinate condizioni. Nei modelli predittivi, stima rischi futuri: progressione di malattia, probabilità di eventi avversi, risposta a un trattamento. Nel triage e nella stratificazione del rischio, questi sistemi contribuiscono a ordinare i pazienti secondo criteri di urgenza o complessità, allocando risorse scarse ‒ tempo, posti letto, interventi ‒ in modo ritenuto più efficiente. Nelle raccomandazioni cliniche, integrano linee guida e dati individuali per suggerire opzioni terapeutiche personalizzate. È importante notare che, nella maggior parte dei casi, non si tratta di automazione della scelta, ma di automazione del contesto decisionale. L’IA non dice “fai questo”, ma costruisce un ambiente in cui alcune opzioni emergono come naturali, altre come marginali. Rende alcune decisioni più rapide, più giustificabili, più difendibili. E, così facendo, ridefinisce ciò che appare ragionevole. > Quando qualcosa va storto, l’errore non è più attribuibile a un singolo > individuo, ma al sistema nel suo complesso: non c’è colpa, ma > malfunzionamento; non responsabilità, ma errore tecnico. Questa infrastruttura è spesso invisibile. Il clinico vede il risultato, un punteggio, una raccomandazione, ma non il lavoro di selezione, pesatura e normalizzazione che lo ha prodotto. L’intelligenza artificiale non si presenta come un nuovo decisore, ma come uno sfondo operativo che accompagna ogni gesto. Il clic che decide Non è solo la sanità a sperimentare la frammentazione delle decisioni. Accade ogni volta che ci affidiamo a sistemi che guidano le nostre scelte: per esempio, lasciamo che algoritmi filtrino i candidati per una posizione lavorativa prima ancora che qualcuno li valuti personalmente; utilizziamo valutazioni di rischio prodotte da sistemi finanziari o assicurativi per orientare decisioni economiche e contrattuali; accettiamo i suggerimenti delle piattaforme digitali, cosa guardare, cosa comprare, cosa leggere, senza conoscere i criteri con cui quelle raccomandazioni sono state prodotte. In tutti questi casi, la decisione viene scomposta in microdeleghe: nessuno decide tutto, ma ciascuno approva un passaggio. Quando qualcosa va storto, l’errore non è più attribuibile a un singolo individuo, ma al sistema nel suo complesso: non c’è colpa, ma malfunzionamento; non responsabilità, ma errore tecnico. Gli studi sul bias di automazione spiegano come gli operatori tendano a fidarsi dei suggerimenti delle macchine anche quando sono errati, perché seguire la raccomandazione riduce il carico cognitivo. In sanità, questo crea un paradosso: il medico resta formalmente responsabile, ma il margine effettivo di intervento si riduce, e la responsabilità si sposta dal gesto decisionale al clic finale: non “che cosa hai deciso”, ma “perché non hai seguito ciò che era indicato”. La letteratura sulle responsabilità mediche nell’era dell’IA sottolinea come la supervisione umana rimanga obbligatoria e non possa essere semplicemente delegata alla tecnologia. Sistemi di supporto decisionale come quelli utilizzati nella prescrizione elettronica di farmaci possono ridurre alcuni errori, ma introducono nuove vulnerabilità quando il medico si affida senza verificarne le indicazioni. Studi sull’uso di sistemi di allerta clinica hanno mostrato che i professionisti tendono talvolta ad accettare le raccomandazioni algoritmiche senza verificarle criticamente, soprattutto in condizioni di carico cognitivo elevato, mentre in altri casi sviluppano una forma di assuefazione agli avvisi ripetitivi, ignorando segnali potenzialmente rilevanti. Questo fenomeno, noto come automation bias, cioè la tendenza a fidarsi eccessivamente delle indicazioni dei sistemi automatizzati, non elimina il ruolo umano, ma lo trasforma: il rischio non è più soltanto l’errore individuale, ma l’interazione imperfetta tra operatore e sistema. > In alcuni casi gli operatori tendono a fidarsi dei suggerimenti delle macchine > anche quando sono errati, sia perché seguire la raccomandazione riduce il > carico cognitivo, sia perché una scelta alternativa potrebbe comportare > responsabilità legali. È qui che emerge lo slittamento cruciale: quando un suggerimento è ragionevole, tempestivo e probabilistico, diventa difficile ignorarlo. Non perché sia obbligatorio seguirlo, ma perché offre la via di minor resistenza. La decisione non viene sottratta, ma alleggerita e trasformata. Il clinico resta libero di fare diversamente, ma questa libertà è asimmetrica: seguire la raccomandazione richiede poco (un clic, una firma, un’approvazione) mentre deviare comporta lavoro cognitivo e morale extra, spiegazioni, documentazioni, assunzione di rischi clinici, organizzativi e legali. Questioni etiche come trasparenza, responsabilità e bias nei sistemi di IA sono tra i nodi critici nel dibattito sull’integrazione dell’IA nei processi clinici. Nei casi di terapia intensiva, ad esempio, scegliere un trattamento diverso da quello suggerito dai modelli predittivi può comportare responsabilità legali e giustificazioni agli audit clinici, anche quando la deviazione è clinicamente motivata. La decisione tende così a diventare ratifica: non per rinuncia consapevole, ma come esito naturale di un processo che ha già selezionato l’opzione “migliore”. La velocità del suggerimento e l’aura di oggettività che lo accompagna ‒ numeri, percentuali, modelli ‒ funzionano come criteri morali impliciti: ciò che è rapido e calcolato appare anche giusto. La responsabilità resta sempre del medico, ma cambia forma: non riguarda tanto la scelta in sé, quanto il seguire, o non seguire, i suggerimenti del sistema. La libertà di decidere esiste ancora, ma è più difficile da esercitare e spesso poco visibile. Agentività residuale e libertà formale L’effetto di questi meccanismi non è tanto l’eliminazione della libertà decisionale, quanto la sua progressiva rarefazione. La possibilità di scegliere diversamente rimane formalmente intatta, ma perde centralità nella pratica quotidiana. La decisione autonoma non scompare, ma viene spostata ai margini, trasformata in evento eccezionale, da attivare solo quando qualcosa interrompe il flusso ordinario del lavoro clinico. L’agentività che resta, cioè il margine reale di decisione e di azione autonoma del clinico, la sua capacità effettiva di agire intenzionalmente e assumersi la responsabilità delle proprie scelte, è residuale. Non perché sia stata abolita, ma perché è stata resa onerosa. La libertà decisionale sopravvive come eccezione, non come norma. In molti settori tecnologici, dall’aviazione alla finanza algoritmica, si osserva un fenomeno simile: gli operatori formalmente possono intervenire, ma ogni deviazione dai protocolli automatizzati richiede una documentazione aggiuntiva e aumenta il rischio di responsabilità. Anche la storia della medicina offre paralleli. L’introduzione dei protocolli di sicurezza chirurgica o dei sistemi di prescrizione elettronica ha ridotto gli errori, ma ha trasformato la libertà decisionale individuale in un esercizio oneroso e spesso invisibile. > La questione non è scegliere tra autonomia umana e automazione, ma riconoscere > ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che il > giudizio clinico rischia di ridursi a conferma di opzioni già selezionate > altrove. In questo contesto, la frase “si poteva fare diversamente” perde il suo significato morale. Non indica più una possibilità reale, ma una clausola formale che tutela il sistema, non chi decide. È una libertà che esiste sulla carta, ma nella pratica diventa spesso solo una scelta teorica, costosa in termini di tempo, responsabilità e stress cognitivo. Il margine di decisione personale non scompare, ma si nasconde, e chi la esercita deve confrontarsi con un doppio vincolo: quello della ragione clinica e quello della difendibilità organizzativa. Abitare lo spazio intermedio La medicina non è mai stata un atto solitario: il giudizio medico si è sempre formato all’interno di apparati tecnici, protocolli e strumenti che ne hanno orientato l’esercizio. Ciò che cambia oggi non è la presenza della tecnologia, ma la sua capacità di strutturare in anticipo ciò che appare come una decisione ragionevole. La questione, allora, non è scegliere tra autonomia umana e automazione, ma riconoscere ciò che accade nello spazio intermedio tra suggerimento e scelta. È lì che la raccomandazione algoritmica diventa norma implicita, è lì che il giudizio clinico rischia di ridursi a conferma di opzioni già selezionate altrove. L’agentività che sopravvive non scompare, ma si restringe: non viene negata, viene resa costosa, eccezionale, giustificabile solo a posteriori. In questo contesto, lo scostamento dal suggerimento non è più un gesto ordinario del ragionamento clinico, ma un atto che deve essere difeso. La responsabilità non riguarda più tanto ciò che si decide, quanto il motivo per cui non si è aderito a ciò che era indicato. L’intelligenza artificiale può rendere le decisioni più rapide, più coerenti, più difendibili, ma proprio per questo rischia di rendere meno visibile il momento in cui qualcuno decide davvero. In alcuni casi, gli strumenti predittivi hanno migliorato sensibilmente diagnosi e allocazione delle risorse: ad esempio, modelli predittivi in oncologia hanno aumentato la precisione nella classificazione dei pazienti e nella personalizzazione dei trattamenti, migliorando gli esiti clinici rispetto ai metodi tradizionali. Allo stesso tempo, alcuni studi documentano come algoritmi di supporto decisionale possano riprodurre e amplificare bias preesistenti, generando disparità nei risultati tra gruppi etnici o razziali, specialmente quando i dati di addestramento non sono rappresentativi della popolazione reale; in ambito diagnostico, sono state osservate anche prestazioni peggiori dell’IA su immagini di pazienti con caratteristiche meno rappresentate nei dataset, come alcune condizioni dermatologiche o popolazioni con fenotipi cutanei diversi. Questi esempi illustrano due facce della stessa medaglia: l’IA può ampliare la capacità diagnostica e decisionale, eppure può anche riprodurre disuguaglianze sanitarie e introdurre errori sistematici se non adeguatamente progettata, validata e monitorata. In ultima analisi, la diffusione dell’intelligenza artificiale non elimina la responsabilità individuale, la riorganizza. Non siamo più davanti a un medico che decide “da solo”, ma a un professionista che decide entro un contesto tecnologico e culturale in continua evoluzione, che richiede non solo competenza tecnica, ma anche consapevolezza delle implicazioni etiche e sociali associate all’uso dell’IA in sanità. > L’IA può ampliare la capacità diagnostica e decisionale, ma può anche > riprodurre disuguaglianze sanitarie e introdurre errori sistematici, se non > adeguatamente progettata, validata e monitorata. È proprio in questa riorganizzazione che emerge il cambiamento più rilevante: una medicina in cui la firma continua ad apparire, e il consenso viene formalmente ottenuto, può assumere un valore sempre più simbolico o ridursi a una percezione di controllo, mentre le scelte realmente operative vengono guidate, in parte, da algoritmi e infrastrutture complesse. La responsabilità non scompare, ma si sposta e si distribuisce lungo una catena decisionale più ampia, nella quale diventa meno immediato riconoscere chi abbia davvero deciso. Abitare consapevolmente questo spazio intermedio, tra suggerimento e scelta, tra supporto e delega, non è allora un limite della medicina contemporanea, ma la condizione necessaria per preservarne la libertà e il senso di responsabilità nell’epoca dell’intelligenza artificiale. L'articolo Doctor ex machina proviene da Il Tascabile.
Scienze
Intelligenza Artificiale
medicina
sanità
Il patrimonio nascosto delle valli alpine
Q uando si parla di biodiversità alpina, la prima cosa che viene in mente probabilmente sono gli animali. Solo in un secondo momento alberi e fiori, forse, a causa della cosiddetta plant blindness, la nostra tendenza a prestare meno attenzione alle piante rispetto a umani e animali. Ma a pochi verrà da pensare agli ortaggi che coltiviamo. Il che è un problema, perché le valli alpine custodiscono un tesoro spesso dimenticato: centinaia di varietà agricole tradizionali che rappresentano non solo un patrimonio agroalimentare, ma anche una risorsa strategica per l’agricoltura del futuro. Le montagne come scrigni di biodiversità La maggior parte di queste varietà si concentra nelle aree montane, in particolare lungo l’Appennino e nelle grandi valli alpine come la Valtellina e la Valle Camonica. Mentre le pianure sono state progressivamente destinate a colture intensive con ibridi moderni, le montagne hanno conservato in misura maggiore queste risorse genetiche. Per ibridi si intendono quelle varietà vegetali ottenute attraverso l’incrocio controllato di due linee parentali geneticamente diverse, selezionate per combinare caratteristiche desiderabili. Il processo sfrutta il fenomeno del “vigore ibrido”: la prima generazione (F1) spesso mostra prestazioni superiori in termini di resa, uniformità, resistenza a malattie e parassiti rispetto a entrambi i genitori. C’è, però, un aspetto particolarmente critico: gli agricoltori devono riacquistare i semi ogni anno, poiché le generazioni successive (F2) perdono il vigore ibrido e presentano caratteri sostanzialmente imprevedibili. Questo crea dipendenza dalle aziende sementiere e aumenta i costi di produzione annuali. Le varietà locali tradizionali di montagna, invece, non presentano questo problema. > Le valli alpine custodiscono un tesoro spesso dimenticato: centinaia di > varietà agricole tradizionali che rappresentano non solo un patrimonio > agroalimentare, ma anche una risorsa strategica per l’agricoltura del futuro. Le principali famiglie botaniche di queste varietà locali tradizionali che si trovano in montagna sono le Graminacee ‒ ovvero i cereali ‒, le Leguminose e le Solanacee. La segale è il cereale che cresce a quota più elevata, seguita da mais e orzo. Particolarmente interessante è il mais, coltivato tradizionalmente anche sopra i 500 metri di quota. Con Leguminose si fa riferimento soprattutto ai fagioli, che in passato rappresentavano la principale fonte proteica di origine vegetale per le popolazioni montane, mentre le Graminacee fornivano energia sotto forma di amido. La famiglia delle Solanacee è abbastanza vasta, ma nel caso delle montagne non si può non pensare alle patate, alimento tipico di queste aree. Cosa rende queste varietà diverse da quelle più “commerciali”? “Innanzitutto c’è bisogno di caratterizzarle”, spiega Luca Giupponi, ricercatore nell’ambito della botanica ambientale applicata dell’Università degli studi di Milano, presso il Polo Unimont di Edolo, in Alta Valle Camonica: “meno del 10% di quello che abbiamo trovato e mappato è stato oggetto di studi scientifici”. E questo, per varietà potenzialmente a rischio, è un grosso problema, che può sfociare in quella che viene chiamata dark extinction: rischiamo di perdere specie ancora prima di conoscerne l’esistenza, specie che potrebbero avere caratteristiche utili, che meriterebbero di essere rivalorizzate. Ci sono varietà che sono state scartate in passato perché producevano poco. Alla fine delle due guerre mondiali la priorità era proprio quella di sfamare la popolazione: gli agronomi e i genetisti, da quel punto di vista, hanno ottenuto risultati eccellenti. Per il mais, ad esempio, si è passati da una produzione di 12-14 quintali per ettaro a superare oggi i 100 quintali. Ma ora, almeno in Italia, l’attenzione si è spostata dalla quantità alla qualità. > Ci sono varietà che sono state scartate in passato perché producevano poco, in > un periodo in cui la priorità era sfamare la popolazione. Ma queste varietà > talvolta offrono caratteristiche nutrizionali superiori. Le varietà tradizionali producono meno, è vero, ma talvolta offrono caratteristiche nutrizionali superiori. Il mais nero spinoso di Valle Camonica, ad esempio, deve il suo colore a molecole antiossidanti ‒ proprio quelle che conferiscono il colore scuro ‒ presenti in concentrazioni molto elevate, caratteristica assente nei mais ibridi moderni, coltivati nelle pianure degli Stati Uniti o della Cina. Sono alimenti che vengono definiti nutraceutici per le loro proprietà benefiche. L’obiettivo ultimo è proprio quello di valorizzare queste eccellenze, anche perché puntare sulla quantità in montagna sarebbe fallimentare: non si parla di ettari di terreno, ma di metri quadri; non ci sarebbe competizione. La genetica della resilienza Un altro vantaggio fondamentale è la rusticità: queste varietà sono adattate a terreni montani meno profondi e meno ricchi di nutrienti, spesso resistenti alla siccità. Studiarle dal punto di vista genetico per il miglioramento delle colture, in vista dei cambiamenti climatici, potrebbe essere una strategia vincente. Si tratta di risorse che non possiamo permetterci di perdere: se manteniamo ampia la diversità di cibi che possiamo consumare è un bene per l’essere umano, per gli animali e per la biodiversità in sé. Un esempio emblematico è il mais delle Fiorine di Clusone: produce solo 10 quintali per ettaro, ma durante la siccità dell’estate 2022, quando il mais in pianura è andato completamente perso, ha continuato a produrre la sua unica spiga per pianta senza essere irrigato. > Queste varietà sono adattate a terreni montani meno profondi e meno ricchi di > nutrienti, spesso resistenti alla siccità. Considerando l’impatto crescente > dei cambiamenti climatici, potrebbero rivelarsi cruciali. A differenza degli ibridi moderni, che sono linee genetiche pure e uniformi, le varietà tradizionali sono popolazioni con un’ampia variabilità genetica. “In campo puoi trovare una pianta alta e una bassa, una spiga di un colore e un’altra di colore diverso”, spiega Giupponi: “Se un anno sopravvive meglio la pianta resistente alla siccità, l’anno dopo, con più pioggia, sopravvive meglio un’altra variante. Questa diversità le rende più resilienti ai cambiamenti ambientali”. Si tratta di un aspetto particolarmente rilevante nel contesto del cambiamento climatico e non è, tutto sommato, così intuitivo. Trattandosi di varietà locali, infatti, si potrebbe pensare che siano molto più sensibili alle variazioni, ma è proprio la diversità genetica a fare la differenza. Gli ibridi sono tarati per ambienti di pianura, richiedono condizioni molto più specifiche e possono avere difficoltà nell’ambiente montano, le varietà tradizionali invece si adattano gradualmente alle variazioni ambientali locali, generazione dopo generazione. Una ricchezza minacciata Le principali minacce a questo patrimonio sono chiare: l’abbandono delle terre alte e la mancanza di conoscenza. Pur essendoci numerose università nel nostro Paese, infatti, sono poche a occuparsi di queste tematiche: oltre a Unimont possiamo citare la libera Università di Bolzano e l’Università della Tuscia. Mancano ricerca, disseminazione e divulgazione, che comunque da sole non bastano. Occorre anche un supporto a livello di governance, norme che preservino le varietà, ne promuovano l’utilizzo, tutelando al tempo stesso il territorio e chi lo abita. La questione è complessa e si traduce nel vivere in montagna, far sapere quali sono le sue risorse, come si coltivano, cosa contengono e come puoi valorizzarle e trasformarle. Anche e soprattutto perché serve continuità: queste varietà vanno coltivate annualmente, se i semi vengono dimenticati per 5-10 anni vanno persi. Ed è un vero e proprio patrimonio che se ne va. “Ognuna di queste varietà è legata anche a un concetto di storia, uso tradizionale, ricette tipiche”, aggiunge Giupponi: “Se vogliamo c’è di mezzo anche il turismo: l’agrobiodiversità è una ricchezza strategica per le aree montane”. In ogni caso, i cambiamenti climatici non sono da dimenticare: si osserva uno sfasamento dei periodi di fioritura e di maturazione dei frutti, ma queste varietà incontrano meno difficoltà rispetto a quelle vissute dalle specie ibride. > Le principali minacce a questo patrimonio sono l’abbandono delle terre alte e > la mancanza di conoscenza. Anche e soprattutto perché serve continuità: queste > varietà vanno coltivate annualmente, se i semi vengono dimenticati per 5-10 > anni vanno persi. L’abbandono e il mancato ricambio generazionale hanno, tra l’altro, un effetto diretto sul paesaggio: negli ultimi decenni si è osservata un’espansione incontrollata del bosco a discapito dei prati, dei pascoli e dei campi. A ciò si aggiunge l’impatto del ritorno della fauna selvatica, in particolare gli ungulati ‒ come cervi, caprioli e cinghiali. Per gli agricoltori, questo ritorno è una difficoltà e un costo aggiuntivo: raccolti preziosi come lo zafferano rendono necessarie costose recinzioni. Prima di progettare il futuro delle comunità montane, occorre guardarsi dagli errori del passato: “Buona parte delle varietà moderne che ci vengono fornite sono studiate per ambienti di pianura”, spiega in proposito Giupponi: “Vale anche per la zootecnia: in pianura abbiamo creato vacche che producono enormi quantità di latte con mangimi super calorici, poi abbiamo imposto questo modello alla montagna”. Ma per poter allevare quel tipo di animale o coltivare quel tipo di pianta in montagna era necessario modificare l’ambiente rendendolo più simile possibile alla pianura, con costi ambientali insostenibili”. Oggi, però, assistiamo a un cambio di paradigma: non si cerca più la varietà con la migliore resa assoluta, ma quella meglio adattata a ogni specifico territorio. Il valore economico della qualità Fino a pochi anni fa ‒ ma in alcuni casi ancora oggi ‒ questi saperi venivano tramandati di padre in figlio. Ora, però, esistono anche i social, che permettono di trovare video in cui, per esempio, viene spiegato come coltivare il mais nero. Il problema non riguarda, di solito, come coltivare, ma perché, e nel momento in cui ci sono così grandi differenze dal punto di vista della produttività, non si tratta di una questione banale. La vera comprensione, infatti, è nel valore intrinseco: un chilo di farina di mais locale tradizionale può arrivare a costare anche 5-6 euro, rispetto a un chilo di farina prodotta magari in Cina o negli Stati Uniti, che al supermercato si trova a 1 euro, o, in alcuni casi, anche a prezzo inferiore. Quindi è vero che si produce meno, ma si vende a un prezzo maggiore. Se poi si è pure in grado di trasformare il prodotto vuol dire che al posto di vendere la farina si producono biscotti, grissini, birra o altri prodotti. A quel punto, quel chilo di farina non vale più 5-6 euro, ma molto, molto di più. Si tende, poi, a pensare alle vallate alpine come a luoghi chiusi, eppure, come spiega Giupponi, “in passato gli agricoltori delle diverse valli si scambiavano i semi, c’è sempre stato un flusso genetico. Avere i semi significava essere detentori di ricchezza. Oggi, quando qualcuno ha i soldi si dice che ‘ha la grana’, ma questa definizione viene dal fatto che chi aveva ‘i grani’ era potente, aveva una risorsa, in prezzo valeva più dei soldi. Quando le persone si sposavano, nella dote degli sposi si includevano i semi ‒ era come fare un assegno di migliaia di euro”. C’era il baratto, c’era la compravendita. Questo scambio ha creato una rete di biodiversità che supera i confini delle singole valli: “abbiamo trovato un fagiolo, che noi chiamiamo ‘Copafam’ ‒ significa ammazzafame ‒ che è diffuso su tutte le Alpi con nomi diversi ‒ logicamente ogni valle ha il suo dialetto ‒ ma è sempre lo stesso fagiolo, con piccolissime differenze genetiche e impercettibili differenze morfologiche”. Il quadro normativo L’Italia è da sempre riconosciuta come un Paese ricco di biodiversità agroalimentare, ma solo di recente ha cominciato a quantificare questa ricchezza. Dall’inizio degli anni Duemila alcune regioni hanno iniziato a promulgare leggi regionali volte alla tutela delle risorse genetiche autoctone di interesse agrario. Altre, come per esempio la Lombardia, hanno deciso di preservare il proprio patrimonio utilizzando strumenti nazionali come il registro varietale sezione “varietà da conservazione” o il registro dei PAT (Prodotti Agroalimentari Tradizionali). È solo del 2015 la legge n. 194 “Disposizioni per la tutela e la valorizzazione della biodiversità di interesse agricolo e alimentare”, operativa dal 2018, che dovrebbe far convogliare tutti i diversi sforzi fatti dalle varie regioni in un unico strumento: l’anagrafe della biodiversità di interesse agricolo e alimentare, che raccoglie le varietà locali tradizionali ‒ quelle che tecnicamente vengono chiamate landraces ‒ presenti sul territorio nazionale. Nel 2016 la Regione Lombardia ha coinvolto Unimont in un progetto con il fine di censire le landraces lombarde: in due anni si è passati da uno scarno elenco con una decina di specie a scoprirne una settantina. In seguito, grazie a un progetto finanziato dal Dipartimento degli affari regionali della Presidenza del Consiglio dei ministri, il censimento è stato esteso a livello nazionale, individuando oltre 1600 varietà locali tradizionali. > Una specie locale tradizionale viene definita tale quando è coltivata nello > stesso territorio per almeno 50 anni: potrebbe sembrare poco tempo, ma > parliamo di 50 generazioni successive. Il nostro equivalente di oltre 1200 > anni. Questo patrimonio si concentra in gran parte sull’Appennino e nelle grandi valli alpine come la Valtellina e la Valle Camonica; in contrasto con le aree di pianura, dove il territorio è stato adibito a coltivare principalmente ibridi e varietà moderne, oltre che dedicato all’urbanizzazione. Guardare al futuro Oggi, la ricerca si concentra non solo sulle specie autoctone in senso stretto, ma anche su quelle che si sono adattate nel tempo: basti pensare che molte piante ormai tipiche nel nostro Paese (mais, patate, fagioli, pomodori) vengono dall’America. Una specie locale tradizionale viene definita tale quando è coltivata in uno stesso territorio per almeno 50 anni: potrebbe sembrare poco tempo, ma quando si parla di piante annuali significa fare riferimento a 50 generazioni. Che per noi umani corrisponderebbero a circa 1250 anni. Un esempio è la caigua (o cetriolo andino), trovata in Valle Camonica. Questa varietà, pur essendo originaria di un altro continente, si è adattata al territorio camuno, sviluppando caratteri propri e producendo molto di più (tanti piccoli frutti) rispetto alla caigua americana coltivata a fini sperimentali in Valle Camonica (un unico frutto che non arriva a maturazione). “Le piante si sono sempre mosse, l’uomo le ha sempre trasportate e quindi siamo invasi da vegetali che non sono tipici dei nostri territori”, chiosa Giupponi: “Non ha alcun senso fare delle discussioni sulla ‘proprietà’ di queste piante da parte di un territorio in base a dove queste si sono originate o erano coltivate secoli fa: guardiamo cosa sono diventate, quali potenziali possono avere oggi per i territori in cui si trovano”. Le varietà tradizionali delle valli alpine sono, in sostanza, una cassetta degli attrezzi genetica. Se quelle moderne sono attrezzi specializzati, perfetti per la massima resa in condizioni ideali, le varietà rustiche sono l’insieme completo e variegato di strumenti che, grazie al loro ampio pool genetico, consentono all’agricoltura di affrontare e adattarsi a ogni imprevisto e cambiamento ambientale, garantendo la resilienza necessaria per il futuro. L'articolo Il patrimonio nascosto delle valli alpine proviene da Il Tascabile.
Scienze
agricoltura
biodiversità
montagna
L’eterno ritornello
A nche questo inverno, come ogni inverno dal 1951, l’Italia si ferma per quello che è al contempo l’evento più divisivo e più unificante dell’anno. Il Festival di Sanremo è una di quelle ricorrenze impossibili da ignorare, e infatti puntualmente il Paese finisce per spaccarsi in due frange asimmetriche: da un lato quelli (tanti) che seguiranno più o meno fedelmente la rassegna, sceglieranno le canzoni preferite e la mattina si agganceranno al treno di discussioni Sanremo-centriche; dall’altro quelli (meno) che tenteranno di isolarsi tappandosi le orecchie, nella speranza che il supplizio passi in fretta. Che tu appartenga a una frangia o all’altra, c’è buona probabilità che le canzoni di Sanremo ti entreranno in testa lo stesso. E per quanto tu abbia provato a evitare qualsiasi cosa abbia lontanamente a che fare con l’Ariston, è possibile che fra qualche settimana, nel silenzio della tua testa, scoprirai che quei ritornelli hanno aggirato le difese e hanno colonizzato anche il tuo paesaggio sonoro. Come vedremo, se questo succede non è perché i brani di Sanremo siano particolarmente belli, ma perché il nostro cervello fa una fatica tremenda a resistere ai ritornelli, e alle ripetizioni musicali in generale. Repetita sonant Partiamo dal 1995, quando la psicologa Diane Deutsch fa una scoperta che da sola è in grado di cambiare la neuropsicologia della musica. Come molte scoperte spartiacque, anche questa avviene per caso. Deutsch sta preparando un CD divulgativo, ha già registrato tutte le sue parti ma vuole assicurarsi che le tracce non abbiano difetti di registrazione. Comincia così a riprodurre spezzoni del suo intervento a ripetizione. A un certo punto, mentre ascolta un particolare segmento, si rende conto di una cosa: parole che lei aveva letto senza alcuna intonazione consapevole, ora presentano una certa musicalità, sembrano quasi cantate. Quando prova a riascoltare per intero il discorso la sua voce appare neutra, ma quando arriva quel pezzo di frase d’un tratto la voce si impenna in una melodia cantata. Quella che Deutsch sta sperimentando è una forma piuttosto comune di illusione sonora, oggi nota come speech-to-music illusion (se volete sperimentarla voi stessi, è possibile ascoltare il file originale). > Nel parlato c’è sempre una componente melodica e ritmica (prosodia) che spesso > non notiamo perché concentrati sul senso della frase. Con la ripetizione > l’attenzione si sposta: la componente semantica passa in secondo piano e la > prosodia emerge. Ma perché un pezzo di parlato ripetuto un certo numero di volte trascolora in musica? Deutsch ha passato gli ultimi trent’anni a cercare di rispondere a questa domanda, e una delle prime cose che ha scoperto è che la speech-to-music illusion non è automatica. Dipende innanzitutto dalla lingua: in quelle tonali, come il cinese mandarino, dove l’intonazione modifica il significato della singola sillaba, per dire, l’effetto si verifica meno facilmente. Inoltre è fondamentale che la ripetizione sia esatta: se ad esempio le sillabe vengono invertite, l’effetto diminuisce o scompare. Al di là di questi distinguo, esiste una spiegazione piuttosto convincente dietro questa specie di magia sonora: nel parlato c’è sempre una componente melodica e ritmica (prosodia) che tendiamo a non notare perché siamo concentrati sul senso della frase; quando però un pezzo di frase viene ripetuto in loop, l’attenzione si sposta: la componente semantica passa in secondo piano e la prosodia emerge. È una spiegazione convincente, ma non sufficiente. Se infatti bastasse una ripetizione decontestualizzata per trasformare una frase parlata in una frase cantata, allora sperimenteremmo questa illusione molto più di frequente. Il punto è che la musicalità degli elementi ripetuti è anche legata ad aspetti cognitivi e culturali. Una questione di intenzionalità La musicologa cognitiva Elizabeth Hellmuth Margulis ha dedicato la propria vita a studiare la capacità che la musica ha di monopolizzare la nostra attenzione. Nel suo ultimo saggio, Transported, in uscita a maggio 2026, analizza come le canzoni siano in grado di farci rivivere momenti passati e immaginare scenari futuri, innescando una specie di sogno a occhi aperti. Ma prima di focalizzarsi su questo fronte di ricerca ha passato anni ad analizzare i cosiddetti earworm, i tormentoni virali di cui parlavo a inizio pezzo. Nel 2013, volendo dimostrare l’importanza della ripetizione nella fruizione musicale, ha ideato un esperimento talmente subdolo da assomigliare a un tranello. Come prima cosa ha selezionato una serie di estratti di musica contemporanea poco accessibili a un ascoltatore non specializzato, tratti dai brani di Luciano Berio ed Elliott Carter: parliamo di musica piuttosto complessa, praticamente priva di elementi ripetitivi, che un fruitore medio farebbe fatica a suddividere in parti distinte. In una seconda fase, ha modificato digitalmente questi brani introducendo ripetizioni non previste nelle composizioni originali. Questa modifica è stata eseguita in maniera sostanzialmente casuale, senza seguire alcun criterio compositivo. In teoria, dunque, i brani modificati sarebbero dovuti risultare più sghembi e rozzi rispetto a quelli originali, e invece, una volta che le due versioni sono state sottoposte a una schiera di ascoltatori non specializzati, i brani modificati venivano giudicati più piacevoli e interessanti. Non solo, quando veniva chiesto quale delle due versioni fosse stata realizzata da un essere umano, quasi tutti sceglievano quella alterata. Da questi esperimenti Margulis dedusse che la presenza di ripetizioni viene percepita dal cervello umano come un segno di intenzionalità: se ci rendiamo conto che degli elementi si ripresentano in forma simile nel corso del brano, una parte di noi si convince che qualcuno abbia scelto di proporre quella sequenza di suoni, e questo ci porta a spostare il fuoco dell’attenzione: quello che prima poteva essere un insieme disordinato di suoni, d’un tratto lo consideriamo informazione. Che l’ascolto ripetuto di una canzone finisca per aumentarne il gradimento è qualcosa di cui tutti abbiamo esperienza. Un disco che inizialmente non ci diceva più di tanto dopo qualche ascolto comincia a suscitare emozioni più intense, a volte addirittura a commuoverci, finché ci ritroviamo ad ascoltarlo a ripetizione. Questo fenomeno è noto come “effetto di mera esposizione”: la familiarità rende più facile anticipare e riconoscere un brano, e questo spesso aumenta il piacere; almeno finché non subentra la saturazione. Ma è una linea di ricerca che rischia di portarci altrove: qui ci interessa capire come mai una canzone ascoltata per caso, o addirittura in modo inconsapevole, finisca per piantarci le tende in testa. Per farlo occorre analizzare in che modo il nostro cervello si rapporta al mondo esterno. Un dispositivo per risolvere incertezze Dagli anni Ottanta a oggi diverse linee di ricerca neurologica e neurocognitiva sembrano suggerire che la nostra percezione della realtà esterna non sia “in presa diretta”, ma si affidi piuttosto a modelli mentali in continuo aggiornamento. Per dirla in parole più semplici: invece di acquisire in continuazione informazioni dall’esterno, il nostro cervello tende a sviluppare una simulazione interna della realtà che ci circonda, che viene aggiornata solo quando gli input esterni si dimostrano diversi da quelli previsti. Secondo la teoria dell’inferenza attiva il nostro cervello funzionerebbe dunque come una macchina predittiva, e il nostro rapporto con la realtà sarebbe costantemente sbilanciato verso il futuro. Non è difficile intuire perché l’evoluzione abbia premiato questa soluzione: il cervello è un organo estremamente energivoro, e la possibilità di affidarsi a un modello simulato, e non dover processare continuamente ogni input esterno, ha consentito ai nostri antenati di conservare energie preziose, così da poterle riorientare su compiti in cui il margine d’errore può costare caro, come ad esempio monitorare un pericolo, o decidere in una frazione di secondo se sia meglio scappare o attaccare. > Alcuni studi di psicologia della musica hanno mostrato come i brani che > tendiamo ad apprezzare di più siano quelli che riescono contemporaneamente a > confermare e tradire le nostre aspettative. Ecco, la teoria dell’inferenza attiva postula che, poiché il nostro cervello è costantemente impegnato a prevedere il futuro e a individuare errori di previsione, non c’è nulla che lo gratifichi di più di un errore di previsione che è in grado di correggere al volo. “Quando ascoltiamo musica generiamo continuamente ipotesi plausibili su ciò che potrebbe accadere di lì a poco”, scrivono in proposito i neuroscienziati Stefan Koelsch e Karl Friston “mentre l’atto stesso dell’ascolto risolve l’incertezza che queste ipotesi producono. In questo modo la musica soddisfa senza sosta il nostro bisogno di ridurre l’incertezza, ed è proprio questo a renderla gratificante”. In uno studio del 2025 intitolato “Predictive processes shape individual musical preferences”, gli psicologi cognitivi catalani Ernest Mas-Herrero e Josep Marco-Pallarés hanno mostrato come i brani che tendiamo ad apprezzare di più sono quelli che riescono contemporaneamente a confermare e tradire le nostre aspettative. Dico “tendono” perché naturalmente le risposte alle varie canzoni e ai diversi generi sono soggettive. I gusti sono gusti, ci mancherebbe, ma nella maggior parte dei casi il discorso regge: se un brano presenta troppi elementi spiazzanti finirà per risultare indigesto all’ascoltatore medio, se al contrario ripropone stilemi noti e logori, finirà per annoiarlo. I brani che vengono selezionati per Sanremo di solito rientrano nell’intervallo tra questi due estremi, e non stupisce che molte canzoni mostrino espedienti che giocano su questo equilibrio: dalle variazioni sincopate ai cambi d’intensità, per non parlare dell’usatissimo salto di tono nell’ultimo ritornello, praticamente un cliché del festival (basta riascoltare Amici come prima, Fiumi di parole e L’essenziale e per rendersi conto che, per quanto questi brani siano diversi, giocano tutti sulla classica modulazione tonale verso l’alto). Un po’ come succede con l’apprendimento, il nostro cervello trae gratificazione quando riesce a risolvere un’incertezza. In questo senso, i ritornelli più orecchiabili e infettivi sono come dei cubi di Rubik, tutto sommato semplici, ma con dettagli spiazzanti che non possiamo fare a meno di rimettere a posto. Insomma, quando fatichiamo a levarci di testa un particolare ritornello, è perché il nostro cervello lo considera un trastullo perfetto per placare il suo bisogno di ridurre l’incertezza. A prescindere che quel ritornello ci piaccia effettivamente o meno. Formule propiziatorie e ganci mnemonici La ripetizione musicale è uno dei pochi elementi sostanzialmente trasversali a ogni cultura. Nel suo “The Biology and Evolution of Music” il biologo cognitivo W. Tecumseh Fitch include la ripetibilità tra le proprietà fondamentali che rendono la musica una forma comunicativa autonoma dal linguaggio. Certo, in alcune culture ha un’importanza diversa rispetto ad altre. In quella italiana, ad esempio, il ritornello è un perno strutturale della canzone moderna almeno da fine Ottocento, quando la canzone popolare e quella da salotto cominciano a fissare forme sempre più standardizzate basate sul ritorno di un motivo. > Se fatichiamo a levarci di testa un particolare ritornello, è perché il nostro > cervello lo considera un trastullo perfetto per placare il suo bisogno di > risolvere incertezza. A prescindere che quel ritornello ci piaccia > effettivamente o meno. Quanto all’origine del ritornello in sé le teorie si sprecano. C’è chi ha ipotizzato sia nato come elemento di stabilità strutturale, una sorta di contrafforte che consentiva alla composizione di svilupparsi in relativa libertà; chi invece ipotizza che le radici affondino nel canto popolare, dove veniva utilizzato per indicare i momenti in cui la voce del pubblico si univa a quella dell’esecutore solista; un’altra teoria ancora vuole che il ritornello nasca come intermezzo strumentale tra due parti cantate, un intervallo che doveva spezzare la strofa e dare un po’ di tregua a chi cantava – e chi ascoltava ‒ prima di riprendere il canto (refrain, in effetti, deriva dal francese antico refraindre, che significa “rifrangere” o “rompere”). Sono teorie affascinanti, ma non del tutto convincenti. Già nel 1910, quasi un secolo prima che Elizabeth Margulis pubblicasse le sue ricerche, il musicologo francese Jules Combarieu aveva suggerito che il ritornello fosse prima di tutto un gancio cognitivo, un elemento ricorrente che aveva come scopo quello di catalizzare l’attenzione di un uditorio. In questo senso, il moderno ritornello sarebbe una rielaborazione delle formule rituali degli antichi canti propiziatori. Prendiamo ad esempio le cerimonie magiche delle tribù Pawnee in Nord America: in questi canti i due elementi più riconoscibili sono esclamazioni prive di un vero significato verbale. Il primo, “Ho-o-o”, era una sorta di preludio al canto; mentre il secondo, “I’hare” serviva a richiamare l’attenzione dei presenti sullo spirito a cui il canto era rivolto. Una costruzione simile la ritroviamo anche in culture molto diverse, ad esempio negli imenei greci. L’idea di Combarieu è che queste costruzioni, una volta spogliate del significato religioso, abbiano mantenuto la loro funzione di appigli sonori, aiutando il fruitore a orientarsi nell’ascolto. Nella canzone popolare moderna il ritornello è l’elemento più riconoscibile, quello a cui è più facile unirsi (cantando o battendo le mani), e soprattutto, quello che più spesso risulta gratificante. In un certo senso è una sorta di nord della bussola: qualunque direzione prenda la canzone che stiamo ascoltando, ci aspettiamo che prima o poi ritornerà su quel blocco sonoro; e per certi versi non vediamo l’ora che ciò avvenga. Questo gioco di attesa e gratificazione è una dinamica difficilmente aggirabile, e oggi più che mai ha un ruolo centrale nel decretare il successo di una canzone. Tutta colpa dei Beatles (o quasi) Oggi tendiamo a dare per scontato che una canzone debba avere una strofa e un ritornello, che prima di concludersi ci sarà un bridge (qualcuno la chiamerebbe variazione), e che questi elementi saranno presentati grossomodo in quest’ordine. In effetti, è questo lo schema che ha dominato la musica popolare degli ultimi decenni, e Sanremo non fa eccezione. Basta dare un’occhiata ai brani vincitori degli ultimi vent’anni per rendersi conto che nella quasi totalità dei casi sono caratterizzati da una struttura strofa-ritornello-bridge, con strofe lunghe che accumulano tensione, e un ritornello riconoscibile che la fa esplodere. In realtà, però, la prevalenza di questo schema, noto come Verse-Refrain (VR), è un fenomeno recente. Prima degli anni Sessanta, soprattutto in ambito anglosassone, era piuttosto comune trovare canzoni che cominciavano con il ritornello e a volte nemmeno presentavano una vera strofa. Pensiamo a brani jazz, come I Got Rhythm di George Gershwin, o a ballate anni Cinquanta, come Everyday di Buddy Holly, in cui la struttura si esaurisce con tre ritornelli intervallati da un bridge nell’arco di 32 battute. Questo schema, noto come Chorus-Bridge (CB), oggi sembra aver abdicato al predominio di quello VR; ed è probabile che la colpa, almeno in parte, sia dei Beatles. Molti dei singoli del primo periodo (A Hard Day’s Night, I Want To Hold Your Hand, Love Me Do) presentano una chiara struttura CB. Prendiamo il primissimo singolo, Love Me Do (1962): la canzone comincia con il ritornello (“Love, love me do…”), che ripete due volte prima di lasciare spazio alla variazione (“Someone to love…”), per poi atterrare nuovamente sul ritornello. Ancora nel 1964, la maggior parte delle canzoni del quartetto di Liverpool seguiva questo schema. A un certo punto, però, a partire dal 1965, Lennon e McCartney cominciano a spostare il baricentro compositivo verso lo schema VR (Help!, Paperback Writer, Penny Lane) e a esplorare strutture più ibride (A Day In The Life, Happiness Is A Warm Gun). Non è un cambiamento da poco. Abbiamo visto come la musica popolare giochi da sempre su dinamiche di attesa e gratificazione, ecco: in queste strutture il ritornello gioca un ruolo significativamente diverso. > Lo schema strofa-ritornello sembra capace di sopravvivere a mode e rivoluzioni > come un macigno piantato in un torrente. Il motivo è semplice: è la dinamica > che meglio garantisce di scodellare tormentoni infettivi, e dunque quella più > funzionale a batter cassa. Come ha scritto il musicologo Franco Fabbri, che alle dinamiche compositive dei Beatles ha dedicato anni di studio, nelle canzoni VR il ritornello è una sorta di premio posto alla fine di una strofa – “la torta dopo la bistecchina con gli spinaci” – , un piacere che una volta sperimentato deve essere ripresentato, in abbondanza e alla svelta, tanto che molte canzoni finiscono per ripeterlo sul finale. Lo schema CB invece segue una dinamica diversa: il ritornello arriva subito, ma non viene più concesso così facilmente. In pezzi come She Loves You, per dire, viene presentato nella sua forma completa solo all’inizio, dopodiché viene centellinato per il resto della canzone. Negli ultimi anni della loro carriera i Beatles ripresero in parte il modello CB, ma nel frattempo lo schema VR aveva conquistato il mondo. Oggi, cinquant’anni dopo, lo schema strofa-ritornello sembra capace di sopravvivere a mode e rivoluzioni come un macigno piantato in un torrente. Il motivo è semplice: promettere la torta di un ritornello memorabile dopo una strofa di bistecca e spinaci è la dinamica che meglio garantisce di scodellare tormentoni infettivi. E dunque quella più funzionale a batter cassa. Tu chiamala se vuoi piattaformizzazione Chiunque abbia seguito le ultime edizioni di Sanremo (ma anche chi avesse provato a ignorarle) si sarà reso conto di una cosa: le canzoni si stanno accorciando. In un illuminante e approfondito studio, pubblicato lo scorso dicembre, Dino Mignogna ha analizzato 934 brani in gara al Festival tra il 1983 e il 2025, e ha notato che negli ultimi trent’anni la durata media delle canzoni è diminuita di 45 secondi, stabilizzandosi attorno ai 3 minuti e 25 secondi. La scure si è abbattuta principalmente sulle introduzioni, che sono state dimezzate (da 15 a 8 secondi in media), quando non proprio eliminate. La ragione è facilmente intuibile: una canzone con un ritornello che arriva presto (possibilmente entro i primi 40 secondi) ha più chance di funzionare sulle piattaforme streaming come Spotify, che conta i singoli ascolti a partire da 30 secondi di riproduzione, e sulle piattaforme social come TikTok, il cui algoritmo tende a premiare frammenti sonori ancora più brevi. Naturalmente parliamo di una tendenza che va oltre Sanremo: ricerche recenti mostrano come TikTok stia cambiando le dinamiche compositive nel panorama pop. Non è un caso che sempre più spesso a diventare virali non siano vere e proprie canzoni, ma spezzoni strumentali specificamente ideati per diventare sottofondi per i reel degli utenti. > A Sanremo come altrove, le canzoni si stanno facendo sempre più corte e le > scelte compositive sempre più standardizzate; allo stesso tempo, i nostri > ascolti tendono a chiudersi in percorsi sempre più personalizzati. Che il passaggio a un nuovo supporto finisca per influenzare anche la sfera compositiva non è una novità. Come non manca di sottolineare Mignogna, già tra gli anni Venti e Trenta del Novecento, il passaggio dai palcoscenici di Broadway ai dischi portò molte canzoni a perdere la strofa introduttiva, che funzionava bene nella dimensione teatrale, per mantenere solo il nucleo musicale composto da ritornello e bridge, più adatto ai limiti temporali dei 78 giri e delle trasmissioni radiofoniche. Analogamente, il passaggio dai supporti fisici alle piattaforme digitali sta producendo effetti palesi, non tanto sul piano strutturale (lo schema VR, l’abbiamo visto, rimane), quanto su quello della complessità. Le canzoni si stanno facendo più semplici, le scelte compositive più standardizzate, il tutto mentre gli ascolti tendono a chiudersi in percorsi sempre più personalizzati. Poiché Sanremo è da sempre una cartina al tornasole affidabile delle tendenze musicali in atto, è probabile che anche quest’anno avremo prova di come un mercato condizionato e un contesto di ascolto frammentato finiscano per incidere sulle dinamiche compositive. Ma non è scontato. Perché se è vero che le canzoni si stanno standardizzando e semplificando, è anche vero, come abbiamo visto, che il nostro cervello di fronte a un brano nuovo vuole essere almeno in parte sfidato. Del resto, negli anni Sanremo ha dimostrato di saper regalare anche sorprese inattese e, cosa non banale, di saper riunire su uno stesso palco artisti e generi che intercettano uditori anche lontani tra loro. Per questo non mi stupirei più di tanto se di qui a qualche settimana ti ritroverai a canticchiare un ritornello che hai giurato a tutti di detestare. L’abbiamo detto: un tormentone non ci conquista perché è bello, ma perché il nostro sistema predittivo, ancora una volta, ha trovato un modo semplice e poco dispendioso per sentirsi meno incerto. Non è necessariamente un male. Potrebbe essere l’occasione per uscire, anche solo per un po’, dalla bolla degli ascolti su misura. L'articolo L’eterno ritornello proviene da Il Tascabile.
Scienze
musica
neuroscienze
Sanremo
L’arte della noia
N el 2014, all’Università della Virginia, un gruppo di psicologi guidato da Timothy Wilson chiese a oltre quattrocento studenti di passare tra i sei e i quindici minuti seduti in una stanza vuota, senza stimoli esterni, solo con i propri pensieri. In una delle varianti dell’esperimento, i partecipanti avevano a disposizione un pulsante che produceva una fastidiosa scossa elettrica alla caviglia. Prima di iniziare, la maggior parte si dichiarò disponibile a pagare pur di evitarla. Ma una volta soli, il 67% degli uomini e il 25% delle donne premette il pulsante almeno una volta. Alcuni più volte. Uno arrivò a farlo centonovanta volte in meno di un quarto d’ora. Dopo la pubblicazione su Science, la scena fu letta e raccontata dai media come un sintomo sociale: l’incapacità a stare da soli, la fuga da sé stessi, la società talmente assuefatta agli stimoli da preferire il dolore all’ozio mentale. L’esperimento, però, isolava una condizione che nelle vite quotidiane si presenta di rado, e con sempre meno agio: il pensiero lasciato libero, sciolto da obiettivi, senza una direzione impostata dall’esterno. Quei minuti sospesi mettevano alla prova il modo in cui la mente reagisce alla mancanza di un compito preciso, all’assenza di punti di riferimento esterni, e la scossa si presentava quindi come l’unica soluzione per spezzare l’attesa e per ristabilire una minima forma di libero arbitrio. > James Danckert e John Eastwood descrivono la noia come la spiacevole > condizione in cui desideriamo essere impegnati in qualcosa di significativo, > ma non riusciamo a trovare nulla che ci coinvolga. I quattrocento volontari avevano sperimentato quella che comunemente chiamiamo noia, un’esperienza che si manifesta quando l’attenzione cerca un appiglio di valore e non lo trova. Un disallineamento tra il desiderio di sentirci coinvolti e l’incapacità di trovare qualcosa che ci catturi davvero. Una noia, tante noie Per lungo tempo, in psicologia, la noia è rimasta un oggetto difficile da definire in modo condiviso. È un’esperienza comune ma sfuggente: varia per intensità, durata, contesto, e si sovrappone ad altri stati come apatia, frustrazione o disinteresse. Proprio per questo, la letteratura ha prodotto spiegazioni parziali e talvolta divergenti. Tra le definizioni oggi più accreditate e utilizzate, c’è quella proposta dal neuroscienziato James Danckert e dallo psicologo John Eastwood, che descrivono la noia come uno stato spiacevole in cui desideriamo essere impegnati in qualcosa di significativo, ma non riusciamo a trovare nulla che ci coinvolga. La mente resta attiva, ma nulla nel mondo intorno riesce a catturare il nostro interesse. Uno tra i primi psicologi a studiare sistematicamente la noia è stato Joseph E. Barmack, negli anni Trenta. Interessato all’alienazione degli operai di fabbrica, chiese agli studenti della Columbia University di simularne le condizioni, per esempio, cancellando per lunghi periodi di tempo lettere specifiche da testi, o semplicemente fissando schermi vuoti. Una o due ore dopo si manifestavano i primi segnali di irrequietezza, seguiti da un forte calo del rendimento. La soluzione proposta da Barmack consisteva in somministrazioni di caffeina, efedrina e benzedrina (un’anfetamina), che facevano calare i livelli di noia. Proprio come la scossa elettrica dell’esperimento di Wilson, gli stimolanti tenevano a bada gli effetti mentali della monotonia, anche se solo temporaneamente. A interessare Barmack era la noia situazionale, caratterizzata da episodi legati al contesto, come una riunione di lavoro interminabile o un compito particolarmente ripetitivo: una sensazione temporanea che si risolve cambiando attività e differente dalla noia cronica, che invece è una predisposizione personale che prescinde dalle circostanze esterne. > Negli ultimi anni la noia è stata interpretata come un meccanismo adattivo, > che svolge un ruolo preciso nella regolazione del comportamento, e cioè > monitorare ciò che facciamo e avvisarci quando l’attività in corso ha perso > valore o significato. Oggi, grazie al lavoro degli psicologi tedeschi Thomas Goetz e Reinhard Pekrun, specializzati nello studio delle emozioni in contesto scolastico, sappiamo che la noia situazionale può assumere forme diverse. Attraverso rilevazioni in tempo reale, condotte in ambito universitario, i due ricercatori ne hanno distinte quattro configurazioni principali, ma al di là delle differenze fenomenologiche, il denominatore comune rimane lo stesso: un divario tra l’aspettativa cognitiva e gli stimoli esterni, percepiti come inadeguati. Negli ultimi anni, filosofi come Andreas Elpidorou (The Anatomy of Boredom, 2025) e scienziati tra cui lo stesso Danckert (Out of My Skull, 2018) hanno proposto di leggere la noia come un meccanismo adattivo, che svolge un ruolo preciso nella regolazione del comportamento. In questa prospettiva, la noia monitora ciò che facciamo e ci avvisa quando l’attività in corso ha perso valore o significato, spingendoci a riorientare la nostra attenzione e le nostre scelte. Il suo carattere spiacevole svolge un ruolo chiave e agisce come un meccanismo di allerta: come la fame ci spinge a cercare cibo o la stanchezza a riposare, la noia ci chiede di interrompere routine inefficaci per esplorare novità e ridefinire obiettivi. Guardando alla noia in prospettiva evolutiva, la si può interpretare come un meccanismo che ci segnala quando un comportamento ha perso la sua utilità adattiva. Laddove, per i nostri antenati, la ripetizione sterile poteva rivelarsi costosa, un impulso che li spingesse a esplorare e a cambiare direzione avrebbe rappresentato un vantaggio per la sopravvivenza. Una ricerca pubblicata su Nature nel 2025 suggerisce che la noia funzioni come un segnale di allontanamento da uno stato cognitivo ottimale. Quando la mente si accorge che le risorse cognitive non vengono utilizzate al meglio ‒ o vengono impiegate male ‒ la noia emerge per spingerci a riorientare l’interesse e dare nuovo senso a ciò che facciamo. Senza questa spinta regolativa, rischieremmo di restare bloccati in situazioni che non ci soddisfano, senza riuscire ad adattarci ai cambiamenti. Intrattenimento e saturazione Ma per accogliere questo segnale e riorientarci serve tempo, quello stesso tempo che oggi sembra essere scomparso. Nel giro di pochi decenni, l’ambiente cognitivo in cui questa esperienza si manifesta è cambiato profondamente. Le tecnologie digitali hanno accorciato drasticamente i tempi dell’attenzione. Le code, i viaggi, le pause sono riempite da flussi continui di microstimolazioni: notifiche, aggiornamenti, scorrimenti rapidi. La concentrazione, sollecitata da stimoli frammentari e incessanti, fatica a trovare un ritmo interno e la noia cambia forma: si accorcia, si manifesta più frequentemente e diventa più difficile da abitare. La psicologa Gloria Mark studia da anni il legame tra concentrazione e digitale. Nel suo libro Attention Span (2023) documenta come il tempo medio dedicato a una singola attività si sia accorciato progressivamente, e sia passato in pochi anni da oltre due minuti a una manciata di secondi. Dopo ogni interruzione, però, servono decine di minuti per recuperare la concentrazione. Ricostruire il filo del pensiero, reintegrare le informazioni e ritrovare lo stato di immersione richiede tempo. Ne consegue che l’attenzione viene continuamente spostata da un punto all’altro, senza potersi consolidare, e la noia si manifesta in queste micropause, ma scompare prima di potersi sviluppare o trasformare in qualcos’altro. > Oggi, sollecitata com’è da stimoli frammentari e incessanti, la nostra > attenzione fatica a trovare un ritmo interno e la noia cambia forma: si > accorcia, si manifesta più frequentemente e diventa più difficile da abitare. Uno studio del 2024, pubblicato su Nature Communications Psychology, mostra come i media digitali, con i loro contenuti brevi, personalizzati e ad alta rotazione, invece di ridurre la noia, contribuiscono ad accentuarla, innalzando la soglia di ciò che viene percepito come coinvolgente. Quando guardiamo qualcosa che segue un ritmo diverso, magari semplicemente più lento o meno dinamico, lo percepiamo subito come faticoso. Quindi passiamo da un contenuto all’altro per alleggerire stati di sovraccarico, inquietudine e lieve frustrazione. Questa strategia funziona sul breve termine, poi le soglie percettive si alzano ancora, il bisogno di novità cresce, e la sensazione di insoddisfazione ricompare più forte. La noia contemporanea sembra quindi diventata un disagio diffuso, una latenza emotiva che viene assorbita prima di poter orientare il comportamento verso qualcosa di specifico. Quella legata agli ambienti digitali si confonde con la stimolazione stessa. Accompagna lo scrolling, spinge la ricerca compulsiva di contenuti e alimenta un’attesa che genera ulteriore insoddisfazione. Il gesto stesso del cercare produce il vuoto che vorrebbe colmare. Questa dinamica ha conseguenze concrete sul comportamento. Una rassegna sistematica pubblicata nel 2025, e intitolata Connected by Boredom, mostra come la predisposizione alla noia agisca da fattore di rischio per l’uso problematico di smartphone, social media e Internet. Il meccanismo assume una forma circolare. La noia ci orienta verso i dispositivi in cerca di sollievo immediato; le microgratificazioni digitali innalzano rapidamente la soglia di coinvolgimento; e quando la noia riaffiora, l’apertura dello schermo diventa una risposta automatica. Si struttura così un ciclo anticipatorio, in cui anche un accenno minimo di vuoto emotivo attiva l’uso compulsivo del dispositivo. > Se fatichiamo ad abitare la noia forse è perché il modo in cui viene > riconosciuta e interpretata dipende sempre dal tempo in cui si manifesta e dal > modo in cui quel tempo viene organizzato. La ricerca identifica diversi mediatori in questo processo: la paura di perdersi qualcosa (FOMO), stati depressivi, bassa capacità di autoregolazione, metacognizioni disfunzionali. Recenti studi esplorano anche come la propensione alla noia, così come la noia cronica, si associ a un senso di scarsa agentività ‒ la percezione di poter influenzare attivamente ciò che ci accade ‒ e a frustrazione, con implicazioni per disturbi d’ansia e depressione. Che cosa chiamiamo noia Se fatichiamo ad abitare la noia forse è perché il modo in cui viene riconosciuta e interpretata dipende sempre dal tempo in cui si manifesta e dal modo in cui quel tempo viene organizzato. Nelle società antiche esistevano esperienze affini a ciò che oggi chiamiamo noia, ma il loro significato era ben riconosciuto e inscritto, per esempio, all’interno di cornici spirituali o simboliche. I Greci descrivevano la melanconia come una disposizione del temperamento legata agli equilibri del corpo e dell’animo, mentre la filosofia la associava alla riflessione e talvolta anche all’ingegno. Con il taedium vitae, Seneca individua nella noia una stanchezza dell’esistenza legata allo spreco del tempo. Il tedio monastico, l’acedia medievale, viene letto come una prova spirituale, una crisi del rapporto con il divino. Questa relazione muta profondamente con la modernità. A partire dal Settecento il tempo viene progressivamente misurato e trasformato in una variabile economica. Come mostra E.P. Thompson nel celebre Time, Work-Discipline, and Industrial Capitalism (1967), la diffusione dell’orologio e della misurazione standardizzata del tempo accompagna la trasformazione del lavoro e della vita quotidiana. Il tempo diventa così uno strumento di disciplina sociale, perché introduce un criterio esterno che sincronizza le attività e distingue i momenti produttivi da quelli improduttivi. Dentro questo nuovo regime temporale prende forma la noia moderna. Come ricostruisce Elizabeth S. Goodstein, il discorso moderno sulla noia emerge quando si indeboliscono le cornici di senso che in passato orientavano l’esperienza. Il tempo continua a scorrere in modo lineare e continuo, ma perde la capacità di offrire un significato condiviso agli intervalli, all’attesa, alla ripetizione. La noia si configura allora come una forma di coscienza riflessiva, il segnale di una frattura tra il fluire del tempo e la possibilità dell’esperienza di farsi significativa. Nel corso dell’Ottocento questa trasformazione diventa visibile anche nell’immaginario letterario. In Bleak House (1853) di Charles Dickens, l’aristocratica Lady Dedlock si dice “annoiata a morte” da un’esistenza fatta di rituali sociali e intrattenimenti insignificanti. È una noia che nasce dal privilegio e dall’eccesso di tempo, una forma di noia simile a quella che riemerge, un secolo più tardi, nel romanzo La noia di Alberto Moravia, dove Dino, ricco e senza urgenze materiali, sperimenta l’incapacità di attribuire valore e di sentirsi coinvolto dalla realtà che lo circonda. Con l’industrializzazione avanzata e poi con la cultura di massa, la noia viene progressivamente ricondotta a un problema individuale. All’inizio del Novecento la psicologia la collega a difficoltà attentive, cali motivazionali, riduzione della risposta emotiva. Questa lettura si consolida nel secondo Novecento: Erich Fromm individua nella noia una delle malattie del nostro tempo, legata tanto al lavoro ripetitivo quanto al tempo libero colonizzato dal consumo. Quando l’essere umano non trova stimoli autentici, la noia lo spinge verso forme perverse di coinvolgimento, come violenza, aggressività, dipendenze. > Studi sperimentali recenti, come quelli di Sandi Mann e Rebekah Cadman, > mostrano che attività monotone e temporalmente dilatate possono favorire la > generazione di idee nuove. Qualche anno più tardi la noia entra stabilmente nei laboratori e viene misurata come tratto con la cosiddetta boredom proneness (predisposizione alla noia), associata a impulsività, comportamenti a rischio e stati depressivi. Negli anni Duemila, alcuni studiosi iniziano a identificare con maggiore precisione le diverse forme della noia. Il classicista Peter Toohey distingue tra una noia semplice, legata alla mancanza contingente di stimoli e presente anche negli animali non umani, e una noia esistenziale, più duratura e pervasiva. Quest’ultima, che assume la forma di uno stato d’animo più che di un’emozione momentanea, viene concettualizzata e nominata soprattutto negli ultimi due secoli, quando filosofi, scrittori e critici sociali iniziano a descriverla come esperienza di vuoto e alienazione. Studi sperimentali ancora più recenti, come quelli di Sandi Mann e Rebekah Cadman, mostrano che attività monotone e temporalmente dilatate possono favorire la generazione di idee nuove. Abitare la noia Uscita dal binario del disturbo, la noia può entrare tra le competenze emotive e cognitive da coltivare. Si tratta di imparare a riconoscerla e ad abitarla senza reagire in automatico. In ambienti educativi e clinici si sperimenta da tempo la possibilità di trasformarla in uno strumento. Il programma Boredom Intervention Training (BIT), sviluppato nel 2021, ad esempio, alterna momenti di psicoeducazione a esercizi di esposizione, aiutando i partecipanti a riconoscere gli stimoli che scatenano la noia e a tollerare l’inattività senza evitarla. I risultati mostrano un aumento della consapevolezza e una riduzione della fuga immediata da contesti poveri di stimoli. Anche fuori dagli spazi terapeutici, alcune pratiche semplici mostrano effetti interessanti: camminare senza meta (e senza telefono) aumenta la fluidità del pensiero creativo, facilitando la generazione di idee; restare per alcuni minuti senza stimoli esterni aiuta a riconfigurare i problemi; lasciare vagare la mente durante una pausa può aiutare a migliorare un testo già scritto, soprattutto quando si riprende lo stesso tema dopo l’interruzione. La possibilità di individuare e abitare la noia riguarda anche le scelte collettive. Alcune scuole, centri culturali e luoghi di formazione iniziano a fare spazio a questo approccio. Esperienze strutturate di “educazione al vuoto”, letture lente, silenzio condiviso, laboratori di inattività vengono proposti come strumenti per sviluppare autonomia, concentrazione, immaginazione. > Scuole e luoghi di formazione stanno iniziando a integrare la noia nei loro > approcci. Esperienze strutturate di “educazione al vuoto”, letture lente, > silenzio condiviso, laboratori di inattività vengono proposti come strumenti > per sviluppare autonomia, concentrazione, immaginazione. Restare nella noia apre uno spazio in cui le priorità si spostano, le domande si riformulano e il ritmo interiore si modifica. Chi riesce a sostare in quella soglia senza cercare una soluzione immediata guadagna spesso un punto di vista diverso. Nel celebre esperimento di Timothy Wilson, molti partecipanti hanno scelto una scossa elettrica per interrompere pochi minuti di silenzio mentale. Quel dato mostra quanto risulti difficile restare in un tempo privo di stimoli e di compiti. Eppure, proprio in quel tempo la mente può interrompere gli automatismi, generare un cambiamento, orientarsi verso qualcosa di più utile o più adatto. Premere il pulsante spezza l’attesa, ma chiude ogni possibilità. L'articolo L’arte della noia proviene da Il Tascabile.
Scienze
psicologia
comportamento
Il parassita a forma di smartphone
Q uando osserviamo qualcosa immaginiamo qualcosa. Lo dice la psicologia cognitiva: nell’elaborare mentalmente quello che vediamo, ne allarghiamo i confini. Se guardiamo la fotografia di una finestra in un palazzo, nella nostra mente estendiamo l’inquadratura. Ogni atto di visione suscita una risposta emotiva che produce immaginazione. Se al mattino vediamo le foto che i nostri amici hanno pubblicato la sera prima, ricostruiamo mentalmente i contorni di quell’evento. Se eravamo presenti sarà un ricordo, altrimenti la nostra immaginazione suggerirà i contorni di una festa che ci siamo persi. Ricordo quando, durante un seminario di disconnessione digitale, nel corso di storia dei media del 2023 all’università di Torino, un ragazzo raccontò di svegliarsi ogni mattina con la sensazione di essersi perso qualcosa, di inseguire la festa degli altri. Questo suggerisce che quando guardiamo delle fotografie non è solo il nostro apparato visivo ad attivarsi, ma anche un sistema di proiezione del contesto sociale che trasforma quell’immagine, in qualcos’altro: per esempio una fonte di nostalgia per una possibilità non realizzata. I confini dell’immaginario Nel racconto Pics di Tony Tulathimutte (incluso nella raccolta Rifiuto, 2025) Alison guarda le foto della fidanzata dell’amico, con cui vorrebbe stare, e sente il bisogno di competere, comunicando un’immagine di sé che risulti affascinante. Vorrebbe usare Instagram per creare un’aura da elusiva intellettuale, ma con una spontaneità che faccia sembrare la rivale, al confronto, una cacciatrice di attenzioni. Purtroppo per Alison ogni soluzione le sembra banale, nessun angolo sembra valorizzarla, e resta imprigionata nel paradosso dell’autenticità costruita ‒ realizzare una foto che nasconda la finalità implicita in ogni immagine postata: indirizzare lo sguardo degli altri, fare sì che ci vedano come vogliamo essere visti. Come vedremo, questa spinta a costruire un’immagine di sé giocando con l’immaginazione altrui contribuisce a restringere le possibilità dell’immaginazione e dell’azione, spingendoci verso una “simbiosi” talvolta parassitaria con i nostri dispositivi. Secondo la sociologa Eva Illouz la modernità è caratterizzata dall’onnipresenza del sogno a occhi aperti, che ha come oggetto essenziale la costruzione di un’immagine: un “sé sognato”. Nella serie TV Too Much scritta e diretta da Lena Dunham, Jessica ha registrato 537 video di dialogo immaginario con la fidanzata del suo ex. Un flusso che la tiene bloccata in una realtà parallela, l’unica dove esprime quello che prova. Quando per errore pubblica i video, si meraviglia di come la soglia tra pubblico e privato sia sorvegliata da un solo tasto. Nell’introduzione al romanzo Queer, nel 1985, William Burroughs scriveva che “la disintegrazione dell’immagine di sé produce spesso un’indiscriminata fame di immagini”, riferendosi all’indifferenza per la propria immagine provocata dalla dipendenza da eroina. > La spinta a costruire un’immagine di sé giocando con l’immaginazione altrui > contribuisce a restringere le possibilità dell’immaginazione e dell’azione, > spingendoci verso una “simbiosi” talvolta parassitaria con i nostri > dispositivi. A giudicare dalle stime, nel 2025 l’umanità ha scattato più di 2 trilioni di fotografie, la quasi totalità con uno smartphone; questa iperattenzione all’immagine di sé e questa iperesposizione alle immagini sono associate a maggiori livelli di stress, specie quando i feed amplificano contenuti emotivamente coinvolgenti o competitivi. Negli anni, diversi studi hanno dimostrato che la sola presenza dello smartphone sia sufficiente a consumare risorse cognitive (fenomeno noto come brain drain), inoltre, per quanto gli smartphone possano essere utilizzati per alleggerire il carico cognitivo di alcuni compiti, un utilizzo indiscriminato può comportare serie ripercussioni su memoria e attenzione. Abbiamo detto che, quando guardiamo delle fotografie, ne allarghiamo con l’immaginazione i confini, così come allarghiamo con le dita il dettaglio di un’immagine. Se l’immaginario è il luogo dove abitano gli oggetti dell’immaginazione ‒ siano essi ricordi, fantasticherie, sogni a occhi aperti e chiusi, credenze religiose o opere d’arte – allora è lecito chiedersi se ci sia abbastanza spazio per le fantasticherie provocate dalle immagini che abbiamo sul telefono. Nostalgia immaginaria Nel 1973 Susan Sontag scriveva: “la nostra è un’epoca nostalgica e i fotografi sono promotori attivi della nostalgia”. Nell’accelerazione del presente la nostalgia ha assunto le proporzioni di un mondo fantastico, in cui si può desiderare di abitare anche se non lo si è mai sperimentato in prima persona. Per avere un’idea di cosa intendiamo, torna utile un aneddoto musicale piuttosto recente. > A giudicare dalle stime, nel 2025 l’umanità ha scattato più di 2 trilioni di > fotografie, la quasi totalità con uno smartphone. Questa iperattenzione > all’immagine di sé è associata a un aumento significativo del livello di > stress. Nel 2004, i White Stripes stanno suonando a Blackpool, una città sulla costa del Lancashire nota per le storiche luci artificiali, che la illuminano fin dal 1879, ossia prima del brevetto della lampadina a bulbo di Thomas Edison. Poiché il concerto ha luogo nei rari giorni in cui le luci sono spente, Jack White commenta: “Sono nel posto giusto, al momento sbagliato? È così che mi sento tutti i giorni”; poi attacca Jolene, la famosa canzone di Dolly Parton del 1973. Sentirsi nel posto giusto al momento sbagliato è un tipo di nostalgia particolare, perché non investe il vissuto, ma l’immaginato: la possiamo chiamare nostalgia storica. Secondo lo Human Flourishing Lab (HFL) la nostalgia storica è una risorsa per costruire l’immagine di sé, grazie a esplorazioni culturali di un passato mai vissuto. Ci si costruisce un’identità con citazioni e gadget di epoche superate. Il fidanzato di Jessica, la protagonista di Too Much, un aspirante musicista, usa un walkman e prepara compilation di CD, come negli anni Novanta: una playlist non algoritmica. Secondo la ricerca di HFL se il fenomeno del viaggio nel tempo culturale è comune a più generazioni, per la generazione Z ha particolare rilevanza il tema della disconnessione. La nostalgia storica viene usata per dare forma a un futuro con meno ansia, con relazioni significative e un senso di sé più stabile. In Italia, secondo l’ultimo rapporto Coop circa il 69% degli intervistati afferma che in passato si vivesse meglio, e il 53% degli appartenenti alla generazione Z è convinto che i propri genitori abitassero una realtà più confortevole. Ma come fa notare l’autore e scienziato Ian Bogost, una cosa che le nuove generazioni non sanno è che quella senza smartphone era una vita piena di tempi morti e attività noiose, e chi l’ha sperimentata tende a non averne particolare nostalgia. > Viene definita nostalgia vicaria, o storica, la tendenza a rimpiangere un > passato che non abbiamo mai vissuto. Alcuni studi ipotizzano sia una risorsa > che il nostro cervello utilizza per costruire l’immagine di sé. Secondo Clay Routledge, la psicologa sociale che dirige lo Human Flourishing Lab, non c’è motivo per credere che le nuove generazioni abbandonino o attenuino l’entusiasmo con cui accolgono le nuove tecnologie; ma in ogni processo di adozione ci sono reazioni e revisioni, e l’interesse che la generazione Z manifesta per esperienze di fruizione culturale analogica, come ascoltare un vinile senza venire interrotti dai consigli per il brano successivo, indica il desiderio di un futuro diverso. A proposito di White Stripes: è cosa nota che Jack White creda che i limiti nutrano la creatività. I White Stripes facevano concerti senza scaletta, usavano solo tre colori per gli abiti di scena, e le chitarre erano strumenti da banco dei pegni, scelti appositamente perché sollecitassero un ulteriore impegno. Non era un rifiuto della tecnologia, ma il tentativo di non adagiarsi nelle sue scorciatoie. White ha resistito senza uno smartphone fino ai cinquant’anni, impresa che oggi non riesce quasi a nessuno. Eppure come notava nel suo Contro lo smartphone (2023) l’informatico Juan Carlos De Martin, non dovremmo dare per scontato che lo smartphone debba essere come quelli che maneggiamo adesso, controllati da due soli sistemi operativi, con applicazioni che hanno lo scopo di aumentare il tempo sul dispositivo. Un’indagine del Washington Post ha scoperto che bastano 35 minuti di esposizione al formato video di TikTok per creare un’abitudine al consumo; inoltre, dopo una settimana d’uso il tempo trascorso sulla piattaforma tende a aumentare del 40%. “Non si tratta di dare la colpa alla tecnologia, ma di non rassegnarsi a una tecnologia che erode lo spazio di convivenza sociale e democratica”, mi ha detto De Martin, quando gli ho chiesto se negli ultimi anni ha visto cambiare l’atteggiamento delle nuove generazioni verso lo smartphone: “ho visto crescere un senso di autodifesa”. > Il punto non è mettere alla berlina la tecnologia in sé e per sé, ma piuttosto > non rassegnarsi a una tecnologia che erode lo spazio di convivenza sociale e > democratica. A questo proposito è interessante il caso dello  scrittore Franklin Schneider, che fa parte del 2% degli statunitensi sotto i cinquant’anni che non hanno e non hanno mai avuto uno smartphone: negli ultimi due anni si è accorto che la considerazione intorno a lui è cambiata, passando dallo sguardo di imbarazzata commiserazione per chi è rimasto indietro all’ammirazione per chi è un passo avanti. Mente estesa, simbiosi e parassiti “Tutti gli oggetti materiali fatti dall’uomo possono essere trattati come estensioni di ciò che l’uomo una volta faceva con il proprio corpo o con una parte specializzata del proprio corpo”, scriveva nel 1959 l’antropologo Edward Hall. Lo citava Marshall McLuhan all’inizio di La galassia Gutenberg (1962), in cui il sociologo canadese discute di come l’alfabeto fonetico e la stampa abbiamo contribuito a plasmare la società che abitiamo. Nella teoria dei filosofi Andy Clark e David Chalmers lo smartphone è un’estensione della nostra mente. Il telefono connesso a Internet e le applicazioni che usiamo sono uno strumento cognitivo, come le dita delle mani del bambino che impara a contare e la lista della spesa che aiuta a non dimenticare. Una recente obiezione a questa teoria è che gli smartphone non siano un’estensione cognitiva, perché incorporano interessi potenzialmente divergenti da chi li usa: gli smartphone sono progettati per manipolare gli utenti, quindi la relazione persona-smartphone somiglia piuttosto a una relazione simbiotica. Nel loro recente paper “Smartphones: Parts of Our Minds? Or Parasites?”, la filosofa Rachael L. Brown e l’evoluzionista Robert C. Brooks ricordano che lo spettro delle relazioni simbiotiche in biologia va dal mutualismo al parassitismo: si passa dalla cooperazione con beneficio reciproco, a interazioni che, per asimmetria di vantaggi, indeboliscono l’ospite; sottolineano inoltre che si tratta di relazioni con uno scambio dinamico, fortemente caratterizzato dal contesto. L’analogia con lo spettro delle relazioni simbiotiche permette di evidenziare sia gli aspetti positivi dell’uso dello smartphone (orientamento, relazionalità, conoscenza), sia quelli negativi, dove cioè la volontà dell’agente soccombe a un’abitudine d’uso nociva. > Secondo Clark e Chalmers lo smartphone è un’estensione della nostra mente. Ma > c’è chi non è d’accordo: poiché gli smartphone sono progettati per manipolare > gli utenti, ci avviciniamo piuttosto a una relazione simbiotica di tipo > parassitario. C’è chi sostiene che gli economisti potrebbero cominciare a considerare lo scrolling infinito di video, il cosiddetto brainrot, come un furto, dato che la forza di volontà da sola non basta a contrastare macchine che creano un ambiente ostile alla concentrazione, oltre a essere ottimizzate per ottenere il massimo coinvolgimento dell’utente. Per quanto abbiamo imparato a bilanciare certe attività, come guidare e telefonare, per quanto rapidamente possiamo passare da una all’altra, avendo la sensazione di poterci dedicare a due cose simultaneamente, la nostra capacità di concentrazione è limitata: in realtà, riusciamo a dedicarci con impegno soltanto a una cosa per volta. Sempre di più l’attenzione viene considerata una risorsa fragile, oltre che scarsa; già nel 1997, in un pionieristico articolo, Michael Goldhaber aveva notato che quando ci concentriamo su qualcosa tendiamo a escludere il resto. Negli Stati Uniti il 69% della generazione Z sta provando a diminuire il tempo speso sullo schermo, che oggi, per i più giovani, si aggira attorno alle otto ore al giorno. Nei primi diciassette giorni del nuovo anno scolastico la biblioteca del liceo Pleasure Ridge Park High a Louisville, ha prestato 1.200 libri, in meno di venti giorni ha raggiunto la metà dei prestiti dell’intero anno precedente. A seguito di un divieto imposto dalla scuola, gli studenti, non potendo più usare i telefoni, prendono libri in prestito. Lo ha raccontato Jessica Grose, in un articolo in cui evidenzia come i livelli di comprensione del testo e i risultati di matematica, nel 2024, siano stati i più bassi degli ultimi trent’anni. > Per quanto possiamo avere la sensazione di poterci dedicare a due cose > simultaneamente, la nostra capacità di concentrazione è limitata: riusciamo a > dedicarci con impegno soltanto a una cosa per volta. “Il divieto dello smartphone a scuola può aiutare a gestire uno strumento così potente”, mi spiega Simone Natale, docente di storia dei media all’Università di Torino: > crea uno spazio vuoto che può essere usato per riflettere su come usare il > mezzo. In fin dei conti non si tratta di non usare il telefono, ma di ridurre > e circoscrivere il tempo passato sullo schermo. Con lo smartphone abbiamo la > sensazione di poter controllare un’infinità di funzioni, una sensazione di > potenza che ci risarcisce delle molte cose su cui invece non riusciamo a > esercitare il controllo. Sottovalutiamo però quanto a nostra volta siamo > controllati dallo strumento. Restringimento dell’immaginario Quando ho chiesto ai ragazzi di famiglia della generazione Z se lo smartphone a loro avviso estenda i confini dell’immaginario, mi hanno risposto senza esitazione che, al contrario, li restringe. Immagino che volessero dire che lo smartphone comporti una diminuzione di scelta, di possibilità di azione, perché sei indirizzato a seguire il flusso delle immagini proposte, a rispondere, dialogare, costruire, nei limiti delle applicazioni che usi. Un’altra forma di nostalgia è quella per il futuro che non avremo. Brian Eno ha fatto spesso riferimento a questo tipo di nostalgia, di recente anche con il brano Cmon scritto con Fred Again. Come sarebbe un futuro in cui gli smartphone non fossero disegnati per creare dipendenza, isolarci dal mondo esterno, accumulare dati, appiattire l’offerta culturale, costruire monopoli finanziari, oltre ai servizi per cui li usiamo tutti i giorni. Brian Eno, come Jack White, non è un nemico della tecnologia, anzi, deve la sua carriera all’uso obliquo e inatteso di essa: “quando sono davanti a un dispositivo tecnologico non voglio sapere cosa può fare. Voglio sapere come posso usare quel dispositivo per fare qualcosa che il suo produttore non immaginava si potesse fare”. Non è una scelta comune. Gran parte del successo dell’offerta tecnologica si basa sulla vittoria della pigrizia contro l’iniziativa. L’opzione default, la modalità standard, la soluzione più veloce, la versione con meno passaggi, che riduce o annulla ogni frizione, vince. Insomma, vince, e viene adottato, ciò che scorre senza ostacoli, come sa chiunque lavori sull’esperienza d’uso, che sia un produttore di sintetizzatori o lo sviluppatore di un’interfaccia digitale. Per Brian Eno, Jack White e molti altri artisti usare la tecnologia in modo inatteso fa parte del lavoro. Invece i limiti dell’immaginario e l’accumulo della nostalgia riguardano tutti; come la costruzione, fotografia dopo fotografia, di un sé che vorremmo ammirato da tutti, o il dialogo fantastico, giorno dopo giorno, con le migliaia di doppi digitali che incontriamo sul telefono. A tutti tocca scegliere tra immersione e minimalismo digitale, tra scorciatoie e scelte personali. In Jolene di Dolly Parton chi canta chiede alla rivale di non andarsene con il suo uomo. È una canzone che suggerisce di non fare qualcosa solo perché lo si può fare, ma di pensarci sopra e scegliere. L'articolo Il parassita a forma di smartphone proviene da Il Tascabile.
social media
Scienze
tecnologia
immaginario
internet
L’evoluzione non ha una bussola
L a biologia evoluzionistica ha una storia strana. Per certi versi, la si potrebbe definire asimmetrica: dalla presentazione della teoria di Darwin e Wallace del 1858 (anche se, come i più appassionati sanno bene, il concetto di evoluzione non nasce certo lì), all’integrazione con la genetica mendeliana, la cosiddetta sintesi moderna intorno agli anni Trenta del Novecento, dagli sviluppi della genetica molecolare nel secondo dopoguerra, alle teorie sull’equilibrio punteggiato di Gould, alle recenti integrazioni con biologia dello sviluppo, epigenetica e le ultime scoperte in campo genetico (tra cui lo straordinario trasferimento genico orizzontale), l’impressione è che la materia sia nata come argomento da copertina, quasi pop, per diventare via via sempre più un tema di nicchia, adatto più che altro agli addetti ai lavori. È chiaro che il successo straordinario di L’origine delle specie di Darwin e il suo impatto sulla società sono praticamente impossibili da replicare ai giorni nostri, ma rimane il fatto che un tema che occupava le prime pagine dei giornali nella seconda metà del Diciannovesimo secolo sia, di fatto, quasi totalmente scomparso da quelli che sono i grandi temi del dibattito scientifico, sociale e culturale mainstream. Con un’unica eccezione: i continui attacchi e dibattiti sulla veridicità della teoria. Anche se alcuni di questi temi sanno un po’ di stantio per chi mastica bene la materia, è indubbio che un aspetto che ha sempre tenuto viva l’attenzione almeno di una parte del grande pubblico sulla biologia evoluzionistica sono state le continue critiche degli antievoluzionisti. La storia è ben nota: l’antievoluzionismo nasce nel Diciannovesimo secolo come reazione religiosa e culturale alle idee di Darwin, soprattutto in contesti cristiani conservatori. Poi, nel corso del Novecento, prende forma il creazionismo moderno, protagonista di scontri pubblici come il celebre processo Scopes del 1925 negli Stati Uniti. Col tempo, però, alcune posizioni si rivelano eccessivamente antiscientifiche per restare a galla e così, ironicamente, è lo stesso antievoluzionismo a evolversi: dagli anni Settanta si sviluppa il cosiddetto “disegno intelligente”, una versione aggiornata di questa dottrina, che continua a influenzare il dibattito pubblico, soprattutto sull’insegnamento dell’evoluzione delle scuole, ma non solo. Ma il dibattito, in certi casi, viene riacceso grazie anche ad alcuni studi scientifici tout-court, sfruttati ad arte. Ed è il caso di una recente ricerca. Uno studio condotto da un gruppo dell’Università di Haifa in collaborazione con ricercatori del Ghana ha infatti riacceso un dibattito antico quanto la biologia evolutiva: le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta di predisposizione interna a generare alcune mutazioni più di altre? La domanda non è banale, perché la casualità delle mutazioni è stata storicamente uno dei pilastri della sintesi moderna. Non solo: uno studio del genere potrebbe riportare in auge una sorta di finalismo nell’evoluzione, di lamarckiana memoria. E il povero Lamarck, grande biologo che fu tra i primi a dare dignità scientifica a tanti gruppi animali fino ai suoi tempi pressoché ignorati, meriterebbe di essere ricordato per ben altro. > Un nuovo studio ha riacceso un dibattito antico quanto la biologia evolutiva: > le mutazioni sono davvero eventi casuali? Oppure il genoma possiede una sorta > di predisposizione interna a generare alcune mutazioni più di altre? Lo studio in questione, concentrato su una mutazione del gene APOL1 (che conferisce resistenza a una forma di tripanosomiasi, meglio nota come malattia del sonno), mostra che la variazione non si distribuisce in modo uniforme in tutte le popolazioni umane: la mutazione, infatti, compare più frequentemente nelle popolazioni dell’Africa sub-sahariana, le stesse in cui la malattia è, o è stata, endemica. Gli autori propongono, con un linguaggio a tratti provocatorio, l’idea che le mutazioni possano seguire una sorta di “forza interna”, cioè un insieme di meccanismi intrinseci al genoma che, nel tempo, rendono più probabili alcune variazioni rispetto ad altre. L’elemento più interessante, e per certi versi destabilizzante, non è soltanto la correlazione tra mutazione e ambiente selettivo, ma il fatto che l’organizzazione del genoma stesso sembri creare canali preferenziali per l’innovazione genetica. Quando i ricercatori citano fenomeni come la “fusione genica”, intendono proprio questo: geni che interagiscono di frequente e che, trovandosi spesso fisicamente vicini all’interno della cromatina (il complesso formato da DNA e proteine che si trova nel nucleo delle cellule eucariotiche), hanno una probabilità maggiore di fondersi. Ne deriva, almeno sulla carta, una visione meno accidentale delle mutazioni, che non sarebbero soltanto il frutto di errori casuali durante la replicazione del DNA, ma anche il risultato di una struttura interna del genoma che orienta, in qualche misura, il tipo di variazioni che possono emergere. Nonostante la recente pubblicazione, lo studio sembra aver già sollevato l’interesse di più di un sostenitore del disegno intelligente. E non è un caso: è chiaro che una simile interpretazione può essere letta come una sfida alla sintesi moderna. Come accennato in precedenza quest’ultima, nella sua formulazione classica, si basa proprio sull’idea che la variazione genetica sia essenzialmente casuale, mentre la selezione naturale funge da filtro non casuale che amplifica le mutazioni vantaggiose. Ma quella che potrebbe apparire come un’arma in mano ai sostenitori del disegno intelligente, in realtà, non è di certo un’arma e forse nemmeno un proiettile. > Molti ricercatori lavorano già da tempo a un’estensione concettuale della > sintesi moderna che non nega la validità della selezione naturale, ma > riconosce che l’origine della variazione ereditaria non è riducibile solo a > mutazioni casuali. Da almeno quarant’anni i biologi evoluzionisti sviluppano teorie che rivelano come la realtà sia ben più complessa: lo sviluppo embrionale, l’epigenetica, la regolazione genica, la struttura cromosomica, la plasticità fenotipica, la costruzione di nicchia e la selezione multilivello sono tutti processi che introducono vincoli e direzioni che la Modern synthesis originaria non contemplava esplicitamente. Il che, da un certo punto di vista, non è di certo inaspettato: in fondo si parla di una teoria nata quasi cento anni fa e che dai tempi è stata integrata dall’apporto di centinaia di nuove scoperte. E infatti, da questo punto di vista, lo studio non rappresenta necessariamente una demolizione della sintesi moderna, quanto piuttosto l’ennesimo tassello che invita ad ampliarla. Del resto, molti ricercatori lavorano già da tempo in direzione di una Extended evolutionary synthesis, un’estensione concettuale che non nega la validità della selezione naturale, ma riconosce che l’origine della variazione ereditaria non è riducibile solo a mutazioni casuali. C’è un’intera costellazione di meccanismi regolativi che condizionano ciò che può variare e in che modo può farlo. La lettura proposta da alcuni critici, secondo cui scoperte di questo tipo aprirebbero le porte a un ritorno dell’ortogenesi, una teoria evolutiva oggi abbandonata secondo cui l’evoluzione seguirebbe una direzione predeterminata, guidata da una sorta di “forza” o impulso intrinseco alle specie, è però forzata. Non c’è nulla, nei dati disponibili, che implichi un orientamento finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, né tantomeno una qualche volontà interna dei genomi. Si può parlare, con più prudenza, di mutazioni non del tutto casuali nel senso statistico del termine: distribuzioni non uniformi, predisposizioni legate all’organizzazione cromatinica e alle pressioni ambientali. In altre parole, una complessità maggiore. Discorso ben diverso dalla teleologia, in cui gli eventi accadono in vista di un obiettivo prestabilito. Niente mutazioni che avvengono al fine di contrastare malattie endemiche, insomma. > Anche dai nuovi studi non emerge nulla che lasci pensare a un orientamento > finalistico dell’evoluzione, né una tendenza intrinseca verso la complessità, > né tantomeno una qualche volontà interna dei genomi. Nello specifico, lo studio è focalizzato su un caso molto particolare e non dimostra che le mutazioni in generale seguano schemi predittivi di questo tipo. Ci sono anche altre considerazioni da fare: la correlazione tra mutazione e ambiente non prova automaticamente che il genoma “scelga” di mutare in quella direzione. Chi studia i meccanismi di riparazione del DNA, per esempio, sa bene che certe regioni sono più esposte a rotture, altre più soggette a errori, altre ancora più accessibili o meno protette. In tutti questi casi ci si discosta dalla casualità “pura”, ma non per questo abbiamo mutazioni che operano con una direzione preferenziale. D’altro canto, è innegabile che il quadro si stia evolvendo verso una visione più complessa della variazione. A partire dagli anni Novanta, con l’emergere di concetti come il natural genetic engineering (termine coniato da James A. Shapiro per indicare i meccanismi attivi di ristrutturazione del materiale genico) o la facilitated variation, un’idea proposta da Marc Kirschner e John Gerhart per spiegare come gli organismi possano produrre nuove varianti evolutive in modo relativamente semplice ed efficiente grazie alla loro architettura biologica, l’idea di un genoma del tutto passivo ha perso credibilità. Gli organismi possiedono sistemi sofisticati per rispondere allo stress, limitare i danni, modificare pattern di espressione, attivare trasposoni o ricombinazioni non casuali. Questo non significa che tali sistemi abbiano un fine evolutivo consapevole, ma che l’evoluzione, nel corso di milioni di anni, ha selezionato organismi capaci di generare variazioni in modi più strutturati rispetto al semplice “errore”. Si parla sempre più spesso di evolvabilità, la capacità di un sistema biologico come un gene, un organismo o un’intera popolazione, di generare una variazione ereditabile su cui la selezione naturale può agire. L’evolvabilità stessa può essere selezionata: un organismo in grado di produrre variazioni utili (ad esempio grazie a una maggiore plasticità fenotipica) ha un vantaggio in ambienti particolarmente mutevoli. Vedendola sotto questa luce, la direzionalità dell’evoluzione non è un piano preordinato, ma l’effetto emergente di vincoli, strutture interne e pressioni selettive che rendono alcuni percorsi, molto semplicemente, più probabili di altri. Ragionando in questi termini, si potrebbe pensare alla direzionalità come a una proprietà statistica: non un tragitto obbligato, ma una certa tendenza a muoversi lungo percorsi più agevoli. L’organizzazione del genoma, i pattern di regolazione, la struttura delle reti metaboliche e di sviluppo, la storia evolutiva precedente (ciò che Stephen Jay Gould chiamava contingency) contribuiscono tutti a creare una direzionalità, ma tutto questo non implica un fine, né un progresso. Comporta invece che l’evoluzione non sia un cammino del tutto aperto, bensì un processo che si muove all’interno di un ventaglio di possibilità limitate. > Gli studi sulle mutazioni non casuali ci invitano a riconsiderare i meccanismi > interni del genoma: non dei banali replicatori che incappano in errori > casuali, bensì un sistema complesso che possiede vincoli, predisposizioni e > una storia che ha modellato la sua possibilità stessa di mutare. È ben difficile dire che la sintesi moderna sia morta o in declino. Al giorno d’oggi, invece, affermare che è incompleta è quasi un’ovvietà. Ha funzionato, e funziona tuttora, come un quadro teorico essenziale, ma il suo riduzionismo basato sulla genetica, che si rivelò cruciale nel periodo in cui fu elaborata, non è in grado di esaurire la complessità dei processi evolutivi emersi dalla genomica, dalla biologia dello sviluppo, dall’epigenetica e dalle scoperte biologiche più recenti. Siamo probabilmente in una fase di trasformazione, in cui la Modern synthesis sta diventando parte di una visione più ampia. Non si tratta di sostituirla completamente, ma di integrarla con nuovi concetti e nuove prove scientifiche. Il lavoro su APOL1 non annuncia il ritorno del lamarckismo né un nuovo “slancio vitale”, ma ricorda che l’evoluzione è un processo molto più ricco e dinamico rispetto allo schema che comprende una mutazione casuale unita alla selezione naturale. Ci invita a considerare i meccanismi interni del genoma non come dei banali replicatori che ogni tanto incappano in errori casuali, ma come un sistema complesso che possiede vincoli, predisposizioni e, soprattutto, una lunghissima storia antecedente, che ha modellato la sua possibilità stessa di mutare. Lo studio di Haifa, come ho già detto, non si rivela un’arma contro la sintesi moderna, ma forse nemmeno un proiettile. Anzi, è più probabile il contrario: potrebbe aggiungere un tassello in più in un’architettura sempre più meravigliosamente complessa e che solo in questi decenni si sta rivelando ai nostri occhi. L'articolo L’evoluzione non ha una bussola proviene da Il Tascabile.
Scienze
biologia
genetica
evoluzione
Capitalismo dopaminergico
S e negli ultimi decenni, grazie agli studi postcoloniali, è stato reso noto l’impatto del capitalismo sugli ambienti umani e non umani di tutto il mondo, esiste una colonizzazione ancora più profonda e pervasiva operata dal sistema economico imperante: quella delle menti – non solo in senso ideologico, ma anche puramente neuronale; e, con questa, la colonizzazione del tempo futuro, oltre che dello spazio. Su questo nucleo si concentra l’analisi che Matteo Motterlini fa in Scongeliamo i cervelli non i ghiacciai. Perché la nostra mente è l’ostacolo più grande nella lotta al cambiamento climatico (2025): un saggio tanto agevole quanto dettagliato sui meccanismi cognitivi, prima ancora che socio-politici, che hanno innescato la crisi ecologica in atto. Il capitalismo da finanziario si è fatto limbico: ha imparato ad attivare e sfruttare i circuiti dopaminergici degli esseri umani, le reazioni istintive, i riflessi emotivi e le tendenze comportamentali controllate dalle strutture cerebrali che vanno sotto il nome di sistema limbico, appunto. È il sistema dell’anticipazione del piacere, emotivo e reattivo, in tensione con i circuiti del controllo cognitivo e della pianificazione, in cui la corteccia prefrontale ha un ruolo centrale. Questo equilibrio dinamico, ci spiega Motterlini, è stato programmaticamente alterato, e i disequilibri ecologici e geopolitici che sono ormai sotto gli occhi di tutti ne sono una conseguenza su larga scala. La promozione di beni e servizi che incoraggiano l’eccesso e la dipendenza, attraverso ricompense rapide ma a breve termine, è alla base di un’economia (digitale e non) in cui la sovrabbondanza si maschera da scarsità percepita, alterando così il modo in cui pensiamo e prendiamo decisioni. E il paradosso è che l’edonismo sfrenato alla base dei consumi in costante crescita sfocia in realtà in un’anedonia solipsistica e nichilista. Scongeliamo i cervelli affronta questi e tanti altri meccanismi, attraverso dati ed esperimenti sociocognitivi che illuminano la profondità del pozzo in cui ci troviamo, ma anche molte possibili strategie per venirne fuori. In occasione dell’uscita del libro abbiamo dialogato con l’autore, professore ordinario di filosofia della scienza presso l’Università Vita-Salute San Raffaele di Milano, dove dirige il Centro di ricerca in epistemologia sperimentale e applicata. Da un lato l’attenzione del saggio si rivolge ai meccanismi neuronali che distinguono gli esseri umani dagli altri esseri viventi: in particolare, la pianificazione a lungo termine e i comportamenti da questa derivanti vengono presentati come capacità caratteristiche della sola nostra specie, distinguendoli dai comportamenti animali che sarebbero anticipatori solo come riflesso dell’evoluzione. Dall’altro lato è molto efficace, nel libro, la definizione della crisi climatica come crisi di astinenza in un sistema economico drogato di crescita, che suggerirebbe un parallelo tra il sistema cognitivo umano e il sistema planetario: la mente umana sarebbe quindi il motore di dinamiche globali che a loro volta influiscono sui (dis)funzionamenti cognitivi dei singoli. QUALI SONO I VANTAGGI DELLO SCORPORARE I MECCANISMI COGNITIVI UMANI DA QUELLI PIÙ-CHE-UMANI? IN CHE MISURA È NECESSARIO DISTINGUERE I NOSTRI MODI DI PENSARE – QUELLI VIRTUOSI MA SOPRATTUTTO QUELLI FALLACI – PER COMPRENDERE UNA CRISI CHE È IN LARGA PARTE ORIGINATA PROPRIO DA UN’ERRONEA LETTURA DELLA CENTRALITÀ DELL’ESSERE UMANO SULLA TERRA? Gli animali anticipano il futuro solo perché l’evoluzione li ha “programmati” a farlo. Noi, invece, possiamo rappresentarcelo, simularlo, immaginarlo. Questa capacità – che nasce dall’evoluzione, certo – è però fragile, discontinua, facilmente sabotata da impulsi più antichi. È lì che si determina un cortocircuito: abbiamo un cervello capace di pianificare il lungo periodo, ma lo usiamo poco, male e spesso contro noi stessi. L’incapacità di reagire alla crisi climatica nasce da una combinazione di miopia temporale, present bias e ambienti decisionali che amplificano le nostre debolezze. Il capitalismo della crescita infinita funziona perché parla direttamente al nostro sistema limbico, non alla parte riflessiva della mente. È una gigantesca macchina dopaminergica che trasforma una vulnerabilità biologica in un modello economico. In questo senso, quando descrivo la crisi climatica come una crisi di astinenza, non è una metafora azzardata: è una diagnosi cognitiva. Stiamo chiedendo a un sistema dipendente dai consumi di smettere, senza cambiare il contesto che lo rende dipendente. MA NON È LA RIFLESSIONE UMANA ESSA STESSA UNA CONSEGUENZA DELL’EVOLUZIONE? COSA POTREMMO IMPARARE DAL RIPENSARLA IN QUANTO TALE? Capire come funziona la nostra mente serve a decentrare l’umano, non a celebrarlo. Ci mostra che non siamo osservatori esterni del sistema Terra, ma una sua parte biologica, con limiti precisi, bias prevedibili e una capacità di autoinganno sorprendente. Pensarci come “speciali” perché razionali è uno degli errori che ci ha portato fin qui. La riflessività umana è un prodotto dell’evoluzione. Ma è un prodotto incompiuto. Non è una conquista definitiva, è una possibilità che va allenata, sostenuta da istituzioni, norme, incentivi, architetture di scelta. Se la lasciamo sola, perde quasi sempre contro l’urgenza del presente. È per questo che nel libro insisto tanto su regole, vincoli, default, cooperazione: non come limitazioni della libertà, ma come protesi cognitive. Strumenti che compensano ciò che l’evoluzione non ha avuto il tempo di perfezionare. Se siamo arrivati fin qui cambiando l’ambiente naturale, possiamo anche cambiare l’ambiente decisionale per non autodistruggerci. Non dobbiamo diventare “più buoni” o “più saggi”. Dobbiamo diventare più realisti su come funzioniamo davvero. È da lì che può nascere una risposta alla crisi climatica. IN BASE AL MODELLO ECONOMICO DELLO SCONTO ESPONENZIALE, OGNI INTERVALLO DI TEMPO RIDUCE IL VALORE DI UNA RICOMPENSA IN MODO PROPORZIONALE E COSTANTE, SECONDO UNA CURVA DECRESCENTE, REGOLARE E CONTINUA. TENDEREMMO QUINDI A PREFERIRE GRATIFICAZIONI IMMEDIATE PIUTTOSTO CHE LAVORARE CON LUNGIMIRANZA SULLA RISOLUZIONE DI PROBLEMI CHE SAPPIAMO ANDARE PEGGIORANDO. EPPURE, ALMENO NEL MONDO OCCIDENTALE, SI RISCONTRA UN’INCAPACITÀ DIFFUSA A GODERE DEL PRESENTE STESSO, AD ESSERNE SODDISFATTI, AD ATTRIBUIRE UN VALORE NON MONETARIO AL QUI E ORA. COME VEDE QUESTA DISSONANZA TRA I MODELLI ECONOMICI E L’EFFETTIVO MODO DI STARE AL MONDO DI MOLTI DI NOI IN QUESTA PARTE DEL MONDO? Lo sconto intertemporale non dice che il presente ci rende felici, ma che tende a pesare troppo nelle nostre decisioni. Sovrastimiamo i costi immediati e sottostimiamo i benefici futuri. Questo però produce un paradosso: non sappiamo rinunciare a gratificazioni rapide, ma al contempo non traiamo soddisfazione duratura da ciò che facciamo. Questa distorsione nasce da un conflitto interno: tra un sé orientato all’immediato, sensibile alle perdite e all’urgenza, e un sé proiettato nel futuro ma psicologicamente e politicamente debole. È per questo che rimandiamo scelte che sappiamo necessarie, e allo stesso tempo viviamo in una condizione di affanno permanente. Lo stesso meccanismo opera sul piano collettivo e intergenerazionale. Trattiamo le generazioni future come se contassero meno, come se avessero un valore ridotto. È una forma di miopia temporale che rende possibile la procrastinazione climatica: sappiamo che i costi arriveranno, ma non ricadranno su di noi, almeno non subito. Un presente governato dall’urgenza della crescita, dalla logica della performance e dall’illusione dell’ottimizzazione continua finisce per erodere le condizioni stesse del benessere, oggi e domani. È un presente che divora il futuro senza riuscire a nutrire chi lo vive. MI PARE CHE IL DISCORSO POSSA ESSERE AMPLIATO ANCHE ALL’OTTIMISMO IMPOSTO DALL’ALTO INSIEME A UN’IDEA DISTORTA DI PROGRESSO, IN NETTO CONTRASTO CON PESSIMISMO E CATASTROFISMO SEMPRE PIÙ DIFFUSI NEL MONDO REALE. L’ottimismo imposto dall’alto si inserisce come una narrazione rassicurante che promette progresso senza costi, soluzioni senza rinunce, tecnologia senza limiti. Ma, paradossalmente, proprio per questo genera sfiducia. Quando il racconto ufficiale è in contrasto con l’esperienza quotidiana, produce dissonanza. E la dissonanza, se non viene riconosciuta, si trasforma in cinismo o in fatalismo. Il pessimismo che vediamo emergere non è un rifiuto del futuro in sé, ma la percezione che il patto intergenerazionale sia stato rotto. Che qualcuno stia incassando oggi lasciando ad altri il conto di domani. La risposta, come sostengo nel libro, non è scegliere tra ottimismo e pessimismo, ma ricostruire istituzioni, regole e norme sociali capaci di rendere il futuro rilevante nel presente. IN PARTE COLLEGATA ALLA DOMANDA PRECEDENTE C’È UNA CURIOSITÀ SUL DATO DA LEI RIPORTATO IN BASE AL QUALE NEGLI ULTIMI VENTI ANNI IL BENESSERE SOGGETTIVO DI TUTTE LE FASCE D’ETÀ È DIMINUITO IN NORD AMERICA. SEMBRA DUNQUE CHE SI STIA RISVEGLIANDO UNA CONSAPEVOLEZZA DEI TANTI E VARI PROBLEMI INTRINSECHI AL COSIDDETTO SVILUPPO CAPITALISTA E ALLO STESSO SOGNO AMERICANO. COME MAI, SECONDO LEI, NON SI RIESCE A INCANALARE QUESTA PERCEZIONE IN UN CAMBIO DI ROTTA CULTURALE E POLITICO? CHE TIPO DI STRATEGIE COGNITIVE DOVREBBERO ESSERE SOLLECITATE PER GENERARE UN CAMBIO DI QUESTO TIPO? Il calo del benessere percepito che osserviamo negli ultimi vent’anni, soprattutto in Nord America e tra i più giovani, è un segnale forte perché smentisce l’idea che più crescita, più consumo e più stimoli dopaminergici coincidano automaticamente con più “felicità”. L’epidemia di obesità, l’aumento delle dipendenze, l’abuso di psicofarmaci e oppioidi mostrano che quando un ambiente è progettato per stimolare continuamente il circuito della ricompensa, il risultato non è la soddisfazione, ma l’assuefazione. E l’assuefazione non produce felicità: produce bisogno e, nei casi peggiori, dipendenza. È così che possiamo avere società sempre più ricche e individui sempre meno felici. Nel libro spiego perché questa non è una contraddizione, ma un effetto diretto del modo in cui definiamo e misuriamo il progresso. Il PIL registra flussi di produzione e consumo, ma ignora ciò che viene eroso per ottenerli. Conta come crescita ciò che in realtà è consumo di capitale – sociale e naturale. Se inquiniamo, degradiamo ecosistemi o compromettiamo la salute pubblica, il PIL sale comunque. Questo modello di crescita assomiglia sempre più a un ciclo di dipendenza: ricerca continua del piacere, illusione di eccessi senza conseguenze, rimozione sistematica dei costi reali. Funziona finché funziona. Poi il sistema non regge più. La sostenibilità non riguarda un flusso annuale, ma uno stock: il patrimonio complessivo che lasciamo in eredità. Confondere questi due livelli significa prendere decisioni pubbliche con una bussola che punta nella direzione sbagliata. Per tutelare davvero il benessere dei futuri abitanti del pianeta servirebbe una contabilità della ricchezza inclusiva, che consideri il capitale naturale e sociale come parte integrante della ricchezza collettiva. La “L” in PIL sta per lordo, non per “al netto” della distruzione di suolo, aria e biodiversità. È uno strumento utile per il breve periodo, ma inadatto a guidare scelte di lungo termine. Un Paese che aumenta il PIL distruggendo il proprio capitale naturale non sta diventando più ricco: sta firmando una cambiale a carico di chi verrà dopo di noi. E rimandare non elimina il costo, lo accumula. Quando il futuro presenterà il conto, la vera domanda non sarà quanto ci costerà cambiare, ma quanto ci è costato non averlo fatto prima. TROVO MOLTO PRODUTTIVA LA SUA DISCUSSIONE DEL MECCANISMO DEL PREIMPEGNO, CHE PREVEDE UN’AUTOIMPOSIZIONE DI VINCOLI CHIARI E IRREVERSIBILI A CUI OGNI NUOVO CICLO POLITICO DOVRÀ TENERE FEDE. LEI SPIEGA BENE COME LA SCELTA DI PREIMPEGNARSI A RIDURRE PRODUZIONE, CONSUMI E CRESCITA ECONOMICA PER TUTELARE L’AMBIENTE – E DUNQUE LIMITARE ALCUNE SCELTE NEL PRESENTE – SIA CONDIZIONE NECESSARIA PER LA SOPRAVVIVENZA DELLA STESSA CAPACITÀ DI SCELTA IN FUTURO, DECOSTRUENDO COSÌ LA RETORICA LIBERISTA SECONDO  CUI LE LIBERTÀ INDIVIDUALI DOVREBBERO ESSERE INATTACCABILI. QUALE FORMA DI GOVERNO, A SUO PARERE, SAREBBE LA PIÙ EFFICACE AD ACCOGLIERE UN CERTO GRADO DI DIRIGISMO AMBIENTALISTA, CONSIDERANDO I PROBLEMI CHE LEI STESSO EVIDENZIA NELLE DEMOCRAZIE ODIERNE, ORMAI SUCCUBI DI OLIGARCHIE FINANZIARIE E DIGITALI? Nel libro insisto su un punto che spesso viene frainteso: il preimpegno non è una limitazione della libertà, ma la condizione stessa affinché si intervenga a favore del clima. Se continuiamo a interpretare la libertà solo come assenza di vincoli nel presente, finiamo per distruggere proprio lo spazio entro cui le scelte future potranno essere esercitate. Da qui discende una conseguenza politica scomoda ma inevitabile. La questione ambientale non può essere affrontata da una forma di governo che viva in uno stato di campagna elettorale permanente, con l’orizzonte temporale fissato alle prossime elezioni o ai prossimi sondaggi. Le democrazie contemporanee, così come funzionano oggi, soffrono di una miopia strutturale: tendono a sovrappesare il consenso immediato e a sottovalutare i costi differiti. Questo le rende particolarmente esposte alla pressione di interessi concentrati, ben organizzati e finanziariamente potenti. La risposta non è né l’autoritarismo verde né una sospensione della democrazia. L’idea che serva “meno democrazia” per salvare il pianeta è una falsa alternativa. Il problema non è la democrazia in sé, ma una democrazia priva di vincoli credibili contro il “breve-termismo”. La forma di governo più efficace è una democrazia capace di autovincolarsi. Una democrazia che accetta alcune scelte fondamentali, rendendole non negoziabili a ogni cambio di maggioranza. È una logica molto semplice: se sappiamo che cederemo alla tentazione, l’unica soluzione razionale è toglierci la possibilità di farlo. Questo significa fissare obiettivi ambientali chiari e duraturi, sottrarli alla contingenza politica e affidarli a regole e istituzioni progettate per durare nel tempo: standard ambientali stringenti, politiche industriali coerenti, meccanismi fiscali che rendano costoso tornare indietro. Non perché qualcuno “comandi dall’alto”, ma perché senza vincoli il sistema deraglia. Come detto, è una questione di giustizia intergenerazionale. Chi pagherà il prezzo più alto delle scelte attuali non ha voce nel processo politico di oggi. Il preimpegno serve anche a questo: a rappresentare interessi assenti, a dare peso politico a chi oggi non può difendersi. L’idea che le libertà individuali siano intoccabili anche quando distruggono le condizioni materiali della loro stessa esistenza è una fallacia. La libertà di inquinare che consuma il futuro non è libertà: è mettere il pianeta in liquidazione. UN PREGIO DEL SUO LIBRO RISIEDE NELLA PROPOSTA DI SOLUZIONI, ALCUNE DELLE QUALI A PORTATA DI OGNUNO DI NOI, ALTRE RELATIVE ALLA GESTIONE DELLA COSA PUBBLICA. IL SUO STESSO LAVORO AGISCE NELL’ALVEO DI QUELLA CHE LEI DEFINISCE UN’EDUCAZIONE CIVICA EPISTEMICA, PRODUCENDO INFORMAZIONE SCIENTIFICA AFFIDABILE E ACCESSIBILE, CHE POSSA FARE DA BASE A SISTEMI VIRTUOSI DI GESTIONE COLLETTIVA. MI PIACEREBBE QUINDI FINIRE CON UN ESPERIMENTO IMMAGINATIVO. SE LE VENISSE AFFIDATO DOMANI UN RUOLO DECISIONALE ALL’INTERNO DEL GOVERNO DI UN PAESE OCCIDENTALE – L’ITALIA, PERCHÉ NO? – QUALI SAREBBERO I PRIMI TRE CAMBIAMENTI SU CUI LAVOREREBBE NELL’IMMEDIATO, E IN CHE MODO QUESTI ANDREBBERO AD AGIRE SUL MEDIO-LUNGO PERIODO? Il primo intervento riguarderebbe la visibilità del problema. Una delle ragioni per cui la crisi climatica non ci muove è che resta astratta, lontana, statisticamente corretta ma emotivamente irrilevante. Renderei salienti gli impatti locali, presenti, quotidiani delle scelte ambientali. Dati chiari, comparabili, territorializzati. Non “il pianeta”, ma l’aria che respiriamo, l’acqua che beviamo, i costi sanitari che paghiamo. Nel medio periodo questo crea una base di realtà condivisa, riducendo lo spazio per la dissonanza cognitiva e il negazionismo. La seconda leva sarebbe quella delle scelte per default. Non chiederei alle persone di diventare improvvisamente più virtuose o più informate. Cambierei ciò che accade quando non si sceglie. Energia, mobilità, edilizia, rifiuti: rendere l’opzione sostenibile quella standard, lasciando sempre la possibilità di opt-out, ma rendendo il comportamento dannoso più costoso, meno comodo, meno invisibile. È una misura poco ideologica e molto efficace, perché lavora con, non contro, i limiti cognitivi. Nel medio-lungo periodo questo normalizza comportamenti che oggi appaiono “sacrifici”. La terza azione riguarderebbe la fiducia. Senza fiducia nelle istituzioni, nella scienza e nei processi decisionali, nessuna transizione regge. Investirei subito in quello che nel libro chiamo educazione civica epistemica: non per insegnare alle persone “cosa pensare”, ma come distinguere informazioni affidabili da narrazioni manipolatorie. Questo significa rafforzare l’indipendenza delle autorità scientifiche, proteggere gli spazi di competenza dagli attacchi politici e rendere trasparenti i conflitti di interesse. Nel lungo periodo, è l’unico antidoto strutturale alla disinformazione e al complottismo. Sono interventi poco spettacolari, lo ammetto. Non promettono miracoli né salvezze rapide. Ma hanno un vantaggio decisivo: non richiedono un’umanità migliore, solo istituzioni un po’ più intelligenti e a misura di cittadino. E se c’è una cosa che ho imparato studiando decisioni e comportamenti è che, quando i contesti cambiano con “cognizione di causa”, le persone spesso fanno la cosa giusta senza neppure accorgersene. In fondo, sarebbe già un enorme passo avanti. L'articolo Capitalismo dopaminergico proviene da Il Tascabile.
Scienze
cambiamento climatico
capitalismo
consumismo
meccanismi cognitivi
Ripensare i dinosauri, di nuovo
I l 2025 verrà ricordato, quantomeno da chi ha la passione per cinema e dinosauri, come un anno dorato. In un genere tradizionalmente parco di proposte sono usciti ben due film di alto profilo con protagonisti i rettili mesozoici. Il primo, Jurassic World – La rinascita, di Gareth Edwards, è il settimo capitolo di una saga ultratrentennale e il quarto uscito negli ultimi dieci anni. Costato intorno ai 200 milioni di dollari, ne ha incassati più di 800, a dimostrazione che il franchise è uno dei pochi ancora in piena salute a Hollywood, almeno tra quelli storici. A fronte di questo successo, passa in secondo piano il fatto che i dinosauri del film non siano ormai più veri dinosauri, ma ibridi con altre specie (anche tassonomicamente distanti), o addirittura creature transgeniche con caratteristiche fisiche anatomicamente impossibili e nomi altisonanti come Distortus rex (un Tyrannosaurus rex a sei zampe). Il secondo film di dinosauri dell’anno, Primitive War di Luke Sparke, di milioni ne è costati appena sette, e non è arrivato a incassarne due. Tratto da un romanzo scritto da un vero appassionato del tema (l’americano Ethan Pettus, che ha anche collaborato alla sceneggiatura del film), è popolato, questo sì, di veri dinosauri, strappati alla loro epoca da un macchinario – costruito dai russi con lo scopo originario di teletrasportare i propri soldati in posizioni vantaggiose – che ha aperto svariati varchi nello spazio-tempo. Da questi varchi, strategicamente situati nel mezzo della giungla vietnamita nel 1968, sono uscite intere popolazioni di Utahraptor, Deinonychus, ovviamente Tyrannosaurus rex, e anche di creature che dinosauri non sono ma che hanno la loro stessa età e tutto quello che serve per partecipare al carnaio, come Quetzalcoatlus. Nonostante abbiano in comune un aspetto fondamentale, quindi, cioè la presenza dei dinosauri, Jurassic World – La rinascita e Primitive War hanno avuto risultati molto diversi, prevedibili entrambi, e che rispondono alle più basilari leggi del mercato cinematografico. Strizzando un po’ gli occhi, però, si potrebbe vedere dietro questa sproporzione anche un aspetto simbolico, e un avvertimento ai filmmaker di tutto il mondo: più i tuoi dinosauri sono realistici, meno successo avranno. > Per molto tempo la possibilità che i dinosauri avessero le piume rimase > sostanzialmente inesplorata, anche perché andava contro quella che era > l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia > aperte da cinema e letteratura. Cercare realismo e correttezza scientifica in un film nel quale i russi cattivi squarciano lo spazio-tempo può sembrare un esercizio sciocco, almeno quanto aspettarsi che un B-movie australiano ambientato in Vietnam abbia una funzione pedagogica. Eppure la storia dell’audiovisivo insegna che molte rappresentazioni della natura comparse su grande o piccolo schermo hanno contribuito, giuste o sbagliate che fossero, a plasmare il nostro immaginario. Nel 1958, il presunto documentario Artico selvaggio (White Wilderness) di James Algar, si inventò l’idea che i lemming fossero animali con istinti suicidi di massa; si scoprì poi che i roditori erano stati gettati apposta da una scogliera dagli stessi autori del documentario, ma lo scandalo non fu sufficiente per sradicare del tutto la diceria (ancora nel 2014 uscivano studi sul legame tra consumo di alcool e percezione del rischio che parlavano di “Lemming-effect”). Gli effetti de Lo squalo (Jaws, 1975) di Steven Spielberg sulla nostra immagine degli squali si sentono ancora oggi. Vogliamo allargare il campo all’intero ambito culturale? In Italia, la paura del lupo è quasi atavica, e Cappuccetto Rosso ha contribuito in maniera decisiva a definirla. Ed ecco perché un film come Primitive War ha attirato l’attenzione dei paleontologi anche più che dei cinefili: i suoi dinosauri sono piumati, e un eventuale successo dell’opera avrebbe potuto spalancare le porte a una rivoluzione che è in pausa da trent’anni. La questione delle piume La questione delle piume dei dinosauri è in realtà ben più vecchia di trent’anni. Le prime ipotesi sul legame tra dinosauri e uccelli risalgono al 1861, con la scoperta e descrizione di Archaeopteryx lithographica, il primo dinosauro piumato, da parte di Christian Erich Hermann von Meyer, e poi al 1870, quando Thomas Henry Huxley avanzò formalmente l’idea in un paper dall’esplicito titolo “Further Evidence of the Affinity between the Dinosaurian Reptiles and Birds”. Fino al 1969, però, la questione rimase sostanzialmente inesplorata, anche perché era in netto contrasto con l’immagine dei dinosauri accettata dalla scienza e accolta poi a braccia aperte da cinema e letteratura: quella che li vedeva come grosse lucertole lente e un po’ tonte, oppure grosse e voraci (ma altrettanto lente). Una visione nata in parallelo alla stessa paleontologia, portata avanti a cavallo tra Ottocento e Novecento dai più grandi nomi della disciplina e proposta anche al pubblico in giornali, riviste, mostre ed esibizioni: le storiche sculture del Crystal Palace Park di Londra, create nel 1854 da Benjamin Waterhouse Hawkins, definirono l’immagine pubblica dei dinosauri per più di un secolo. > I dinosauri sono stati considerati delle grosse lucertole lente e un po’ > tonte, finché, cinquant’anni fa, alcuni studi hanno suggerito che fossero > animali agili, a sangue caldo ed evolutivamente imparentati agli uccelli. La rivoluzione scoppiò a cavallo tra gli anni Sessanta e Settanta del secolo scorso. Prima, nel 1969, John Ostrom descrisse Deinonychus antirrhopus come un “dinosauro carnivoro molto particolare” con “una serie di caratteristiche che indicano un animale molto attivo e agile”, in contrasto quindi con lo stereotipo della lucertola lenta. Poi, nel 1975, Robert Bakker aprì così il suo storico articolo “Dinosaur Renaissance”: > I dinosauri sono, per la maggior parte della gente, l’epitome dell’animale > estinto, il prototipo della bestia talmente poco adatta ai cambiamenti > ambientali che non può che morire, lasciando fossili ma nessun discendente. I > dinosauri hanno una pessima immagine pubblica, che li vede simboli di > obsolescenza e pachidermica inefficienza […] Le ricerche più recenti stanno > riscrivendo questo dossier […] Le prove dimostrano che i dinosauri non si sono > estinti del tutto. Un gruppo resiste ancora. Li chiamiamo uccelli. L’articolo di Bakker proseguiva suggerendo che i dinosauri fossero omeotermi (“a sangue caldo”), che avessero un metabolismo paragonabile a quello dei mammiferi, ma anche, per esempio, che Archaeopteryx avesse le piume non per facilitarlo nel volo ma per questioni di isolamento termico. Tutte idee rivoluzionarie, anche provocatorie, che aprirono innumerevoli filoni di ricerca e contribuirono a modificare, e pure con una certa rapidità, il modo in cui la paleontologia immaginava i dinosauri: il legame con gli uccelli era ormai innegabile, e i loro antenati diventarono all’improvviso creature attive, agili, forse anche intelligenti. > Niente ha contribuito a segnare per sempre il nostro immaginario quanto > l’uscita, nel 1993, di Jurassic Park: un laboratorio a cielo aperto, un grande > aggiornamento collettivo per mettere il pubblico in pari con la scienza. E come già accaduto nell’Ottocento, anche queste novità filtrarono rapidamente nel cosiddetto immaginario collettivo. Il cartone animato di Don Bluth Alla ricerca della Valle Incantata (The Land Before Time), uscito nel 1988, avrebbe avuto dinosauri molto diversi se fosse uscito solo dieci anni prima. Provate a confrontare la versione cinematografica di Il mondo perduto (The Lost World) di Conan Doyle del 1960, diretta da Irwin Allen, con quella del 1992, di Timothy Bond: la prima è dominata dal Brontosaurus e i pericoli per i protagonisti sono rappresentati da una tribù di cannibali; nella seconda, oltre all’immancabile T. rex, compare un Herrerasaurus ischigualastensis, un grosso ma agile carnivoro con zampe da corridore e denti seghettati da predatore attivo. E ovviamente niente contribuì a segnare per sempre la nostra fantasia quanto l’uscita, nel 1993, di Jurassic Park. Tratto da un romanzo che calcava ancora di più la mano sulla nuova immagine dei dinosauri come grossi polli feroci, il film di Steven Spielberg portò a milioni di persone tutto quello di cui la paleontologia discuteva con passione da vent’anni. Sulla locandina campeggiava lo scheletro di un T. rex, ma i veri protagonisti, gli alfieri della rivoluzione, erano i Velociraptor: Rapidi, intelligenti, coordinati, si muovevano e cacciavano in branchi, e assomigliavano più a grossi uccelli che a lucertole terribili. Certo, il vero Velociraptor era più piccolo e meno minaccioso, e quelli che si vedevano nel film erano in realtà Deinonychus che avevano subìto un cambio di nome semplicemente perché “Velociraptor” suonava più cool. Resta che un predatore del genere in un film di dinosauri non si era mai visto: Jurassic Park fu un laboratorio a cielo aperto, un grande aggiornamento collettivo per mettere il pubblico in pari con la scienza. E infatti conteneva anche errori, omissioni e interpretazioni che poi sono state smentite: pensate solo al Dilophosaurus e alla sua abitudine di sputare veleno. Ma era un’opera (anche) didattica, e non a caso il consulente scientifico del film era il paleontologo Jack Horner, quello che ha suggerito più volte “se l’avessimo fatto davvero realistico, il Jurassic Park sarebbe stato un enorme pollaio” e che usò i mezzi e il talento di Spielberg per rendere globale la rivoluzione lanciata da Bakker. Una rivoluzione a metà Salutato come un miracolo dal mondo della scienza, accompagnato da un rinnovato interesse generale per i dinosauri e da un boom di iscrizioni nelle facoltà di paleontologia, Jurassic Park si rivelò però essere più che altro un punto d’arrivo. L’enorme successo della saga, e i suoi costi sempre maggiori e insostenibili per la concorrenza, ne stabilirono di fatto il primato incontrastato: nessun altro aveva più il coraggio (e i soldi) per fare film sui dinosauri, e con il passare dei capitoli la spinta innovativa e didattica del franchise si andò affievolendo. Ancora una volta, nulla lo dimostra meglio delle piume. Appena tre anni dopo l’uscita del film, nella provincia cinese di Liaoning, il cacciatore di fossili semi-professionista Li Yumin scoprì il primo esemplare fossile di Sinosauropteryx, il primo dinosauro piumato non-aviale (Avialae è il nome del clade che comprende gli uccelli e i dinosauri più strettamente imparentati con loro). Era la prova definitiva che le piume, o strutture simili, erano diffuse tra i dinosauri, non limitate a pochi, selezionati gruppi; negli anni a venire, la ricchezza appena scoperta dei giacimenti fossiliferi cinesi fece il resto, e paleontologia (e paleoarte) dovettero aggiornare un’altra volta il proprio immaginario. > La frattura tra la scienza dei dinosauri e la loro immagine pubblica è una > questione commerciale: i dinosauri piumati rischiano di risultare buffi e non > spaventosi. Inoltre, ricostruire il comportamento e le abitudini di animali > estinti è complicato, spesso si tende a non speculare per non rischiare > figuracce. Andiamo quindi al 2015, quasi vent’anni dopo la rivoluzione di Sinosauropteryx. In occasione dell’uscita di Jurassic World, che rilanciò la saga dopo 14 anni di iato, in un’intervista ad Atlas Obscura Jack Horner si ritrovò quasi a giustificarsi per il fatto che i dinosauri del film non fossero ancora piumati. “Bisogna restare coerenti tra film e film. Non puoi avere dinosauri senza piume nel primo film, poi riproporli nel quarto con le piume […] Ne ho parlato con Steven e, be’, ha ragione lui: un dinosauro con le piume colorate non è spaventoso come quelli del film”. Ed ecco il vero punto del discorso: la frattura profonda tra la scienza dei dinosauri e la loro immagine pubblica è, tristemente, una questione commerciale. I dinosauri attivi e intelligenti sono “really cool” come dice Horner: ecco perché i Velociraptor di Jurassic Park hanno avuto successo. I dinosauri piumati invece no: sono buffi, sembrano polli giganti, non sono spaventosi. Poco importa che le loro piume avessero poco a che fare con quelle di oche e galline (nella maggior parte dei casi erano poco più che filamenti, presenti solo sulle zampe e sulla coda, con funzioni di isolamento termico e forse di display visivo ma non adatte al volo): le squame sembrano una condizione irrinunciabile per portare al cinema un dinosauro efficace. La vexata questio delle piume è peraltro solo un aspetto, per quanto il più in vista, della rivoluzione mancata. Ancora nel 2012, il paleontologo Darren Naish e i paleoartisti John Conway e C.M. Kosemen sostenevano che la maggior parte delle rappresentazioni dei dinosauri fossero obsolete e conservatrici. Il loro esempio più famoso è quello relativo alla pelle in eccesso: osservando, per esempio, il cranio fossile di una gallina, è impossibile immaginarsi cresta e bargigli, e lo stesso discorso è applicabile ai dinosauri, che secondo Naish, Conway e Kosemen potevano avere labbra, gengive o altre parti molli che ne cambiavano radicalmente l’aspetto. Ci sono poi le questioni etologiche: ricostruire il comportamento e le abitudini di animali estinti da milioni di anni è complicato ma non impossibile, ma spesso si tende a non speculare per non rischiare figuracce. L’opera di Naish, Conway e Kosemen invitava invece a rischiare e immaginare, e fu prima di tutto una provocazione, raccolta principalmente da quella nicchia che è la paleoarte. Nicchia in espansione, certo: l’abbattimento dei costi tecnologici, e la disponibilità sempre maggiore sia di software, sia di dati anatomici e scansioni 3D di fossili, ha moltiplicato gli artisti che si cimentano nel campo, e che lavorano con attenzione sopraffina al dettaglio scientifico e alla plausibilità, oltre che all’aspetto artistico. Ma pur sempre nicchia: al cinema, nei fumetti, nei videogiochi, nei libri, siamo ancora fermi ai dinosauri squamosi. Come si compone la frattura? Il “Secondo Rinascimento” dei Dinosauri, dopo quello, efficacissimo, degli anni Settanta, è quindi per ora una rivoluzione mancata, ma questo non significa che sia morta: si tratta solo di trovare la chiave giusta per fare la proverbiale breccia nella fantasia di chi frequenta i dinosauri solo di striscio, e di solito davanti a uno schermo. > Oggi sappiamo molte più cose sul comportamento dei dinosauri rispetto a trenta > anni fa, e molte di queste (socialità, comportamenti di branco, > organizzazione, gerarchie) sarebbero un ottimo gancio per presentare un’idea > di dinosauro nuova, ma non per questo meno affascinante o commercialmente > efficace. In un certo modo un po’ obliquo e fin troppo antropomorfizzante, va ammesso che i primi capitoli della saga di Jurassic World ci hanno provato, mostrandoci un gruppo di Velociraptor addestrati come fossero cani di razza, spingendo quindi sul tema – già sfiorato nella trilogia originale – dell’intelligenza dei dinosauri. Una pura fantasia di potenza, certo, ma il fatto che sia stata inserita nel franchise riflette il fatto che negli ultimi vent’anni si siano moltiplicati gli studi di paleoetologia, lo studio del comportamento degli animali estinti. Uno studio argentino del 2021 per esempio ha proposto che i sauropodomorfi (“quelli grossi con il collo lungo”, quindi i vari Brontosaurus, Diplodocus, Argentinosaurus…) vivessero in greggi organizzate, vere e proprie colonie formate da gruppi sociali divisi per età. Nello stesso anno, uno studio statunitense ha avanzato l’ipotesi che gli stessi sauropodomorfi intraprendessero lunghe migrazioni di gruppo, non dissimili da quelle di certi grandi erbivori moderni, e la scoperta della Dinosaur Highway dell’Oxfordshire ha confermato che i grossi carnivori (e loro predatori) li accompagnavano nei loro viaggi per ovvi motivi. Per tornare all’argomento più caldo, una ricerca cinese suggerisce che le piume di Microraptor, un piccolo dinosauro con quattro ali, fossero di un nero iridescente simile a quello dei moderni corvi, e venissero usate per l’esibizione sessuale. Insomma: sappiamo molte più cose sul comportamento dei dinosauri di quante ne sapessimo ai tempi dell’uscita di Jurassic Park, e molte di queste (socialità, comportamenti di branco, organizzazione, gerarchie) sarebbero un ottimo gancio per presentare in un film un’idea di dinosauro nuova, o per lo meno aggiornata, e non per questo meno affascinante o cool. Ci sono comunque segnali di risveglio, anche potenti. La divulgazione via social, per esempio, collabora da anni con la paleoarte, soprattutto quella “dal basso”, per fare tutto quello che la Jurassic saga non fa più. Due anni fa, accompagnate dall’inimitabile voce di Sir David Attenborough, molte delle scoperte più recenti a tema dinosauri hanno preso vita in Prehistoric Planet, un documentario ambientato poco prima della caduta dell’asteroide Chicxulub;  per la prima volta la serie mostrava  a un pubblico vastissimo un altro lato dei dinosauri, per ora noto solo alla scienza e agli appassionati: ad esempio uno scontro tra maschi di Dreadnoughtus (un gigantesco erbivoro che arrivava a pesare 50 tonnellate) per conquistare una femmina, una caccia di coppia di (veri) Velociraptor e diversi casi di cure parentali. La sensazione, però, è che la vera scintilla debba ancora scoccare; che manchi un Jurassic Park contemporaneo, che convinca milioni di persone ad aggiornare la propria visione dei dinosauri. La mia teoria (e non solo la mia) è che dobbiamo ripartire dalle piume: una volta accettate quelle, il resto verrà di conseguenza. L'articolo Ripensare i dinosauri, di nuovo proviene da Il Tascabile.
Scienze
cinema
dinosauri
preistoria