Tag - ecologia

L’invenzione degli animali domestici
U na folta coda a strisce spunta da un bidone della spazzatura semiaperto. Dopo un po’ di trambusto, al di sotto del coperchio, compaiono due occhietti circondati da una maschera di pelo nera e una coppia di zampe con piccolissime dita. I procioni (Procyon lotor) non temono gli umani, sono onnivori e sanno cogliere il meglio che un ambiente urbanizzato possa offrire loro, tra cui i nostri avanzi di cibo. Anzi, più un’area sarà abitata, maggiore sarà la possibilità di rovistare nei rifiuti e trovare una leccornia da gustare. Questa è una forma di commensalismo simile a quella dei lupi che, migliaia di anni fa, si avvicinarono agli insediamenti umani per frugare tra gli scarti di quelle comunità. Una vicinanza che è diventata cooperazione, selezione, relazione, fino a plasmare il cane. Secondo un gruppo di ricerca statunitense, i procioni potrebbero essere l’animale perfetto da osservare in tempo reale per capire come una specie possa andare incontro a modificazioni tali da renderla diversa dal proprio antenato selvatico. La domesticazione, spesso definita come il controllo delle condizioni di vita di una determinata specie al fine di ricavarne servizi e prodotti utili all’essere umano, è un fenomeno più complesso e sfumato di quello che per molti anni è stato descritto dalla comunità scientifica. A partire da circa 10.000 anni fa, quando ha iniziato a delinearsi il passaggio da un’esistenza nomadica a una sedentaria nella transizione neolitica, essa ha contribuito a mutare radicalmente la biosfera terrestre. La nostra conoscenza della sua storia e dei suoi meccanismi è ancora lacunosa e continuiamo a compulsarne le tracce per recuperare i tasselli mancanti che compongono il nostro passato e che potrebbero aiutarci a prevedere un possibile futuro. La domesticazione: percorsi e nicchie Dalla metà del Ventesimo secolo l’interesse verso la comprensione della domesticazione di piante e animali ha trovato risposte in narrazioni incentrate sul progresso tecnologico, sull’intenzionalità e sul dominio umano sul proprio ambiente, punti di vista saldamente ancorati a una visione antropocentrica caratterizzata da un forte dualismo tra natura e cultura. Sebbene questa visione sia in parte ancora radicata nella letteratura archeologica, negli ultimi quarant’anni il concetto di domesticazione si è sviluppato e ampliato, come mi ha raccontato Thomas Cucchi, direttore di ricerca del Laboratorio di bioarcheologia del Museo nazionale di Storia naturale di Parigi: “A partire dagli anni Ottanta, gli antropologi hanno posto in rilievo prospettive che vanno oltre le ontologie occidentali, fornendo esempi etnografici in cui le distinzioni tra selvatico e domestico, cultura e natura, sono minime o addirittura inesistenti. Il campo della zooarcheologia si è quindi allontanato dalle narrazioni precedenti che enfatizzavano la domesticazione animale come dominio umano sugli animali non umani, orientandosi verso un’attenzione alle relazioni ecologiche, culturali e coevolutive che sono sempre esistite tra esseri umani e animali non umani e alla loro intensificazione ed elaborazione nei contesti delle prime società agricole”. > Secondo l’archeologa Melinda Zeder ci sono tre percorsi attraverso cui le > diverse specie rispondono alla domesticazione per poi essere integrate nelle > società umane: il percorso commensale, quello della preda e la gestione > diretta. Le combinazioni tra fattori ecologici, culturali ed evolutivi all’interno dei rapporti tra gli umani e gli altri animali possono essere molteplici, seguire traiettorie non lineari, imboccare vicoli ciechi, e giungere a risultati differenti in aree geografiche e finestre temporali più o meno lontane. Un esempio è la domesticazione del cavallo, i cui primi tentativi risalirebbero a circa 5.500 anni fa e sono documentati nel sito di Botaï, nel Kazakistan settentrionale. Qui sono stati trovati resti che indicano l’uso di recinti, briglie e la mungitura dei cavalli per ricavarne latte. Per molto tempo si è pensato che i cavalli moderni discendessero da quelli di Botaï. In seguito, uno studio pubblicato su Nature nel 2024 ha suggerito che il controllo della riproduzione della linea dei cavalli moderni sarebbe emerso solo più tardi, intorno al 2.200 a.C. nelle steppe pontico-caspiche. La definizione di un quadro teorico del fenomeno è una sfida che è stata colta e che solo negli ultimi anni ha dato origine ad approcci di più ampio respiro. Tra le teorie che meglio combinano le componenti biologiche e sociali della domesticazione c’è quella dei tre percorsi, elaborata dall’archeologa Melinda Zeder nel 2012. Zeder sostiene che, al di là delle caratteristiche universali comuni a tutti gli animali domestici – prima su tutte la docilità verso l’essere umano ‒, vi siano molteplici modi in cui le diverse specie rispondono alla domesticazione per poi essere integrate nelle società umane. Portando questo ragionamento alle estreme conseguenze, si potrebbe addirittura affermare che ogni animale domestico sia un caso a sé stante, partecipe di una relazione unica, modellata da un elevato numero di variabili. La scienziata ritiene, però, che siano tre i percorsi principali seguiti: il percorso commensale, quello della preda e la gestione diretta. Il percorso commensale è la via più nota al grande pubblico, la più citata tra le possibili ricostruzioni della domesticazione del cane, ed è anche quella che forse sta imboccando il procione. È un processo coevolutivo, in cui un gruppo di individui di una determinata specie trae giovamento dalle risorse, come avanzi di cibo e riparo, di un’altra. Non è necessario che vi sia intenzionalità da parte dell’essere umano, poiché l’interazione potrebbe sorgere semplicemente dalla condivisione dello stesso ambiente, e a sua volta può sfociare in legami sociali o economici più stretti da cui gli umani potrebbero trarre beneficio. A questo punto, la selezione guidata sarebbe il passo successivo. Gli animali d’allevamento come pecore, capre e bovini, invece, sono stati per la maggior parte i protagonisti di un percorso della preda: erano inizialmente cacciati per la loro carne e il processo di domesticazione è cominciato quando le comunità umane, per necessità, hanno dapprima sperimentato strategie di caccia per aumentarne la disponibilità, per poi arrivare a una vera e propria gestione delle mandrie, con il controllo esteso alle generazioni successive, se gli animali mostravano di possedere le caratteristiche idonee. Infine, vi è il percorso diretto, orientato, un processo avviato dagli esseri umani con l’obiettivo di domesticare animali che vivono in libertà e per ottenere una specifica risorsa o un insieme di risorse d’interesse. È ciò che sarebbe accaduto, ad esempio, a conigli, visoni e struzzi. È una strada che richiede già una certa dimestichezza con la domesticazione di altri animali e per cui sono necessarie intenzionalità e forme di progresso tecnologico, in quanto le specie coinvolte potrebbero non possedere molte delle caratteristiche comportamentali ritenute prerequisiti essenziali. I percorsi non sono esclusivi e possono incrociarsi. È il caso del maiale, Sus scrofa domesticus, che deriverebbe dal percorso commensale e da quello della preda: sembra che alcuni suini venissero cacciati, mentre altri fossero tollerati intorno agli insediamenti, dove si nutrivano di scarti, adattandosi così ad ambienti antropici. Queste condizioni si sarebbero presentate indipendentemente sia in Mesopotamia sia in Cina. > Più che un atto di dominio, la domesticazione è un processo coevolutivo, > poiché l’essere umano ha plasmato l’evoluzione degli animali e delle piante > domestiche, che poi a loro volta hanno modellato il genoma umano e la sua > diversità culturale. Un altro modo per spiegare le implicazioni biologiche, ecologiche e sociali della domesticazione è la teoria della costruzione della nicchia. Anche in questo caso si parla di una lunga coevoluzione basata su rapporti di reciproco vantaggio che si concretizza nella costruzione, da parte di umani, piante e animali, di nuove nicchie ecologiche, in una modifica attiva degli ambienti in cui vivevano. Gli esseri umani, nel ruolo di ingegneri ecosistemici, avrebbero trasformato i paesaggi per rendere più produttive e prevedibili alcune specie di loro interesse e, allo stesso tempo, anche piante e animali coinvolti nella domesticazione avrebbero contribuito a rimodellare gli ecosistemi, adattandosi, influenzando le condizioni ambientali e innescando effetti che avrebbero interessato altri organismi, modificandone indirettamente le traiettorie evolutive. Diviene chiaro come la domesticazione non sia ‒ o per lo meno, non sia sempre stata ‒ un atto di dominio, ma che si possa inserire nel più grande racconto dell’evoluzione. “La domesticazione è un eccezionale modello di evoluzione in atto, in cui la forza motrice principale è la pressione selettiva dell’ambiente umano, sia artificiale che naturale”, sottolinea Cucchi: “La domesticazione è un sottoinsieme dell’evoluzione, che dimostra come l’intervento umano possa accelerare e dirigere il processo evolutivo, con impatti profondi sia sulle specie domesticate che sugli esseri umani. In effetti, consideriamo la domesticazione come un processo coevolutivo. Poiché l’essere umano ha plasmato l’evoluzione degli animali e delle piante domestiche, questi ultimi hanno successivamente modellato anche il genoma umano e la sua diversità culturale”. Da selvatico a domestico Sono circa 2 milioni le specie conosciute e di queste solo una frazione (tra mammiferi, uccelli ma anche insetti e pesci) è stata domesticata dagli esseri umani. Un caso spesso citato di insuccesso è la zebra, particolarmente aggressiva rispetto ai suoi parenti, il cavallo e l’asino. Nel suo saggio del 1997, Armi, acciaio e malattie, il fisiologo e ornitologo Jared Diamond provò a spiegare il motivo per cui solo pochissimi animali sono stati domesticati dall’essere umano, introducendo quello che lui chiama “principio di Anna Karenina”. Se Lev Tolstoj, nel celebre incipit, asseriva che “Tutti i matrimoni felici si somigliano; ogni matrimonio infelice è infelice a modo suo”, Diamond rielabora la citazione affermando che “Tutti gli animali domestici si assomigliano; ogni animale non domesticabile è selvatico a modo suo”. Questo è un modo per dire che tutte le specie domesticate hanno delle caratteristiche biologiche comuni, tutte necessarie affinché il processo funzioni: una dieta flessibile, un tasso di crescita elevato, la capacità di riprodursi in cattività, docilità verso gli esseri umani, una minore tendenza alla fuga e una struttura gerarchica organizzata. Come racconta l’archeozoologa Juliet Clutton-Brock nel suo libro Storia naturale della domesticazione dei mammiferi (2001), nel 1865 anche Francis Galton, cugino di Charles Darwin, stilò una lista di requisiti per la domesticazione, che includeva la robustezza, un’innata inclinazione per gli esseri umani, la facilità di accudimento, l’utilità e la capacità di riprodursi liberamente. > Molti mammiferi domestici condividono caratteristiche fisiche e > comportamentali non presenti negli antenati selvatici, tra cui variazioni > nelle dimensioni corporee e nel comportamento sociale, code più corte o > arrotolate e orecchie pendenti. Non bastano, però, solo le peculiarità biologiche degli animali. Lo spiega il paleobiologo Marcelo Sánchez-Villagra nel volume The Process of Animal Domestication (2022): il numero relativamente ridotto di specie domestiche autoctone nelle Americhe dipenderebbe non solo dalle caratteristiche degli animali, ma anche dagli aspetti culturali delle popolazioni umane che convivono con essi, a loro volta legati all’ecologia dei territori. In Amazzonia, per esempio, alcune popolazioni intrattengono rapporti di stretta vicinanza con determinati  animali, come insetti, pappagalli, pecari, e persino con i cuccioli di esemplari uccisi durante la caccia, senza avviarne la domesticazione: una scelta che riflette una diversa visione del mondo e del rapporto tra esseri umani e altre specie. Nonostante i diversi percorsi e tempi della domesticazione nelle varie aree del mondo, molti mammiferi domestici – anche se lontanamente imparentati tra loro – condividono un insieme ricorrente di caratteristiche fisiche e comportamentali, noto come “sindrome da domesticazione”, già individuato da Charles Darwin nella sua analisi della selezione artificiale sugli animali allevati. Si tratta di cambiamenti non presenti negli antenati selvatici e tra i più comuni si osservano variazioni nelle dimensioni e nelle proporzioni del corpo, nella pigmentazione del mantello, nella riproduzione e nel comportamento sociale. A questi si aggiungono altre modifiche tipiche della domesticazione, come una riduzione delle dimensioni del cervello, cambiamenti nella struttura del pelo, code più corte o arrotolate e orecchie pendenti. Una possibile spiegazione della sindrome da domesticazione è che gli esseri umani abbiano selezionato, più volte e in modo indipendente, le stesse caratteristiche in specie diverse. Questa ipotesi è stata testata dal genetista russo Dmitry Belyaev nel celebre esperimento sulle volpi argentate, iniziato negli anni Cinquanta del Ventesimo secolo. Gli esemplari scelti vennero selezionati per docilità e, generazione dopo generazione, mostrarono attenzione verso gli esseri umani, orecchie pendenti, code rivolte all’insù, mantelli pezzati, cicli riproduttivi più frequenti e non legati alle stagioni e, successivamente, musi più corti e larghi. Nonostante approfondimenti e studi successivi, i risultati ottenuti sono ancora discussi nella comunità scientifica per alcuni aspetti controversi. > I procioni potrebbero essere l’animale perfetto da osservare in tempo reale > per capire come una specie possa andare incontro a modificazioni tali da > renderla diversa dal proprio antenato selvatico. Oggi sono proprio i procioni, probabile modello di domesticazione in atto, a essere protagonisti di un ampio studio in qualche modo accostabile a quello delle volpi, pubblicato su Frontiers in Zoology. Analizzando il rapporto tra la lunghezza del muso e quella del cranio in oltre 19.000 fotografie di procioni scattate negli Stati Uniti e raccolte tramite applicazioni di citizen science, gli autori della ricerca hanno osservato una tendenza chiara: gli individui che vivono in aree densamente popolate mostrano, in media, un muso più corto. Se da una parte la domesticazione interagisce con molte altre pressioni ambientali, scienziate e scienziati stanno mettendo in correlazione questi risultati con la cosiddetta ipotesi delle cellule della cresta neurale. Secondo questa teoria, la maggiore docilità selezionata negli animali domesticati sarebbe legata a una riduzione dell’attività o del numero di un gruppo di cellule embrionali coinvolte nello sviluppo non solo dei caratteri comportamentali, ma anche di molti tratti fisici. L’esito non intenzionale di queste modificazioni sarebbe la comparsa dei tipici cambiamenti fisici osservati negli animali domestici. Questa spiegazione sosterrebbe anche la tesi dell’auto-domesticazione umana, dibattuta già ai tempi di Darwin. Infatti, esistono alcuni mutamenti assimilabili alla sindrome da domesticazione nella nostra evoluzione, come descrive Cucchi: > Proprio come osservato nell’esperimento delle volpi di Belyaev, si sostiene > che ci sia stata una selezione che avrebbe favorito comportamenti più sociali > e meno aggressivi tra i cacciatori-raccoglitori del Paleolitico negli ultimi > 300.000 anni e, secondo la teoria delle cellule della cresta neurale, questa > selezione comportamentale avrebbe influenzato indirettamente l’evoluzione > fenotipica della nostra specie verso un corpo più piccolo e snello. Alcuni > sostengono che la selezione possa essere stata esercitata sugli individui più > inclini alla violenza reattiva. Attualmente altre ipotesi mettono in discussione il coinvolgimento di un alterato funzionamento della cresta neurale e l’esistenza stessa della sindrome da domesticazione, che per ora, però, sono tra le cornici esplicative più esaminate. Avanti il prossimo! Il procione è solo uno degli animali che probabilmente stanno percorrendo le prime tappe della strada che potrebbe portarli alla domesticazione. È spontaneo domandarsi quali saranno in futuro le nuove specie in stretta relazione all’essere umano, o da esso sfruttate, che subiranno un destino simile. L’antropologo Marcus Baynes-Rock, nella sua opera La vita segreta delle iene (2024), racconta la coesistenza tra i cittadini di Harar, in Etiopia, e gli esemplari di due clan di iene che si aggirano nelle strade della metropoli e accettano cibo dagli abitanti. L’estrema vicinanza e la riduzione dell’aggressività nei nostri confronti potrebbero forse essere dei buoni presupposti per l’avvento di nuovi compagni a quattro zampe. > C’è anche chi sta cercando di domesticare il polpo, che però non sembra un > candidato ideale: non è un animale sociale, è un predatore solitario, e > relegato in vasche con altri conspecifici potrebbe aggredirli. O ancora, dal 2018 l’azienda spagnola Nueva Pescanova sta lavorando alla realizzazione di quello che potrebbe essere il primo allevamento intensivo di polpi. Nel 2023, Nueva Pescanova ha dichiarato di essere stata in grado di completare in cattività il ciclo riproduttivo del polpo comune e di stare allevando la quinta generazione nel proprio centro di ricerca in Galizia. Secondo quanto afferma l’azienda, il processo avrebbe reso questi molluschi più adatti alle condizioni di allevamento, riducendo le criticità emerse nei tentativi precedenti. Il polpo, infatti, non sembra un candidato ideale per la domesticazione: non è un animale sociale, è un predatore solitario, e relegato in vasche con altri conspecifici potrebbe aggredirli. Inoltre, è carnivoro e la sua alimentazione in allevamento solleverebbe interrogativi dal punto di vista della sostenibilità. Thomas Cucchi ci riporta al presente: “La domesticazione dei pesci è la più recente e di maggiore impatto”. È stata un’attività in aumento solo in tempi recenti e la ricerca sull’acquacoltura ha rivelato effetti rapidi e vari nelle specie ittiche. Come descritto anche da Sánchez-Villagra nel suo libro, fino alla metà del Ventesimo secolo, erano pochi i pesci domesticati: c’erano le carpe, i pesci rossi e, più recentemente, i salmonidi. Molte altre sono state effettivamente domesticate, nel senso che la loro biologia riproduttiva è stata modificata dagli esseri umani, solo negli ultimi decenni. L’acquacoltura ittica coinvolge attualmente oltre 160 specie, sotto il nostro controllo per diversi scopi, tra cui l’alimentazione, la conservazione e la ricerca. Come evidenzia una review pubblicata su Trends in Ecology & Evolution nel 2022, sono ancora molte le domande senza risposta che riguardano la nostra comprensione di questo processo. Non è sempre chiaro quali percorsi ecologici ed evolutivi portino alla domesticazione, quanto le specie coinvolte dipendano dai rapporti di mutualismo con l’essere umano e come stabilire se una specie possa dirsi davvero domesticata. Resta ancora da chiarire quale sia il peso della selezione intenzionale rispetto a quella inconsapevole e il significato evolutivo della selezione di tratti estetici, spesso legata a preferenze culturali più che a vantaggi funzionali. Gli occhi mascherati e le code a strisce che spuntano dai bidoni della spazzatura statunitensi non ci forniranno tutte le risposte, ma sicuramente ci avvicinano a quelle prime comunità umane che si ritrovarono a condividere gli spazi con un’altra specie e che, a un certo punto di quella convivenza, si impegnarono a legare la propria vita a quella di quegli animali per sempre. L'articolo L’invenzione degli animali domestici proviene da Il Tascabile.
Scienze
animali
ecologia
evoluzione
zoologia
Il paesaggio che (non) ascoltiamo
A lla parola paesaggio comunemente associamo la vista su delle colline, il verde dei boschi, una pianura nella nebbia: molto dipende da dove siamo cresciuti, qual è il posto a cui siamo legati in modo particolare, ma tendenzialmente il paesaggio, nella nostra testa, somiglia molto a un quadro, è un panorama legato quasi esclusivamente alla vista. Eppure un aspetto fondamentale dei luoghi è quello sonoro: ogni posto ha un suo soundscape, un paesaggio sonoro specifico, che varia, esattamente come l’aspetto visivo, allo scorrere delle ore del giorno e della notte, nell’alternarsi delle stagioni, al passare degli anni. Per chi vive in città il soundscape è un assedio di rumori incessanti, ma anche quei luoghi che consideriamo più silenziosi – la cima di una montagna, una spiaggia deserta – sono intessuti di suoni. Fra questi due estremi, dal fastidio violento alla piacevolezza pacifica, si muove la considerazione quasi puramente estetica che abbiamo del paesaggio sonoro: ma prestare attenzione a cosa ci dicono i suoni può essere fondamentale per accorgerci dei cambiamenti avvenuti in un ambiente, della riduzione della biodiversità, della salute di un territorio, e dei benefici o danni che i suoni possono apportare agli esseri viventi che lo abitano. A volte, infatti, è proprio tendendo l’orecchio al paesaggio che ci arriva un segnale di allarme. Primavera silenziosa, il famoso saggio di Rachel Carson pubblicato nel 1962 che in qualche modo ha dato avvio al movimento ecologista statunitense, si apre con una domanda: “Perché tacciono le voci della primavera in innumerevoli contrade d’America?”. Il silenzio che improvvisamente dominava la primavera, al posto del canto di innumerevoli specie di uccelli e del ronzio delle api, è l’aspetto scelto dalla biologa per presentare, fin dal titolo, la sua indagine sulle conseguenze dell’uso indiscriminato del DDT e di altri fitofarmaci. Qualche anno dopo, all’incirca dalla fine degli anni Sessanta, alcuni studiosi hanno cominciato a occuparsi di ecologia acustica, o ecologia dei paesaggi sonori – ossia quella branca dell’ecologia che studia le relazioni fra i suoni di un paesaggio e gli esseri viventi che lo abitano – nella convinzione che l’aspetto sonoro delle questioni ambientali sia un tassello importante, che ci può dire molto sullo stato di salute degli ecosistemi, sulla progettazione degli spazi urbani, sui modi di condurre la transizione, sulle vite che vogliamo, perfino sulla pace che desideriamo. > Quando parliamo di paesaggio tendenzialmente pensiamo a un panorama legato > quasi esclusivamente alla vista. Eppure, un aspetto fondamentale dei luoghi è > quello sonoro: un paesaggio altrettanto specifico, che varia allo scorrere > delle ore del giorno e della notte, nell’alternarsi delle stagioni, al passare > degli anni. Occuparsi di ecologia richiede spesso di impegnarsi a prestare attenzione a ciò che alla nostra attenzione sfugge, perché difficile da comprendere, perché invisibile, perché su scala troppo grande per averne una visione completa, perché ha una dimensione temporale sfasata rispetto agli interessi politici e alla nostra capacità di proiettarci nel futuro: a queste difficoltà, nel caso dell’ecologia dei paesaggi sonori, si aggiunge il fatto che la vista, per gli umani, è il senso a cui affidiamo gran parte delle nostre valutazioni, l’udito ha un posto secondario, almeno a livello conscio, ed è così che sottovalutiamo gli effetti dell’inquinamento acustico sulla nostra salute, i danni provocati dai rumori delle guerre, la ricchezza sonora che stiamo perdendo assieme alla biodiversità, e quanto sia importante, nell’immaginare il futuro, pensare anche a come questo suonerà. L’antropofonia e l’inquinamento acustico Per cominciare a indagare di cosa è fatto un paesaggio sonoro possiamo partire dalla divisione dei suoni in tre macrocategorie, o domini. Il primo è la geofonia, ossia l’insieme dei suoni naturali provenienti da fonti abiotiche – il mare, un fiume, il vento, un tuono, il brontolio selvaggio di un terremoto, l’eruzione di un vulcano: ed è proprio l’eruzione del Krakatoa nel 1883 ad aver generato l’onda sonora più potente mai registrata, con un boato di 310 decibel (dB). C’è poi la biofonia, tutti quei suoni naturali emessi dagli esseri viventi, animali e vegetali. Infine, l’antropofonia, cioè ogni nota, rumore, boato o scricchiolio prodotti dagli umani, dalla musica più raffinata all’insopportabile rombo di un aereo in decollo. > Se sul posto di lavoro esistono, in Italia, norme precise sui limiti di > esposizione al rumore, per quanto riguarda le città esistono solo delle > raccomandazioni dell’OMS che vengono in larghissima parte disattese. È proprio l’insieme dei rumori artificiali prodotti dalle attività umane a costituire il tappeto sonoro predominante per chi vive nelle aree urbane: nel mondo circa il 55% della popolazione, che si stima diventerà il 68% entro il 2050; in Italia la percentuale si aggira già attorno al 70% e sale al 91%, secondo i dati Istat, che però comprendono anche i centri abitati più piccoli. Se sul posto di lavoro esistono, in Italia, norme precise sui limiti di esposizione che fissano a 80 dB la soglia media di attenzione (con picchi non oltre i 135 dB) e a 87 dB la media massima che non può essere superata (con picchi di 140 dB), per i rumori degli ambienti urbani in cui siamo immersi esistono solo delle raccomandazioni dell’OMS (Organizzazione Mondiale della Sanità) che vengono in larghissima parte disattese. Secondo le linee guida sul rumore ambientale per l’Europa dell’OMS, infatti, il limite di esposizione al rumore del traffico su strada sarebbe di 53 dB di giorno, 45 dB di notte. Quasi un cittadino su tre, in Europa, vive in ambienti che superano, spesso anche di molto, questi limiti: sono circa novantadue milioni di persone. Diciotto milioni di persone, sempre in Europa, vivono in zone in cui il traffico ferroviario produce rumori oltre la soglia prevista; e due milioni e mezzo di persone sono esposte al rumore del traffico aereo. Effetti dell’inquinamento acustico La scarsa attenzione che prestiamo agli aspetti sonori dell’ambiente in cui viviamo si riflette anche nella poca considerazione che abbiamo per i danni che l’esposizione al rumore può avere: l’inquinamento acustico è fra le minacce ambientali più pericolose per la salute, dopo quello atmosferico e il caldo estremo. Lo scorso giugno, l’EEA (l’agenzia europea per l’ambiente) ha presentato il rapporto Environmental noise in Europe, secondo il quale l’inquinamento acustico è la causa di circa 66.000 decessi prematuri all’anno in Europa, 50.000 nuovi casi di malattie cardiovascolari e 22.000 casi di diabete di tipo 2. Oltre agli effetti diretti, ci sono quelli indiretti o a lungo termine, come acufeni, stress, ansia, disturbi del sonno e difficoltà di concentrazione, fino a depressione e demenza. Sono preoccupanti anche gli effetti sui più piccoli: pare che l’esposizione continua al rumore del traffico provochi difficoltà e ritardi nella lettura in circa mezzo milione di bambini e disturbi del comportamento su circa 60.000. Si stima anche che circa 272.000 casi di sovrappeso infantile possano essere associati a livelli alti di rumore. > L’inquinamento acustico è fra le minacce ambientali più pericolose per la > salute: basti pensare che ogni anno, solo in Europa, causa 66.000 decessi > prematuri. Per non parlare degli effetti indiretti su acufene, ansia, disturbi > del sonno, difficoltà di concentrazione e depressione. In complesso, sempre secondo lo stesso rapporto, in Europa perdiamo ogni anno 1,3 miliardi di anni di vita in buona salute (è l’indice DALY che somma gli anni di vita persi per morti premature a quelli vissuti con malattie o disturbi invalidanti). Un numero che fa impressione, ma forse non abbastanza da muoverci all’azione: stando alle proiezioni dell’agenzia europea, senza forti misure aggiuntive e senza nuovi investimenti non riusciremo a raggiungere l’obiettivo di ridurre del 30% entro il 2030 il numero di persone che subiscono alti livelli di inquinamento acustico (nello specifico, quello generato dal sistema dei trasporti). Eppure i danni elencati hanno un costo elevato, stimato in 95,6 miliardi di euro l’anno: un numero da citare non perché serva assegnare un valore economico alla nostra salute, ma per dare concretezza a qualcosa che ci sembra semplice tappeto sonoro – il rumore del traffico nelle città – e che solitamente consideriamo come secondario, incapace di produrre effetti concreti, quando invece è perfino misurabile, sui nostri corpi e sui bilanci degli Stati. Il rumore delle armi, il rumore come arma Se il rumore del traffico è diventato una presenza costante e pervasiva del paesaggio sonoro in cui siamo immersi, nel dominio dell’antropofonia in cima alla lista dell’intensità si trovano i suoni prodotti da armi e mezzi di guerra: il suono antropico più potente è quello generato dall’esplosione di una bomba atomica, che supera i 200 dB. Anche in questi casi l’aspetto acustico ci sembra marginale – e chiaramente di fronte a strumenti che producono morte il fatto che producano anche dei rumori è marginale – ma essere sottoposti continuamente a rumori così forti e innaturali, dal ronzio costante dei droni, al rombo degli aerei militari, e poi le esplosioni, gli spari, gli allarmi, le urla, ha degli impatti a lungo termine: in chi sopravvive; le conseguenze dell’esposizione prolungata a questo tipo di rumori sono una parte importante dei disturbi post-traumatici da stress, che spesso comprendono ipersensibilità ai rumori, specie se forti e improvvisi. > In cima alla lista dei suoni più potenti prodotti dall’essere umano ci sono > quelli generati da armi e mezzi di guerra: l’esplosione di una bomba atomica, > per dire, provoca un rumore che supera i 200 dB. Esiste inoltre un’intera categoria di armi che usano proprio le onde sonore come strumento di offesa: sono le armi soniche, o LRAD – Longe-Rage Acustic Device, dispositivi acustici a lungo raggio –, vietate in molti Paesi, fra cui la Serbia, che però è sospettata di averle utilizzate per disperdere la folla di manifestanti in piazza il 15 marzo 2025. Le autorità di Belgrado negano di aver utilizzato armi soniche, anche se hanno ammesso di averne acquistate. La popolazione ha richiesto delle indagini indipendenti per chiarire i fatti, ma quello che colpisce dei video diffusi in rete è l’invisibilità dell’onda che si abbatte sul corteo, che si divide in due, con le persone che scappano dal centro della strada, un’immagine che somiglia molto al rapporto che abbiamo con il suono: qualcosa che sfugge alla nostra attenzione, ma di cui subiamo l’impatto. Nel documentario Vibrations from Gaza, dell’artista Rehab Nazzal, il suono della guerra oltre che invisibile diventa anche inudibile: i protagonisti sono bambini sordomuti della Striscia di Gaza – una di loro, Amani, dice che “è una benedizione essere sorda, così sono la meno terrorizzata quando bombardano” –, e per tutto il film gli unici rumori sono il ronzio dei droni e le onde del mare. I bambini raccontano quello che percepiscono degli aerei da guerra e delle bombe che cadono: le vibrazioni dell’aria, del pavimento e dei loro corpi: la fisicità del rumore, che rende impossibile il silenzio, finché non c’è pace, perfino per chi non è in grado di udire la guerra. Il silenzio: non solo un’assenza di suoni Pace e silenzio sono due parole spesso associate: e come non si può definire la pace per negazione, come solo assenza di guerra, così non si può definire il silenzio per pura sottrazione del rumore. > Un esempio chiaro del modo antropocentrico che abbiamo di intendere il mondo è > che abbiamo fissato lo zero decibel non su un valore di reale silenzio, ma > sulla soglia minima di percezione umana. Eppure una prima idea di silenzio che ci viene alla mente è l’assenza di rumori umani: niente rombi di motori o stridore dei freni, niente auto, aerei e navi, niente bombe, niente fuochi d’artificio, niente allarmi, sirene e suonerie, niente annunci, megafoni e altoparlanti, niente cantieri, demolizioni e costruzioni. In breve, potremmo definire l’idea comune di silenzio come un paesaggio sonoro in cui manca tutto l’insieme dell’antropofonia: sottraendo i suoni di origine umana, rimangono quelli degli altri esseri viventi, o biofonia, e degli elementi naturali non viventi, come quelli prodotti dai movimenti dell’aria, dell’acqua o della terra, ossia la geofonia. Non è un silenzio assoluto, ma un silenzio naturale, che non ha niente a che vedere con un vuoto, ma è uno spazio sonoro pieno delle voci che altrimenti sono sopraffatte dai rumori artificiali: canti degli uccelli, frinire di insetti, onde del mare, scrosciare di fiumi e frusciare di foglie. In Storia naturale del silenzio (2024) Jérôme Sueur va a indagare proprio cosa c’è dentro il silenzio naturale, rendendo evidente che, se già prestiamo poca attenzione agli aspetti sonori delle nostre vite, ancora meno ne prestiamo al silenzio, che non è affatto univoco, né assoluto, né vuoto o assenza. Un esempio chiaro del modo tutto antropocentrico che abbiamo di intendere il mondo è che abbiamo fissato lo zero decibel non su un valore di reale silenzio, ma sulla soglia minima di percezione umana: esistono in realtà suoni che misurano decibel negativi perfettamente udibili da molte specie, ciascuna con una sua soglia di silenzio differente. > La nostra idea comune di silenzio è un paesaggio sonoro in cui mancano del > tutto i rumori umani: niente rombi di motori o stridore dei freni, niente > allarmi, sirene e suonerie, niente annunci, megafoni e altoparlanti, niente > cantieri, demolizioni e costruzioni. Nei linguaggi animali il silenzio non è vuoto, può essere un segnale amoroso, di allerta o di sfida, ma può essere anche un segnale di morte e perdita: quando una specie scompare, scompare anche il suono che è in grado di produrre. Così, come “il silenzio nelle contrade di America” indicava che qualcosa stava accadendo alle popolazioni di uccelli, registrare suoni e vibrazioni può dare indicazioni precise sullo stato di salute degli ecosistemi e sulla biodiversità che li abita. Il silenzio dell’estinzione: l’ecoacustica per il monitoraggio della biodiversità È da questo proposito – monitorare la biodiversità attraverso il suono – che, circa mezzo secolo dopo quell’intuizione di Rachel Carson, l’ecoacustica nasce ufficialmente come disciplina, nel 2014, in Francia, al Muséum national d’Histoire naturelle, grazie al lavoro di un gruppo di ricercatori, fra cui lo stesso Jérôme Sueur. Alcuni ecosistemi sono nascosti alla vista: è il caso dei ricercatori della Flinders University di Adelaide, nell’Australia meridionale, che hanno registrato i suoni prodotti dalle comunità sotterranee di invertebrati per monitorare lo stato di salute e di fertilità del suolo; oppure di specie indistinguibili all’occhio, ma non all’orecchio, come alcune specie di rane; o ancora di ecosistemi così vasti e difficili da raggiungere – l’oceano più aperto, le profondità marine più inaccessibili – dove poter semplicemente registrare e analizzare i suoni diventa il metodo più praticabile, e meno invasivo, di monitoraggio. I suoni prodotti da ciascuna specie sono un indicatore della biodiversità ma anche, e soprattutto, una ricchezza in sé: e quando una specie scompare, quando l’ultimo esemplare rinuncia a mandare i suoi richiami d’amore rivolti ormai a nessuno, perdiamo per sempre delle note, un gorgoglio, delle vibrazioni, una melodia che nessun altro essere vivente potrà replicare. Ogni singola specie non solo produce dei suoni caratteristici ma ha un diverso modo di percepirli, diversi spettri uditivi, diversi organi predisposti e diversi modi in cui le vibrazioni sonore vengono percepite ed elaborate. Così quando una specie scompare, non scompare solo il suono che produce, ma anche il suono che ascolta. > Quando una specie scompare, quando l’ultimo esemplare rinuncia a mandare i > suoi richiami d’amore rivolti ormai a nessuno, perdiamo per sempre delle note, > un gorgoglio, delle vibrazioni, una melodia che nessun altro essere vivente > potrà replicare. Fra i vari compiti della tutela della biodiversità c’è anche fare in modo che le altre specie animali possano continuare ad ascoltarsi fra loro: ridurre il nostro peso sugli ecosistemi comprende quindi anche la riduzione del nostro impatto sonoro – come, per esempio, l’inquinamento acustico del trasporto marittimo, delle trivellazioni offshore e del deep-sea mining che stressa e disorienta, provocando danni uditivi e a volte anche la morte, nei pesci e nei mammiferi marini. Immaginare un futuro silenzioso Possiamo ripensare il nostro impatto sui paesaggi sonori; ripensare le città tenendo a mente anche la necessità di contenere l’inquinamento acustico, per il benessere di chi in città ci vive; ripensare la pace: “far tacere le armi” non significa solo smettere di combattere, ma è un modo di lasciare spazio alla voce dei popoli che con le armi vengono sottomessi, soggiogati, silenziati, annientati; ripensare il silenzio: tacere, ridurre il rumore, non è creare un vuoto ma creare spazio, così come quella che chiamiamo decrescita non è una riduzione ma un modo diverso di crescere, dove alla crescita del PIL si sostituisce quella del benessere, della salute e della giustizia. Abbassare il livello, e il peso, dell’antropofonia sull’ambiente significa quindi dare la possibilità di espressione ad altre specie animali, dar loro la possibilità di tornare a comunicare, a quell’ultimo esemplare di scoprire magari di non essere rimasto solo, e intercettare il verso di un suo simile prima che entrambi smettano di cantare. Significa dare a noi, specie umana, la possibilità di ascolto – delle altre specie, uscendo dal nostro antropocentrismo acustico, e di chi, all’interno della nostra, è stato meno ascoltato –, e di immaginare un cambiamento che tenga presente anche come potrebbe suonare il futuro che vorremmo, una transizione non solo ecologica, non solo energetica, non solo giusta socialmente, ma anche silenziosa, non per creare un vuoto sonoro assoluto ma per poter ascoltare tutta quella ricchezza di voci di cui è fatto il mondo, prima di perderle per sempre. L'articolo Il paesaggio che (non) ascoltiamo proviene da Il Tascabile.
Recensioni
ambiente
ecologia
biodiversità
inquinamento acustico
Da un’economia di crescita a una di cura
L o scorso 28 aprile la penisola iberica è rimasta senza elettricità. Attorno alle 12 e 30 una serie di piccole interruzioni concentrate nel sud della Spagna ha innescato una reazione a catena che ha compromesso la rete elettrica spagnola. I computer che regolano le delicate esigenze di un’infrastruttura energetica moderna sono subito intervenuti, riportando la rete in equilibrio. Ma dopo pochi istanti è arrivato un secondo evento, e poi un terzo. Nel giro di cinque secondi il sistema elettrico spagnolo è collassato, portandosi dietro quello portoghese. Per dieci ore in media ‒ in alcune città, in realtà, parecchie di più ‒ hanno smesso di funzionare le metro, i treni, gli ascensori, gli elettrodomestici, la connessione telefonica e internet, le lampadine. Per alcuni il blackout è stata una tragedia: almeno quattro persone hanno perso la vita per cause legate all’assenza di corrente, chi intossicato da vecchie stufe a gas e chi dal fumo di un incendio originato dalle candele. Per altri ‒ quelli che hanno avuto la sfortuna di rimanere bloccati in un ascensore o in un vagone ‒ è stato come minimo un brutto pomeriggio. Ma la stragrande maggioranza degli spagnoli e dei portoghesi ne conserva un ricordo diverso. La luce è mancata a mezzogiorno di un tiepido giorno di primavera, col sole che splendeva su praticamente tutta la penisola. Le aziende hanno chiuso, il governo ha mandato per strada le volanti della polizia a chiedere alla gente di rimanere dove si trovava e di non prendere l’auto, e senza telefono non c’era modo di sapere cosa stesse succedendo o contattare i propri cari. Per tanti, la cosa più sensata da fare è stata trovare il parco più vicino ‒ o un bar che vendesse birre anche con la cassa spenta e i frigoriferi ormai tiepidi ‒ e aspettare. A camminare per il centro delle città iberiche, nelle ore del blackout, sembrava di essere nel mezzo di una domenica di ferie, più che in una emergenza. Quel lunedì ero anche io in Spagna. Quando nella notte è tornata la connessione, ho visto un tweet di un utente madrileno. Diceva: “sono stato meglio oggi col blackout che tutti gli altri giorni con la luce”. L’economia del benessere A molti accademici che si occupano di economia del benessere non piacerebbe che un articolo sulle loro proposte iniziasse con la descrizione di un collasso della rete elettrica. “Quello che vogliamo non è una società senza tecnologia o un salto indietro di secoli” mi spiega Tommaso Felici, docente di economia ambientale all’Università di Utrecht. Ha ragione lui, ovviamente, ma rimane il fatto che il tema di questo articolo ha a che fare col cambiare ‒ e in qualche modo ridurre ‒ i nostri consumi, anche energetici, al fine di costruire una società più sostenibile. > I teorici dell’economia del benessere concordano sulla necessità di valutare > diversamente il funzionamento delle società in cui viviamo, concentrandoci su > fattori come l’aspettativa di vita media, il tasso d’istruzione, l’accesso ai > servizi di base, la salute degli ecosistemi naturali e la felicità percepita. Economia del benessere è un termine ombrello. L’espressione fu coniata nel 1920 Arthur Cecil Pigou, l’economista inglese che, tra le altre cose, fu il primo a teorizzare la necessità di tassare le imprese al fine di diminuirne gli impatti negativi sull’ambiente e sulla società. Nel 1972 il Massachusetts Institute of Technology elaborò per conto del think-tank Club di Roma uno studio, passato alla storia come Rapporto sui limiti dello sviluppo (The limits to Growth), che ipotizzava il collasso della civiltà umana come possibile conseguenza dello sfruttamento infinito di risorse naturali. Nei decenni a seguire autori come il rumeno Nicholas Georgescu e il francese Serge Latouche hanno sistematizzato nelle loro opere proposte teoriche racchiudibili nella definizione di economia del benessere. I diversi filoni di studio interni a questo ambito hanno in comune la necessità di misurare il successo dell’economia su parametri che abbiano a che fare, per l’appunto, con il livello di benessere di una società, e indirizzare di conseguenza l’azione politica. L’indicatore oggi comunemente accettato per valutare lo stato di salute di un’economia è il prodotto interno lordo (PIL). Si calcola sommando il valore di tutti i beni e servizi prodotti in un territorio in un dato lasso di tempo: quando sentiamo frasi come “L’Italia entra in recessione” o “la Cina continua a crescere”, stiamo parlando dell’aumento o della diminuzione di questo parametro. Tutti i teorici del benessere concordano sulla necessità di valutare diversamente il funzionamento delle società in cui viviamo, centrandoci su fattori come la felicità percepita, l’aspettativa di vita media, il tasso d’istruzione, l’accesso ai servizi di base, la salute degli ecosistemi naturali. Le Nazioni Unite usano nei loro report l’Indice di sviluppo umano (ISU o HDI, Human Development Index), che include reddito pro capite, aspettativa di vita e istruzione. Alcuni ricercatori dell’Università di Londra lo hanno modificato per includere al suo interno anche una serie di parametri ecologici, dando così vita all’Indice di sviluppo sostenibile (ISS o SDI, Sustainable Development Index). In questa classifica, i tre Paesi con la migliore combinazione di reddito, stile di vita e impatto ecologico sono Costa Rica, Uruguay e Sri Lanka; gli ultimi Lussemburgo, Kuwait e Qatar. Le proposte che ricadono sotto l’etichetta di economia del benessere sono molte. Prima di esplorarle, però, è necessario comprendere perché la crescita economica non possa essere una buona approssimazione del benessere di una società. Crescere o non crescere I periodi di crescita economica sono stati spesso anche periodi di ottimismo, ed è legittimo domandarsi da dove provenga la necessità di abbandonare un paradigma che a lungo sembra aver funzionato. “Te lo dico con uno slogan un po’ datato ma efficace” risponde Riccardo Mastini, ricercatore al Politecnico di Milano e consulente delle Nazioni Unite: “la crescita infinita in un mondo dalle risorse finite è impossibile”. Il concetto chiave è quello di limite. L’ecologo svedese Johan Rockström, insieme ad altri autori, pubblicò nel 2009 uno studio ‒ tutt’oggi citatissimo ‒ che teorizzava la presenza di nove limiti planetari, superati i quali la stabilità degli ecosistemi sui quali abbiamo costruito le nostre civiltà viene messa a rischio. Il primo riguarda la concentrazione di gas climalteranti in atmosfera, e quindi la necessità di stabilizzare le temperature medie del pianeta, ma ugualmente cruciali sono il ciclo dell’azoto e del fosforo, la perdita di biodiversità, l’acidificazione degli oceani, la riduzione dell’ozono atmosferico, l’inquinamento da sostanze chimiche, l’accumulo di particolati, il consumo di acqua dolce e di suolo, e l’acidificazione degli oceani. > In un cruciale studio del 2009, l’ecologo svedese Johan Rockström ha > teorizzato la presenza di nove limiti planetari, superati i quali la stabilità > degli ecosistemi sui quali abbiamo costruito le nostre civiltà viene messa a > rischio. Il fulcro delle riflessioni sul benessere è che per garantire a tutti uno standard di vita dignitoso e accettabile non possiamo semplicemente consumare di più ‒ più metalli estratti dal terreno, più pesce pescato dal mare e così via ‒ perché le risorse terrestri non sono inesauribili e dipendono da sistemi fragili e interconnessi. Una crescita indefinita della nostra economia finirà, paradossalmente, col far venir meno quei materiali e quelle risorse da cui la nostra civiltà dipende, economia compresa. Questa conclusione trova in disaccordo molti economisti, che per quanto divisi tendenzialmente concordano sull’idea che la crescita economica sia condizione necessaria per l’avanzamento della società. Per alcuni studiosi, l’economia del benessere assomiglia davvero al blackout spagnolo di cui sopra: poca energia, poche risorse, poca sicurezza. “Ma è un’idea vecchia” spiega Felici che, pur essendo economista, dissente da buona parte dei suoi colleghi. “Sicuramente in passato la crescita ha portato a maggior benessere, e questo rimane vero per molti dei cosiddetti Paesi in via di sviluppo. Ma nella nostra Europa industrializzata non è più così. Anzi, quando il PIL aumenta, aumentano anche le disuguaglianze. Il caso italiano è emblematico: i salari reali sono fermi da trent’anni, nonostante ci sia stata crescita”. Ciò che dice Felici trova riscontro nei dati. Nel 2018 un gruppo di ricercatori dell’Università di Leeds ha pubblicato uno studio intitolato A Good Life for all within Planetary Boundaries, che rileva come l’aumento del reddito medio pro capite corrisponda effettivamente a un aumento della qualità di vita, ma solo fino a una certa soglia. Superata questa, che i ricercatori ritengono stia attorno ai 20.000 dollari, l’aumento di questo parametro non è più correlato ad un’aspettativa di vita più alta, a tassi di istruzione migliori o a più felicità percepita. Tradotto: nella Spagna del blackout per far star meglio la gente, piuttosto che accrescere l’economia complessiva della nazione, sarebbe utile distribuire diversamente la ricchezza che già c’è. Ad esempio, investendo su una rete elettrica più pulita e sicura. > A un aumento del reddito medio pro capite corrisponde effettivamente un > aumento della qualità di vita, in termini di aspettativa di vita, tassi di > istruzione o felicità percepita, ma solo fino ad una certa soglia. Il fatto che gran parte degli economisti non riconosca la necessità di porre un limite al consumo di risorse non significa che disconoscano la realtà di una crisi ecologica in atto. Semplicemente, scommettono sul fatto che sarà l’innovazione tecnologica ‒ resa possibile, a detta loro, proprio dalla crescita economica ‒ a risolvere il problema. “In passato è davvero andata così, penso ad esempio al problema del buco dell’ozono, risolto grazie alle nuove tecnologie e ad un modello virtuoso di collaborazione tra Stati” dice Felici “Ma non sappiamo se ci riusciremo ancora: quando parliamo di crisi climatica, ad esempio, non sembra affatto che stiamo riuscendo a tenere assieme un modello economico tradizionale con la riduzione delle emissioni. Scommettere sullo sviluppo tecnologico come panacea di ogni male sfida il principio di prudenza”. Uno spazio operativo sicuro e giusto I teorici dell’economia del benessere concordano su un assunto di base: non deve essere la crescita a guidare le scelte di una società. Come debba funzionare un modello alternativo, però, è tema di dibattito. Un grande interrogativo è cosa fare dell’economia del presente, che si prefigge un aumento del PIL trimestre dopo trimestre. Per la maggioranza degli studiosi di quest’area, è impossibile disaccoppiare l’aumento del PIL dal deterioramento degli habitat naturali, dalle emissioni, e dallo sforamento di quei limiti che abbiamo descritto sopra. È questa la posizione anche di Riccardo Mastini: “La crescita del PIL è stata un grande calmante sociale. Di fronte alla povertà, invece di distribuire diversamente la ricchezza che già esisteva si è deciso di crearne di nuova, promettendo che un po’ di quelle risorse fresche sarebbero andate a tutti. E ha funzionato, almeno in parte, ma al prezzo inevitabile di esternalità negative sempre più pesanti ‒ dal riscaldamento globale alla crisi degli ecosistemi. Effetti collaterali che, paradossalmente, mettono a rischio le conquiste fin qua avvenute”. > Sarebbe più utile parlare di post-crescita, piuttosto che di decrescita. Il > punto non è decrescere in sé e per sé, quanto cambiare il nostro parametro > guida, dall’aumento del PIL all’aumento della qualità di vita delle persone.  Un’altra parte, minoritaria, degli economisti del benessere ha un approccio più sfumato: può essere che il PIL continui a crescere anche in un’economia differente, che il disaccoppiamento tra crescita e crisi ecologica sia possibile. Ma se così non fosse, dobbiamo essere pronti a dare priorità a quegli altri indicatori che abbiamo descritto ‒ dalla salute degli ecosistemi all’aspettativa di vita ‒ piuttosto che al PIL. È questa la posizione di Tommaso Felici: “io preferisco parlare di post-crescita, piuttosto che di decrescita. Questo perché decrescere non deve essere un obiettivo in sé. Il punto è cambiare focus, dall’aumento del PIL all’aumento della qualità di vita delle persone. Se riusciamo a farlo continuando a crescere, ben venga, ma dobbiamo essere pronti a sacrificare l’espansione dell’economia, se serve a stare meglio”. Ciò su cui tutti gli studiosi del benessere sono invece concordi è la necessità di porre al centro i bisogni essenziali delle persone: cibo, un tetto sopra la testa, la possibilità di istruirsi, di curarsi, di avere tempo libero. L’economia del benessere è, in questo senso, erede diretta dello Stato sociale novecentesco: l’intera struttura produttiva, l’intero mercato del lavoro, devono essere prima di tutto al servizio del welfare, nel senso ampio del termine. Per ottenere ciò non serve necessariamente un’economia pianificata sul modello sovietico, ma di sicuro occorre che si contragga lo spazio del mercato e si ampli l’intervento pubblico. Un passaggio ineludibile è la redistribuzione della ricchezza. L’economista inglese Kate Raworth ha teorizzato per prima il modello economico della ciambella, in cui lo spazio operativo per l’umanità andrebbe cercato nella fascia compresa tra due limiti: uno ecologico esterno e uno sociale interno. Per Raworth, nessuno dovrebbe essere troppo povero da non poter accedere a risorse e diritti fondamentali, e nessuno dovrebbe essere così ricco da incidere negativamente sui limiti planetari. Tradurre in politiche concrete i principi di cui sopra è tutt’altro che facile, ed è su questo che si è focalizzata buona parte del lavoro di quest’area politica e culturale degli ultimi decenni. Una misura da tempo proposta è quella del reddito di base universale. Si tratterebbe di un sussidio erogato dallo Stato a chiunque possegga la cittadinanza ‒ o, addirittura, la residenza ‒ a prescindere dal lavoro. Una grande operazione di redistribuzione della ricchezza, ovviamente, ma anche il principio di una trasformazione più profonda. Nel breve termine, un reddito universale permetterebbe di rendere socialmente accettabile la contrazione della produzione industriale o la chiusura di certi settori particolarmente impattanti; nel lungo, di iniziare a slegare il lavoro dalla necessità di avere un salario, e costruire un’economia non più basata sui consumi. L’accorciamento delle catene del valore ‒ cioè, riportare i luoghi di produzione più vicino a quelli di consumo ‒ è un’altra politica che mira assieme a ridurre il consumo energetico e logistico, oltre ad aumentare le possibilità di impiego. > Secondo il modello economico a ciambella di Raworth, lo spazio operativo per > l’umanità dovrebbe avere un limite ecologico e uno sociale: nessuno dovrebbe > essere troppo povero da non poter accedere a risorse e diritti fondamentali, > nessuno così ricco da incidere negativamente sui limiti planetari. “Decrescita significa abbandonare le produzioni inutili, è riportare a casa quelle che ci servono” spiega Mastini. Per ottenere tutto questo serve cambiare chi prende le decisioni. Da qui il ruolo centrale dello Stato di cui sopra, certo, ma anche la possibilità di cambiare la natura del privato: “Immaginiamo di avere, al posto dei grandi oligopoli, un sistema di employee ownership, cioè la proprietà collettiva dei lavoratori. In questo modo elimini l’extraprofitto, chi possiede le imprese guadagna dal suo stesso lavoro e non dalla mera proprietà. E soprattutto, in questo modo si potrebbe pensare ad un sistema economico orientato al bene comune”. L’economia del benessere è economia della cura Un ripensamento dell’economia non può prescindere dal concetto di “lavoro di cura”, ossia quelle attività indispensabili ‒ come crescere i bambini, aiutare gli anziani, gestire le attività domestiche ‒ che tradizionalmente sono svolte in forma gratuita dalle donne. La redistribuzione e retribuzione di quel lavoro potrebbe essere la chiave di volta per un’economia diversa. Ina Praetorius è una teologa svizzera, tra le fondatrici della Network Care Revolution. “Le donne sono il prosieguo degli schiavi dell’antichità. Platone distingueva tra liberi e dipendenti: i primi erano gli uomini adulti con la cittadinanza, i secondi erano i bambini, gli schiavi e le donne” mi spiega. “L’illuminismo abolisce l’impianto formale di questa divisione, ma rimangono in piedi gli usi. E il capitalismo, quando nasce, trova molto conveniente avere questa manodopera gratuita addetta ad attività indispensabili, dalla cucina al supporto ai malati. Tutt’oggi quante persone ‒ non solo uomini e non solo conservatrici ‒ ritengono naturale che certi lavori siano svolti dalle donne della famiglia?”. Per economia della cura si intende un sistema economico centrato sul soddisfacimento dei bisogni delle persone in forma organizzata, legalmente riconosciuta ed equamente distribuita tra i generi. L’idea è che quelle mansioni storicamente svolte da donne in ambito familiare e senza salario diventino il punto focale delle nostre economie. Il reddito di base prima citato, ad esempio, permetterebbe di liberare almeno parte del tempo che impieghiamo nel normale lavoro salariato, permettendo a tutti ‒ a prescindere dal genere ‒ di usarlo anche per questo genere di attività così indispensabili. Le assonanze con l’economia del benessere sono chiare. “L’idea della cura nasce nell’ambito del movimento femminista, ma non è un tema di genere: è di tutti” continua la teologa: “se penso al mondo tra cento anni, immagino molto più tempo libero: per curare la famiglia e la casa, certo, ma anche per l’ozio ‒ che è importantissimo ed è un diritto di tutti, non solo dei ricchi». > Un ripensamento dell’economia non può prescindere dalla redistribuzione e > retribuzione del lavoro di cura, ossia quelle attività indispensabili che > tradizionalmente sono svolte in forma gratuita dalle donne. Il reddito di base universale è la prima delle proposte che mette d’accordo promotori della decrescita, dell’economia del benessere e delle istanze femministe. Spostare i capitali pubblici da settori ad alto impatto ecologico e bassa utilità sociale ‒ il fossile, le armi, il cibo spazzatura ‒ a settori poco impattanti ed essenziali come quelli della cura è un secondo, importante punto di contatto. Il terzo è la riduzione dell’orario lavorativo. “Produrre meno significa anche ridurre il monte ore lavorato. E se puntiamo a garantire a tutti un impiego, la logica conseguenza è lavorare meno” dice Mastini. L’idea è che da un lato l’economia del benessere richieda di produrre meno, e quindi liberi tempo nella vita delle persone; dall’altra che il tempo libero sia prerequisito per distribuire meglio il cosiddetto lavoro domestico. Lo spazio per il benessere Nonostante il relativo successo in campo accademico o nella bolla dei movimenti sociali, per ora molto poco dell’economia del benessere si è tradotto in prassi politica. La primazia del PIL come indicatore del successo di un’economia non è mai stata davvero messa in discussione da nessun governo, e lo spazio del welfare o dell’intervento pubblico, almeno in Occidente, si va riducendo, invece che aumentare. In Europa, il piano di riarmo delle istituzioni comunitarie e dei governi rischia di sostituire lo stato sociale e la transizione ecologica tra le prime voci dei bilanci pubblici del prossimo lustro. Eppure, le questioni poste dai teorici del benessere non sono venute meno. E mai come oggi si avverte la necessità di riconcepire la nostra idea di benessere. Il giorno seguente al blackout, i social spagnoli si sono riempiti di persone che, più o meno ironicamente, si interrogavano sul fatto che, tutto sommato, senza corrente non si stesse poi così male. I cittadini di un Paese ricco e sviluppato, in cui il PIL cresce e gli indicatori macroeconomici tradizionali sono tutti positivi, hanno salutato più con sollievo che con paura l’assenza di elettricità. Nemmeno il più radicale dei “decrescisti” proporrebbe di farne a meno, ma quelle reazioni rimandano ugualmente a una riflessione: quali precondizioni, quali servizi e quali opportunità rendono la vita di una persona soddisfacente? Siamo sicuri che il sistema in cui viviamo ci renda più felici di quanto ci faccia sentire in trappola? E ancora: quale economia può consentirci di utilizzare diversamente le nostre risorse, indirizzandole verso beni e servizi che, nel loro insieme, contribuiscano a costruire una società felice? L'articolo Da un’economia di crescita a una di cura proviene da Il Tascabile.
ambiente
Scienze
crescita
decrescita
ecologia