La questione ambientale

La questione ambientale è principalmente identificabile nel problema dell’inquinamento dell’aria, delle acque e del suolo. Generalmente si ritiene che la cosiddetta antropizzazione, cioè gli interventi operati dall’uomo sulla natura, sia la principale responsabile dell’inquinamento.
Per quanto riguarda il suolo, può essere inquinato da: scarichi industriali; liquami (escrementi solidi e liquidi) derivanti dagli allevamenti; fertilizzanti e pesticidi in agricoltura; rifiuti solidi non biodegradabili (plastica, alluminio); inquinanti dell’aria depositatisi con le piogge.
L’inquinamento dell’acqua sostanzialmente è determinato da: scarichi urbani; scarichi industriali non depurati; inquinamento del suolo filtrato nelle falde acquifere.
Le sostanze che si diffondono nell’aria possono derivare 1) dall’attività produttiva in senso stretto, che genera rifiuti, fumi, prodotti della combustione (anidride solforosa), combustibili fossili (anidride carbonica CO2) o 2) dall’utilizzazione di alcuni beni finali, ad esempio aerei, automobili (ossido d’azoto, monossido di carbonio, ossidi Nox) o il riscaldamento delle abitazioni.
Tali sostanze, oltre al peggioramento della salubrità dell’aria, determinerebbero anche effetti ulteriori, come ad esempio l’assottigliamento dello strato di ozono nell’atmosfera (da clorofluorocarburi) o la modifica delle temperature (riscaldamento globale in seguito alle emissioni di anidride carbonica, responsabili dell’effetto serra), con altre conseguenze a cascata: scioglimento dei ghiacciai e innalzamento del livello delle acque, desertificazioni, eventi metereologici estremi (uragani, cicloni), mutamento dei climi.



Tuttavia gli scienziati non hanno raggiunto un accordo su molte di queste conclusioni.
Innanzi tutto, non è vero che la storia umana recente sia caratterizzata da una progressiva crescita dell’inquinamento su tutto il pianeta. Nei paesi più sviluppati, grazie all’uso di tecnologie pulite, l’inquinamento si è ridotto. Da più di trent’anni l’inquinamento atmosferico nelle città europee e in quelle dell’America del nord (dove il trasporto pubblico soddisfa quote di domanda ancor più modeste che in Europa) è in graduale miglioramento. A Londra il picco di inquinamento dell’aria è stato raggiunto nel 1890: oggi l’aria è più pulita di allora. Negli Stati Uniti nel periodo 1980-2013 le emissioni di diossido di azoto (No2), usato dagli scienziati come proxy dell’inquinamento generale, si sono ridotte del 60%. Nell’Italia del nord la concentrazione delle polveri sottili, il PM10 che l’Organizzazione mondiale della Sanità considera il parametro più significativo per valutare gli effetti sulla salute, si è ridotta da 150-200 microgrammi/m3 agli attuali 40-50. A Milano dal 1976 al 2006 la concentrazione di polveri sottili si è ridotta del 70%.
Il “buco” nello strato di ozono sopra l’Antartico dal 2006 al 2013 si è ridotto del 30%.
Per quanto riguarda la temperatura, l’origine antropica del suo innalzamento non è certa. La tesi alternativa all’incidenza umana indica i fattori climatici naturali quali principali responsabili. Dal 1880 al 2015 l’aumento di temperatura è stato pari a 0,9 gradi centigradi, una variazione che, in un pianeta con una variabilità di 100 gradi (-50 ai poli, +50 all’equatore), rappresenta una notevole stabilità climatica, non un cambiamento. Un tale aumento è compatibile con una normale oscillazione. Inoltre non può produrre le catastrofi a esso imputate (aridità, piogge devastanti, tornadi). Il clima, fenomeno caotico per eccellenza, non può essere ridotto a un modello di laboratorio movimentato da un solo fattore, la quantità di CO2 antropogenica immessa nell’atmosfera. In ogni caso, nel periodo 1998-2014 non vi è stato alcun aumento della temperatura, né a terra né sugli oceani.
In secondo luogo, variazioni anche consistenti della temperatura sono stati una costante della vita terrestre, anche quando l’attività economica umana era inesistente o trascurabile. A partire dal 15.000 a.C. termina l’ultima era glaciale e la temperatura comincia a innalzarsi, di ben 15 gradi in un breve arco di tempo. Intorno al 14.000 a.C. questo processo si inverte bruscamente, con l’inizio di un periodo più freddo chiamato Dryas recente. A partire dal 9600 a.C. le temperature globali si innalzano di nuovo di 7 gradi in meno di un decennio. Dal medioevo si hanno notizie e testimonianze di secoli più caldi e di secoli molto più freddi di oggi. Fra l’800 e il 1300 le temperature sono mediamente di 3 gradi superiori a quelle odierne; il periodo 1450-1850 è stato definito ‘piccola era glaciale’. Le variazioni climatiche degli ultimi quattro secoli sono della stessa entità di quelle occorse nei quattro secoli precedenti. Il clima non è mai stato stabile; procede per salti, per scarti improvvisi, la cui durata è aperiodica. Ciò dipende da fattori naturali: il Sole, l’irregolarità dell’orbita terrestre, l’influenza del mare e la presenza delle nuvole, tuttora difficili da capire, anche se si ritiene che i fenomeni solari (le variazioni dell’attività) siano quelli che incidono maggiormente. Le macchie solari sono la manifestazione visiva dell’intensità dell’attività solare: nei periodi freddi infatti erano assenti, mentre nei periodi caldi erano presenti.
Fra il 1940 e il 1975, quando i livelli di gas-serra hanno cominciato ad aumentare, il clima si è leggermente raffreddato (qualcuno arrivò a prevedere una glaciazione).
Si dice che l’inverno 2006-2007 sia stato il più caldo per colpa del riscaldamento globale, ma poi si scopre che l’inverno del 1870 è stato altrettanto caldo. Vengono previste desertificazioni, ma da novembre 2008 ad aprile 2009 l’Italia ha registrato il record di piovosità degli ultimi 200 anni.
Nell’Artico le temperature sono in aumento, ma comunque inferiori a quelle degli anni ’30 del Novecento. Nell’Antartico sono in calo: l’aumento di 2 gradi riguarda la penisola antartica, che rappresenta solo il 2% dell’Antartico; e le cause, che provocano lo scioglimento di qualche iceberg, sono le correnti marine calde provenienti dalle zone più settentrionali e l’attività geotermica.
La fusione dei ghiacciai, un fenomeno effettivamente in atto, è in corso da 15.000 anni, e quindi non può essere dovuta alle attività umane. La Groenlandia, oggi terra glaciale, ai tempi dei Vichinghi era ricoperta di conifere (da cui il nome “Terra verde”). Lo studio delle carote di ghiaccio dell’Antartide e della Groenlandia rivela che la temperatura media della Terra è cambiata in misura anche sostanziale negli ultimi quattrocentomila anni.
È da ventimila anni che i livelli dei mari si elevano: da allora di circa cento metri.
Tutti questi esempi dimostrano che anche nei secoli passati, in cui l’attività industriale era assente o trascurabile, si sono sperimentati periodi più caldi di quello attuale: il che ridimensionerebbe le responsabilità dell’attività economica umana relativamente all’innalzamento delle temperature.
Infine, anche altri pianeti del sistema solare stanno sperimentando un aumento della temperatura: negli ultimi 20 anni su Marte la temperatura è salita di 0,6 gradi (L. Fenton, Nature); su Giove dal 2000 si sono formati nuovi cicloni in seguito al riscaldamento atmosferico; la superficie di Plutone dal 1993 al 2007 si è riscaldata di 1,9 gradi (Mit); la superficie di Tritone, una luna di Nettuno, nello stesso periodo di 2 gradi (telescopio Hubble). Astronomi e geofisici (J. Pasachoff, C. Stager) concordano sulla variazione della radiazione solare come causa principale di tale riscaldamento.

L’incidenza della natura sull’inquinamento
L’effetto serra è dato per il 51% dal vapor acqueo, per il 24% dalle nubi, per il 20% dall’anidride carbonica. Dell’anidride carbonica esistente nell’atmosfera, grande imputato dell’effetto serra, solo il 3,3% deriva dalle attività umane, mentre dagli oceani viene il 41,5%, dalla vegetazione terrestre il 27,5%, dal suolo e dai detriti il 27,5%.
I processi naturali come le eruzioni vulcaniche e la chimica degli oceani (evaporazione, vapor acqueo) immettono da soli annualmente nell’atmosfera circa 100 milioni di tonnellate di biossido di zolfo, una quantità pari a cinque volte quella prodotta dalle attività umane del più industrializzato stato del mondo.
E furono probabilmente le eruzioni vulcaniche la causa delle ricorrenti estinzioni di quasi tutti gli esseri viventi avvenute prima dell’avvento della civiltà umana. 357 milioni di anni fa venne distrutto il 30% delle specie viventi del pianeta. Durante il periodo Permiano – 250 milioni di anni fa – pare che sia stato spazzato via il 96% delle specie marine. 198 milioni di anni fa il 60% delle specie viventi. La causa principale furono le eruzioni vulcaniche, che provocano tuttora il grande inquinamento del pianeta.

Le catastrofi naturali
Per quanto riguarda la tesi secondo cui il riscaldamento globale provoca una enorme crescita di vittime a causa dei disastri climatici, l’IPCC nel 2012 ha prodotto un report in cui afferma che non solo non vi è un aumento nella frequenza di uragani o cicloni tropicali, ma non vi sono nemmeno evidenze scientifiche di correlazioni tra attività umane e tali eventi estremi. La Noaa, l’Agenzia sul controllo di oceani e atmosfera, ha riportato i dati sugli uragani dell’ultimo secolo, evidenziando che non ci sono differenze per numero e forza tra quelli della prima metà del ’900 e quelli della seconda metà. Per quanto riguarda gli ultimi anni, dopo un picco raggiunto nel 2000 il numero dei disastri naturali è in rapido calo. Nel 2014 è stato di 518, contro una media decennale di 631. L’energia dei cicloni tropicali, dopo aver raggiunto un picco negli anni ’90 del Novecento, ha manifestato un graduale calo e si colloca attualmente (2015) su valori inferiori a quelli del 1970.
Circa gli effetti delle catastrofi naturali, in base al rapporto della “Civil Society Coalition on Climate Change” le vittime dei disastri legati a eventi climatici sono in costante diminuzione. Il picco delle morti per disastro naturale si è avuto negli anni Venti del Novecento (circa 500.000 morti all’anno), e da quel momento è sceso: nel periodo 1990-2006 c’è stato un calo dell’87% rispetto al periodo 1900-1989, con una media di circa 19.900 morti nel periodo 2000-2006, e 13847 nel 2014. Questi dati confutano la teoria sulla natura buona e lo sviluppo umano cattivo: sono i miglioramenti dei sistemi di allerta, le più accurate difese dalle inondazioni, le costruzioni antisismiche e tutte le altre misure strettamente connesse allo sviluppo che hanno permesso di salvare milioni di vite, mentre a essere più vulnerabili sono i paesi meno sviluppati, in quanto meno dotati di sistemi ad alto tasso di tecnologia.

Le previsioni
Le previsioni riguardanti il clima, l’ambiente e le risorse naturali, spesso di intonazione catastrofista, non si sono quasi mai realizzate.
Scientificamente le previsioni climatiche di lungo periodo non hanno alcuna attendibilità, le interazioni fra le variabili sono troppo complesse.
Nel 1968 il biologo neomalthusiano Paul Ehrlich (The Population Bomb) predisse che la sovrappopolazione avrebbe determinato entro vent’anni carestie spaventose con decine di milioni di morti in più e “la morte per sete degli Stati Uniti”, a meno che non fossero state implementate politiche demografiche coercitive radicali.
Nel 1970 stabilì un’equazione per misurare l’impatto ambientale delle attività umane: numero degli abitanti di una data regione moltiplicato per il loro reddito pro capite e per il livello di tecnologia (tra l’altro impossibile da quantificare e concettualizzare). Le sue premonizioni non si sono realizzate, i dati sul degrado ambientale nelle diverse zone del mondo non coincidevano con i parametri stabiliti da Ehrlich.
Tutte le previsioni effettuate nel 1972 dal famoso Club di Roma nel rapporto “I limiti dello sviluppo” si sono dimostrate clamorosamente errate. Ad esempio, in esso si prevedeva che tutte le riserve minerali entro la fine del XX secolo si sarebbero esaurite, ciò che non è avvenuto.
Donella e Dennis Meadows nel 1972, in base al modello di simulazione al computer World3, predissero una progressiva carenza di cibo, che non si è verificata. Fra i vari limiti del modello, il più rilevante era l’assenza dell’innovazione tecnologica e dei prezzi. Grazie alla tecnologia oggi si produce molto più cibo di allora e un minor numero di persone muore di fame. Nel 1950 la Terra era in grado di produrre cibo appena per un miliardo e mezzo di persone, su una popolazione complessiva di due miliardi e mezzo; nel 2015 sei miliardi di persone – su un totale di 7 miliardi di abitanti – oggi hanno cibo a sufficienza. La produzione agricola dei Pvs dal 1961 al 2003 è cresciuta del 52%; l’assunzione quotidiana di calorie è passata da 1932 a 2650. La percentuale di persone che muoiono di fame si è ridotta dal 45% del 1949 al 15% del 2003. Secondo l’ultimo World Food Programme dell’Onu ben 70 paesi in via di sviluppo hanno raggiunto l’obiettivo di uscita dalla denutrizione nel 2015 [fonti Onu].
James Hansen, il padre del ‘riscaldamento globale’, nel 1988 presentò al parlamento americano una previsione sugli aumenti di temperatura conseguenti alle emissioni di CO2. Nello scenario migliore – tagli drastici di anidride carbonica a partire dal 1988 e nessuna crescita a partire dal 2000 – prevedeva nel 2012 un aumento di temperatura pari a 0,4 gradi centigradi. Nonostante le emissioni di CO2 siano aumentate, la temperatura non è cresciuta. I modelli climatici sovrastimano ampiamente gli effetti delle emissioni di CO2.
Al Gore, nel discorso in occasione del premio Nobel conseguito insieme all’Ipcc nel 2007, affermò che entro 7 anni il polo nord si sarebbe completamente sciolto: tuttavia nel 2014 l’estensione dei ghiacci era superiore a quella del 2007.
L’errore fondamentale degli ambientalisti apocalittici è di considerare le risorse come un oggetto quantitativamente limitato e dunque soggetto inevitabilmente a esaurimento. Le risorse invece sono beni resi utili dalla creatività umana. L’invenzione di nuove tecnologie consente di utilizzare nuove risorse o moltiplicare quelle esistenti. Il ferro, ad esempio, non è stata una risorsa per tutta l’Età della Pietra. Il carbone non è mai stato considerato una risorsa prima della rivoluzione industriale. L’alluminio, il radio e l’uranio sono diventati una risorsa solo agli inizi del ‘900. Il petrolio prima della metà dell’800 eraconsiderato solo una melma inquinante. Di esso, considerato a esaurimento imminente già verso la fine degli anni ’70 del Novecento, è continuato a crescere il consumo e la produzione, perché si scoprono nuovi giacimenti, migliorano le tecniche di estrazione, si inventano motori più efficienti che economizzano il carburante ecc. Oggi abbiamo riserve di petrolio note 15 volte superiori a quelle che erano note nel 1947. Questo vuol dire che oggi sulla terra (o in generale nell’universo) probabilmente esisteranno risorse inutilizzate, perché l’uomo non ha ancora scoperto la tecnologia adatta per sfruttarle, ma che in futuro potranno essere impiegate.

Gli interventi
Anche su questo punto la controversia è aperta. La teoria – e anche il senso comune – dominante considera l’inquinamento e in generale il deterioramento ambientale come un ‘fallimento del mercato’ (anzi, come il maggior fallimento del mercato). Per cui l’intervento regolativo e pianificatorio dello Stato è stato ritenuto l’unica soluzione possibile.
I tipi di intervento sono generalmente tre: regolamentazioni, tasse e sussidi.
I vincoli legislativi e regolamentari possono essere rappresentati dal divieto: di realizzare dighe, centrali elettriche o centrali nucleari; di edificazione; di circolazione automobilistica in certe zone e/o in certi orari; di produzione o commercializzazione di prodotti ogm; di utilizzazione del Ddt; da limiti nelle emissioni di gas serra (Protocollo di Kyoto).
Le tasse vengono imposte o sulle emissioni (carbon tax) o sulla produzione di beni ritenuti inquinanti (benzina, automobili, oli lubrificanti ecc.).
I sussidi sono indirizzati verso produzioni “verdi”, come il fotovoltaico.
Una corrente di pensiero opposta contesta le soluzioni individuate dall’ambientalismo, le quali si risolvono sempre in una progressiva estensione di tasse, sussidi, divieti, in legislazioni volte a collettivizzare, statalizzare e pianificare le attività umane, a imbrigliare la scienza e la tecnologia, con un atteggiamento punitivo nei confronti dello “sviluppo”. La pianificazione economica, sconfitta dalla storia, cerca di riproporsi con le vesti ambientaliste. L’ambiente è l’ennesima occasione fornita al ceto politico per rafforzare il controllo della vita sociale. Le organizzazioni ambientaliste, che accusano di connivenza con le lobby (petrolifere, nucleariste ecc.) chi dissente dalle loro tesi, sono anch’esse lobby, che ricevono finanziamenti maggiori (è il caso di Greenpeace) quanto più evocano ‘emergenze’ ambientali. Dottrine come lo “sviluppo sostenibile” o il “principio di precauzione” non si basano su alcun parametro oggettivo di valutazione, ma su concetti vaghi e nebulosi, criteri non scientifici e analisi economiche erronee.
Questa politica ha già provocato conseguenze molto negative, soprattutto per le popolazioni più povere.
I paesi che hanno sperimentato le peggiori catastrofi ambientali sono stati proprio i paesi socialisti a economia pianificata.
Nei paesi poveri, fermando la produzione di dighe o di centrali elettriche, gli ambientalisti costringono le persone a usare come combustibile il legno o gli escrementi animali per riscaldarsi o per la cottura dei cibi, ma così si inquina l’aria interna alle abitazioni: è stato calcolato che circa 4 milioni di bambini all’anno muoiono per le malattie respiratorie determinate da tale inquinamento.
I divieti temporanei della circolazione automobilistica non rappresentano una soluzione, in quanto la riduzione dell’inquinamento che ne consegue è trascurabile.
Un altro divieto viene invocato in nome della salubrità dei cibi, che sarebbe messa a repentaglio da interventi quali la modifica genetica (Ogm) o l’uso di antiparassitari, fertilizzanti, concimi chimici.
Per quanto riguarda gli organismi geneticamente modificati, sono alimenti derivati da piante transgeniche, cioè piante nelle quali è stato inserito un gene che non avevano o alle quali ne è stato modificato uno che già avevano. L’uomo da sempre ha modificato piante ed animali per migliorare il proprio benessere. Il frumento è stato ottenuto mettendo insieme tre diversi tipi di graminacee che crescevano spontaneamente nelle pianure irrigue e soleggiate; questo non era altro che un rimescolamento di geni diversi per produrre un diverso tipo di organismo.
Le piante hanno circa 100 mila geni; per un gene in più (o in meno) vengono definite transgeniche. Tuttavia non si capisce perché un gene fra centomila debba essere considerato dannoso per la salute di chi mangia tali piante, mentre non si è mai ritenuto dannoso il prodotto dell’incrocio di due piante quando il numero dei geni implicati in questa operazione era molto superiore.
In realtà i vantaggi della modifica genetica possono essere enormi: 1) produzione di piante che evitano o riducono il danno provocato da insetti, consentendo di non ricorrere a insetticidi e pesticidi; 2) produzione di piante che evitano il danno provocato dalle malerbe; 3) produzione di piante che possono resistere sia alla siccità sia alle gelate invernali; 4) produzione di piante con capacità nutritive superiori; 5) produzione di una maggiore quantità di beni alimentari. Dal 1985 al 2015 gli Ogm hanno nutrito più di un miliardo di persone, senza problemi per la salute.
Il Ddt era impiegato come insetticida nell’agricoltura. Il bando della produzione, voluto dall’Environmental Protection Agency nel 1972 per proteggere talune specie animali, ha causato una proliferazione della zanzara anofele e quindi l’insorgenza di nuove epidemie di malaria, che dagli anni ’70 ad oggi hanno provocato nell’Africa subsahariana circa 50 milioni di morti.
I divieti alla realizzazione di termovalorizzatori impedisce un’efficiente gestione dei rifiuti. Le centrali nucleari non generano gas serra, i divieti di realizzazione alimentano le produzioni di elettricità con combustibili fossili.
Il Protocollo di Kyoto – Sottoscritto nel 1997 ed entrato in vigore nel 2005, prevedeva la riduzione del 5% (rispetto al 1990) entro il 2012 delle emissioni di anidride carbonica per contrastare il riscaldamento globale. Poiché solo il 3,3% circa dei gas responsabili dell’effetto serra è originato da attività umana, per ottenere, dopo diversi decenni, un qualche effetto, la riduzione di anidride dovrebbe essere pari all’80%; il che comporta una riduzione del pil talmente drastica da comprimere gli standard di vita delle persone a livelli inaccettabili.
In realtà, nei prossimi 50 anni l’aumento medio della temperatura previsto (gruppo intergovernativo delle Nazioni Unite) senza l’applicazione del protocollo di Kyoto sarebbe pari a 1 grado centigrado, con l’applicazione di 0,94 gradi, dunque il vantaggio sarebbe solo di 0,06 gradi.
La cosiddetta green economy si risolve nel sostegno alla diffusione di turbine eoliche e pannelli fotovoltaici e nell’ostilità al nucleare. Tuttavia il vento non soffia con la continuità e l’intensità necessarie per la produzione di energia, e il sole non brilla con una continuità e un’intensità tali da consentire un rendimento accettabile ai pannelli solari. Per quanto riguarda poi i costi, gli impianti per l’eolico hanno un onere doppio di quello di un impianto nucleare, e il fotovoltaico venti volte di più (a parità di unità di energia prodotta).
Una posizione alternativa è quella che vede la soluzione del problema ambientale proprio in una più ampia assegnazione e rispetto dei diritti di proprietà. Se il sistema di mercato si è rivelato più efficiente dei sistemi collettivisti, non si vede perché non debba rivelarsi tale anche in materia di risorse come l’aria o l’acqua. La tesi centrale degli ecologisti di mercato è che il proprietario privato cura la propria risorsa ed è lungimirante relativamente ad essa in quanto è suo interesse assicurare un futuro al bene in suo possesso. Il principio del risarcimento del danno rappresenterebbe un deterrente nei confronti dell’inquinatore.
Connessa a tale soluzione è la fiducia nello sviluppo della tecnologia, cioè della libera ricerca, sperimentazione e applicazione di soluzioni scientifiche e tecniche. Negli Stati Uniti nel periodo 1990-2008 l’inquinamento dell’aria causato dall’industria manifatturiera pesante si è ridotto del 66%, a fronte di aumenti della produzione del 30%. Per il 90% la riduzione delle emissioni inquinanti (in particolare anidride solforosa e monossido di carbonio) è dovuta all’adozione di nuove tecnologie pulite. Le creatività di soggetti e imprese private, grazie agli incentivi forniti dai prezzi di mercato, sono convogliate verso l’individuazione di beni e produzioni con minore, o nullo, impatto ambientale. Gli Stati invece tendono a frenare l’innovazione, perché questa minaccia i privilegi che essi hanno assegnato alle grandi imprese compromesse col potere pubblico.

P. Vernaglione, Il libertarismo applicato ai singoli temi - La questione ambientale, in Rothbardiana, http://rothbard.altervista.org/teoria/ambiente.doc

Commenti