SlideShare a Scribd company logo
1 of 105
Download to read offline
Alma Mater Studiorum – Università di Bologna
FACOLTA’ DI SCIENZE POLITICHE
Corso di laurea magistrale in
Economia, Industria e Istituzioni Finanziarie
Tesi di Laurea in
Economia Industriale Avanzata
INNOVAZIONE VERDE E CRESCITA SOSTENIBILE:
UNA PROSPETTIVA TEORICA
Candidato Relatore
Chiar.mo Prof.
Nico Scagliarini Luca Lambertini
Sessione III
Anno Accademico 2010/2011
“Sell the kids for food
weather changes moods
spring is here again
reproductive glands.
He's the one who like all the pretty songs
and he likes to sing along
and he likes to shoot his gun
but knows not what it means.
We can have some more
nature is a whore
bruises on the fruit
tender age in bloom.”
NIRVANA
Introduzione
“Ridurre le emissioni a livelli tali da impedire interferenze umane dannose per
il sistema climatico, considerando la crescita economica e demografca,
richiederà cambiamenti sostanziali nell'utilizzo dell'energia, che includano
innovazione tecnologica e miglioramento dell'effcienza, della conservazione
e delle fonti di energia alternative … ma i paesi non hanno tutti lo stesso
interesse nel ridurre le emissioni, né la loro infuenza è egualmente
signifcativa.” (Baumert et al., 2005, pag.2, traduzione).
Alla fne del 2011 a Durban si svolgeva la Conferenza sul Clima delle Nazioni Unite. Questa
si è conclusa con l'adozione di una piattaforma programmatica per il raggiungimento di un
accordo globale che entro il 2015 subentri alla scadenza al Protocollo di Kyōto, e di un
progetto per l'istituzione di un Fondo Verde, volto a fnanziare politiche per la riduzione delle
emissioni nei paesi in via di sviluppo. Per quanto la crisi economica abbia avuto nell'ultimo
periodo una risonanza mediatica decisamente maggiore rispetto ai problemi ambientali, le
due questioni non sono affatto scollegate: gli effetti di un generalizzato incremento delle
temperature sul sistema economico-produttivo possono sembrare marginali, o comunque
molto dilazionati nel tempo, ma basta una rapida occhiata ai dati su cause e conseguenze
del global warming per convincersi del contrario. L'intento di questa tesi è quello di chiarire
questa relazione, dimostrando che le emissioni antropogeniche di gas serra e i loro effetti
sul clima del pianeta sono a tutti gli effetti un problema economico: sono esternalità
negative e, come afferma Nicholas Stern, sono “il più grande fallimento del mercato che il
mondo abbia mai visto” (Stern, 2009, p.11, traduzione). Poiché introdurre misure di
mitigazione delle emissioni, attraverso l'investimento in ricerca e sviluppo, la riduzione della
produzione o il versamento di tasse compensative dell'inquinamento ha un costo, il
problema della loro riduzione delle emissioni prende la forma di un dilemma del prigioniero:
esiste la possibilità di equilibrio effciente in senso paretiano ma in mancanza di una
regolamentazione questo non verrà mai raggiunto dall'interazione spontanea degli agenti
sul mercato. Senza l'intervento di un pianifcatore sociale benevolo che consideri la qualità
ambientale (o l'esternalità negativa dovuta alle emissioni) nella sua funzione obiettivo, né i
consumatori né i produttori avranno un incentivo suffciente per autotassarsi in modo da
conseguire autonomamente l'ottimo sociale.
L'idea di fondo è che senza tenere conto del cambiamento climatico è impossibile pensare
di programmare crescita economica, né per i paesi in via di sviluppo né tantomeno per
quelli già sviluppati o le economie emergenti. Non solo le variabili climatiche ambientali
hanno un effetto diretto sulla produzione, ma entrambe interagiscono necessariamente
anche con la componente demografca: più persone nel mondo signifca più consumo,
quindi più fabbisogno energetico e alimentare da soddisfare, il che porta a sua volta ad una
maggiore pressione sulle risorse naturali, con conseguenti implicazioni geopolitiche
potenzialmente confittuali. É quindi in concomitanza con una crisi economica
generalizzata e un'uffcializzata recessione in Europa, come dichiarato il 23 febbraio 2012
dalla Commissione Europea, che diventa ancora più importante pianifcare la crescita in
modo da minimizzare sia il rischio che l'incertezza derivanti dalle variabili climatiche,
demografche ed energetiche.
Il Capitolo I spiega il cambiamento climatico come fenomeno: il susseguirsi di ricerche
scientifche che ha condotto alla sua scoperta e come è diventato oggetto di interessi
politici ed economici, a partire dai trattati internazionali al riguardo, come il Protocollo di
Kyōto e quello di Montreal.
Illustra quali sostanze ne siano responsabili, le loro caratteristiche e la loro concentrazione
atmosferica e quali siano i paesi e settori produttivi che hanno rilasciato, rilascano e
probabilmente rilasceranno, la maggior quantità di queste sostanze nell'atmosfera. Dopo le
cause, vengono descritti gli effetti, e i diversi possibili scenari per il futuro, a seconda
dell'applicazione o meno di misure di mitigazione, secondo le diverse tempistiche di
intervento, e le possibili forme di questo intervento, come la sostituzione dei combustibili
fossili con fonti di energia rinnovabili e l'incremento dell'effcienza energetica. Infne, viene
introdotto il concetto dal punto di vista economico attraverso le possibili implicazioni per la
crescita.
Il Capitolo II analizza le politiche di mitigazione attraverso gli strumenti teorici dell'Economia
Industriale: dopo una breve introduzione delle teorie necessarie alla comprensione dei
modelli analizzati nei Capitolo II e III. Vengono poi illustrati dettagliatamente due modelli (e
in breve un terzo) che dimostrano come le politiche governative possano migliorare il
benessere sociale correggendo le imperfezioni del mercato. Nel primo modello (Lombardini-
Riipinen, 2005) queste imperfezioni sono dovute alle emissioni, dall'asimmetria del prodotto
(i due beni sono ordinati in base alla qualità ambientale) e al fatto di trovarsi in una
condizione di duopolio. Si illustra come senza l'intervento dello stato si raggiunga
l'allocazione ottimale dei consumi ma non il massimo benessere sociale. Affinché ciò
avvenga è necessario che il pianificatore sociale applichi una tassa ad valorem uniforme
sull'output e una tassa sulle emissioni/sussidio per l'acquisto del bene a qualità ambientale
maggiore. Nel caso sia possibile applicare solo una delle due politiche il benessere sociale
aumenta rispetto al caso di duopolio non regolato ma non è massimizzato, e si dimostra che
l'equilibrio di second-best è possibile solo quando le emissioni hanno un'influenza solo
marginale sul benessere sociale. Questo introduce lo spazio per altre politiche, come quelle
a favore della ricerca e sviluppo, delle quali si occupa il secondo modello (Poyago-Theotoky,
2007). Anche in questo caso esistono due imprese con potere di mercato, che producono
emissioni che vanno a danneggiare in benessere sociale e possono investire in ricerca e
sviluppo, ma poiché c'è spillover informativo, l'investimento sarà subottimale. Vieni
dimostrato che quando le imprese collaborano in materia di ricerca e sviluppo, formando un
cartello, il benessere aumenta, e aumenta quanto più l'informazione è condivisa.
Alla fine del capitolo vengono introdotti i limiti dell'approccio dell'economia industriale rispetto
ai problemi che le politiche di mitigazione devono affrontare nella realtà: la credibilità del
governo, gli orizzonti temporali prolungati e la crescita economica.
Il Capitolo III presenta innanzi tutto il modello di crescita endogena di Ramsey-Cass-
Koopmans, e poi analizza modelli che combinano la dinamica di accumulazione del capitale
con l'interazione tra i produttori e il pianificatore sociale che impone una tassa. Il primo
modello (Dragone et al., 2008) vede N imprese oligopolistiche che non internalizzano le
proprie emissioni, e quindi il governo impone una tassa per massimizzare il benessere
sociale: quanto l'esternalità dipende dal consumo è possibile raggiungere l'ottimo livello
sociale, quando invece l'esternalità dipende dalla produzione questo non è possibile. Il
modello successivo (Xie, 1997) non solo affronta la questione della time consistency, ma
risolve anche la questione della provenienza delle emissioni poiché i produttori sono anche
consumatori, e questi interagiscono con il governo che massimizza il benessere sociale
imponendo una tassa sull'output che viene reinvestita in un generico bene pubblico, che è in
questo caso interpretato come la qualità ambientale. Viene dimostrato che, in alcuni casi
parametrici, è possibile individuare un livello di tassazione che sia time consistent che
efficiente in senso paretiano, in quanto indipendente dall'output.
Il quarto e ultimo capitolo analizza invece come tali strumenti teorici siano stati applicati nella
realtà, sia a livello di elaborazione di politiche più complesse e strutturate come gli schemi di
cap&trade nei paesi industrializzati, sia a livello di iniziative locali sia nei paesi industrializzati
(in particolare all'interno della Comunità Europea) sia a livello di progetti avviati nei paesi in
via di sviluppo e meno sviluppati, con la collaborazione delle organizzazioni internazionali.
Capitolo I
Guida Rapida al Global Warming
“Enjoy yourself, is later than you think”
THE SPECIALS
1.1 Il cambiamento mediatico
Quando ci si avvicina allo studio delle tematiche ambientali, sia dal punto di vista scientifco
che da un punto di vista politico-economico, risulta evidente una cosa: diffcilmente coloro
nati a cavallo tra la fne degli anni '80 e l'inizio degli anni '90 del secolo scorso erano ne
erano a conoscenza o si erano mai veramente interrogati al riguardo, prima dell'uscita di
flm come il documentario An Inconvenient Truth (Davis Guggenheim, 2006), o del
catastrofco The Day After Tomorrow (Roland Emmerich, 2004). Quello che io e miei
coetanei sapevamo sull'ambiente era che bisognava riciclare plastica, carta e vetro, fermare
la deforestazione e proteggere le specie in via di estinzione. Sapevamo che alcune
macchine hanno un carburante diverso dalle altre, che bisogna chiudere il rubinetto mentre
ci si lava i denti e mangiare sempre tutto pensando ai bambini che pativano le carestie in
Africa. Quando siamo diventati un po' più grandi abbiamo sentito parlare di guerre
combattute per il petrolio e dell'esistenza di fonti di energia rinnovabili: abbiamo sempre
avuto cognizione di cosa fosse più giusto o tendenzialmente sbagliato, ma diffcilmente ci
siamo interrogati sul perché. O se tutti questi fenomeni fossero tra di loro collegati.
Delle due pellicole citate, la seconda è sicuramente meno informativa ed allarmante
(essendo uno strumento di intrattenimento, e non di informazione) ma decisamente più
d'impatto, almeno per il numero di spettatori che è stata in grado di raggiungere. Inoltre le
premesse su cui si basa la trama sono del tutto verosimili: è vero che lo studio del clima si
basa su modelli computerizzati, e che, come detto nel paragrafo precedente, parte dallo
studio delle cause delle glaciazioni. Ed è vero che clima della regione Nord Atlantica
dipende dalle correnti oceaniche. L'acqua più calda e ricca di sale si sposta dalle zone
equatoriali a quelle polari dove a causa dello stagionale scioglimento dei ghiacci l'acqua è
più fredda e meno salina; qui l'acqua si raffredda e sprofonda per poi tornare verso sud: in
questo modo le aree più fredde si riscaldano e quelle più calde si rinfrescano. Perciò, quello
che potenzialmente può rallentare o fermare la corrente è l'aumento della quantità di acqua
dolce e fredda dovuto ad un maggiore scioglimento dei ghiacciai a causa dell'innalzamento
delle temperature. Questo comporterebbe sostanzialmente meno redistribuzione del calore
attraverso l'emisfero, con inverni più rigidi nel nord e estati più calde e con maggiori
precipitazioni più a sud. É evidente che un tale cambiamento non può avvenire da un giorno
all'altro come nel flm, e che nonostante l'innalzamento della temperatura media mondiale
non è previsto in tempi imminenti nessuno scioglimento dei ghiacci suffcientemente ampio
da fermare la corrente del Golfo (Smith, 2010, pagg. 288-231), nonostante il fenomeno in
questione (e il direttamente correlato di innalzamento del livello del mare) resti la maggiore
fonte di incertezza riguardo alle previsioni sui futuri effetti del surriscaldamento globale
(Climate Change 2007: Synthesis Report, IPCC, p.73).
Il cinema non è stato l'unico media a portare l'attenzione sui potenziali rischi del global
warming: da qualche anno a questa parte i fenomeni atmosferici e naturali sono diventati
più assidui e intensi, tanto che è diventato impossibile non notare l'interconnessione tra
essi e l'innalzamento delle temperature. Ad inaugurare la lunga serie di prime pagine,
l'uragano Katrina nel 2005, anno che ha registrato record sia per quanto riguarda la
temperatura media, sia per quanto riguarda la frequenza e l'intensità dei cicloni tropicali. A
seguire l'uragano Ike che ha colpito gli Stati Uniti e Cuba, le violente alluvioni anche che
hanno colpito la costa orientale dell'Australia nel 2011 e nel 2012 (prima in Queensland poi
in il New South Wales) e, ad inizio 2012, la Thailandia. Il cambiamento climatico tuttavia non
è uniforme: se da un lato aumentano le piogge, altrove diminuiscono. In California, in
Australia e in Grecia nell'estate del 2009, si sono verifcati numerosi incendi, senza contare
la prolungata siccità nel Corno D'Africa e nel nord ancora dell'Australia.
Gli scienziati hanno impiegato secoli ha mettere in relazione tutti questi fenomeni, su quali
esistono ancora margini di incertezza, e solo in tempi recentissimi sono riusciti a convincere
anche buona parte dei politici e dell'opinione pubblica che il prendere provvedimenti per
mitigare gli effetti del cambiamento climatico non è più un'opzione, ma una necessità.
1.2 Breve storia della scoperta del cambiamento climatico
Quando si parla fenomeni atmosferici è necessario innanzitutto distinguere tra meteorologia
e climatologia: la prima si riferisce allo studio degli stati localizzati e temporanei
dell'atmosfera e al tentativo di prevederli nel breve periodo. La seconda studia l'andamento
delle temperature e dei fenomeni atmosferici nel lungo periodo, e riguarda sia le previsioni
per il futuro che la ricostruzione di quanto avvenuto in passato. Il cambiamento climatico è
infatti un fenomeno integrante del nostro ecosistema e sin dall'inizio dei tempi si sono
alternati periodi in cui il pianeta era molto più caldo, come all'epoca dei dinosauri, o molto
più freddo, come durante le era glaciali. Fu proprio nel tentativo di spiegare come
quest'ultime avessero potuto verifcarsi che nel XIX secolo videro la luce i primi studi sul
clima.
All'inizio del'800 il francese Joseph Fourier, chiedendosi come la luce solare potesse
scaldare la superfcie terrestre ma non incenerirla portandola a temperature pari a quella del
sole stesso, scoprì una radiazione proveniente dalla superfcie del nostro pianeta capace di
convogliare questo calore verso lo spazio. Fourier intuì anche che l'atmosfera terrestre era
in grado di intrappolare parte di questo calore, ma furono i successivi studi del britannico
John Tyndall a spiegare più dettagliatamente questo fenomeno, che conosciamo con il
nome di effetto serra.
In pratica, la terra assorbe le radiazioni solari ed emette delle radiazioni infrarosse della
stessa intensità per bilanciare la temperatura, ma parte di queste radiazioni viene trattenuta
dai cosiddetti gas serra che si trovano nella troposfera e mantengono la superfcie terrestre
più calda di quanto sarebbe se tutta l'energia irradiata dalla terra venisse dispersa nello
spazio. I principali gas serra esistenti in natura, indipendentemente dalle attività umane,
sono il vapore acqueo (H2O) e l'anidride carbonica (CO2), seguiti in quantità assai minori da
metano (CH3) e protossido di azoto (N2O). Un altro gas importante è l'ozono (O3), una forma
allotropica dell'ossigeno la cui presenza della stratosfera forma una sorta di strato protettivo
che fltra il passaggio dei raggi solari, quindi, contrariamente a quanto avviene per gli altri
gas appena elencati, la temperatura aumenta quando se ne trova di meno.
Oggi sappiamo che variazioni delle quantità di queste sostanze contenute nell'atmosfera
hanno effetti a catena sul clima: un aumento della concentrazione di CO2 comporta un
aumento delle temperature, e un'atmosfera più calda trattiene più umidità, e quindi l'effetto
serra si intensifca. Sappiamo inoltre che alcune sostanze utilizzate dall'uomo liberano
nell'atmosfera molecole che decomponendosi distruggono quelle di ozono. Allora invece la
convinzione generale era che l'effetto serra stesse già esprimendo il suo massimo
potenziale e quindi le futtuazioni delle quantità di anidride carbonica nell'atmosfera non
avrebbero avuto nessun effetto sulle temperature, mentre gli oceani avrebbero assorbito
qualunque ammontare di CO2 in eccesso. Il potenziale riscaldamento globale sarebbe
quindi stato attribuito esclusivamente ad un aumento dell'umidità dell'atmosfera. Tutte
queste ragioni, in aggiunta alle diffcoltà di misurazione e all'ancora contenuto livello di
emissioni inquinanti, ne resero lo studio una disciplina marginale e poco approfondita per
molti decenni.
A partire dai primi anni della Guerra Fredda la ricerca scientifca assunse una nuova
dimensione strategica: la necessità di aggiudicarsi un primato sulla potenza rivale spinse
entrambi i blocchi a promuovere e fnanziare la ricerca scientifca non solo nel campo degli
armamenti e quello aerospaziale, ma anche in materia di meteorologia, fsica, geochimica e
oceanografa. Fenomeni come il clima e le correnti sono però intrinsecamente internazionali
e interdisciplinari e una loro conoscenza approfondita non può prescindere dalla
collaborazione sia tra governi che tra individui. Fu proprio grazie all'idea di alcuni scienziati
che tra il 1957 e il 1958 gli studi sulle emissioni di CO2 si intensifcarono sotto la bandiera
dell'Anno Internazionale della Geofsica, tramite il quale era stato possibile raccogliere fondi
e avviare un processo di cooperazione, almeno in campo scientifco, tra le due potenze.
Gli studi combinati del chimico Hans Seuss e dell'oceanografo Roger Revelle illustrarono
che anche se parte dell'anidride carbonica viene effettivamente assorbita dagli oceani,
questo processo richiede migliaia di anni (molto di più di quanto si pensasse in precedenza)
e che comunque la maggior parte di queste particelle, concentrata in superfcie, viene
nuovamente rilasciata nell'atmosfera attraverso l'evaporazione. Furono però le misurazioni
effettuate dal geochimico Dave Keeling grazie ai nuovi strumenti piazzati alle Hawaii e in
Antartide a confermare che la quantità di anidride carbonica nell'atmosfera stava
aumentando di anno in anno, e il collegamento tra l'aumento delle temperature e l'aumento
delle emissioni iniziò fnalmente ad essere considerato come una possibilità
scientifcamente fondata e non più solo una remota ipotesi (Weart, 2003, pagg. 40-60).
Parallelamente proseguivano le indagini sulle cause delle ere glaciali: dallo studio dei
cambiamenti climatici del passato attraverso i pollini e il radiocarbonio contenuti nel suolo
si passò a domandarsi se il clima potesse nuovamente cambiare e con che rapidità, visto
che in passato il processo aveva richiesto millenni. Mentre alcuni scienziati si chiedevano se
e quando sarebbe fnito il periodo interglaciale, altri analizzavano la relazione fra la
temperatura terrestre e la presenza o meno dei ghiacci polari, delle correnti oceaniche e dei
gas nell'atmosfera. Nessuna delle tre parti del quesito aveva ancora una risposta
scientifcamente fondata ma almeno l'ultima era sotto gli occhi di tutti: l'inquinamento era
visibile ad occhio nudo e la presenza di sostanze oscuranti nell'atmosfera aveva sia un
effetto distorsivo sulla luce solare che giungeva sulla terra, sia sull'ambiente sottostante.
Ancora però non si sapeva di preciso quali fossero questi effetti, tanto che a metà degli anni
'70 una nuova imminente era glaciale era ritenuta possibile tanto quanto l'innalzamento
delle temperature.
Proprio in quegli anni le preoccupazioni riguardo l'inquinamento atmosferico e
l'approvvigionamento energetico (in particolare a partire dalla crisi petrolifera del 1973)
avevano rimpiazzato l'entusiasmo per l'industrializzazione e il boom economico (nonché la
fobia per l'apocalisse nucleare) che avevano dominato le agende politiche e turbato il
sonno dell'opinione pubblica per il ventennio precedente. Questo nuovo interesse per
l'argomento permise agli scienziati di creare gruppi di pressione e di ottenere fnanziamenti
dai rispettivi governi. La disponibilità di fondi permise di dimostrare il collegamento fra la
deforestazione e la maggiore quantità di CO2 nell'aria, in quanto la vegetazione abbattuta
non solo cessa di assorbire anidride carbonica, ma decomponendosi ne produce altra.
Venne via via allontanata anche l'ipotesi di un possibile abbassamento delle temperature,
mentre appariva sempre più probabile il suo innalzamento (Weart, 2003, pagg. 109-115).
Questa crescente consapevolezza dei rischi legati all'inquinamento atmosferico portò nel
1988 all'istituzione, in sede alle Nazioni Unite, del Intergovernmental Panel on Climate
Change (IPCC). Organo di collaborazione tra a United Nations Environment Programme
(UNEP, fondata nel 1972) e la World Metheorological Organization (WMO, fondata nel 1950),
il suo scopo era, ed è tuttora, la raccolta di informazioni scientifche sul cambiamento
climatico inteso come “un cambiamento climatico nello stato del clima che possa essere
identifcato attraverso variazioni nella media e/o nella variabilità delle sue proprietà e che
persista per un esteso periodo di tempo” (Climate Change 2007: Synthesis Report, IPCC,
p.30, traduzione). All'IPCC possono partecipare tutti i paesi membri dell'Onu, anche quelli
non aderenti alla UNFCCC e al Protocollo di Kyōto, con l'unico limite di attenersi alle
tecniche e alle unità di misurazione stabilite dalle Conferenze delle Parti e di riportare
annualmente i dati, in modo che essi siano comparabili e il più possibile aggiornati. I suoi
periodici rapporti sono probabilmente la più completa e precisa fonte di informazioni sullo
stato del clima mondiale.
1.2 Il cambiamento climatico nella diplomazia internazionale
Dopo la pubblicazione del primo rapporto dell'IPCC, nel 1990, iniziarono i negoziati per la
United Nations Framework Convention on Climate Change (UNFCCC), che si propone
come obiettivo “la stabilizzazione delle emissioni di gas serra nell'atmosfera ad un livello che
permetterà di prevenire pericolose interferenze antropiche con il sistema climatico”
(UNFCCC, pag. 9, traduzione). La defnizione di cambiamento climatico adottata in questa
sede è diversa dalla precedente: “cambiamento climatico ... è attribuito direttamente o
indirettamente all'attività umana e che altera la composizione dell'atmosfera globale e che si
aggiunge alla naturale variabilità del clima osservata su periodi di tempo comparabili”
(UNFCCC, pag. 7, traduzione). Veniva così uffcialmente introdotta la separazione fra
emissioni e cambiamento climatico come fenomeni naturali ed emissioni e cambiamento
climatico dovuti alle attività umane.
Secondo l'IPCC (Climate Change 2007: Synthesis Report, p.72), infatti:
”Il riscaldamento del sistema climatico è inequivocabile, ed è oramai evidente dalle
osservazioni degli incrementi nella temperatura media dell'aria e degli oceani, dal
diffuso scioglimento della neve e dei ghiacci e nell'innalzamento medio globale del
livello del mare.”
Dall'approvazione del trattato UNFCCC, nel 1994, si sono tenute 17 Conferenze delle Parti
(l'ultima a Durban nel Novembre 2011), la terza delle quali ha visto, nel 1997, l'approvazione
formale del Protocollo di Kyōto, con il quale gli stati frmatari si impegnarono a limitare le
emissioni con l'obiettivo di “promuovere lo sviluppo sostenibile”. Per farlo devono:
• implementare e/o elaborare politiche e misure in accordo con le circostanze
nazionali, come ad esempio:
◦ il miglioramento dell'effcienza energetica nei settori rilevanti dell'economia
nazionale;
◦ la protezione e il miglioramento del decadimento e delle riserve dei gas serra
non controllati dal Protocollo di Montreal1
, tenendo in considerazione gli obblighi
derivanti da accordi internazionali sull'ambiente, promozione delle pratiche di
gestione sostenibile delle foreste, forestazione e riforestazione;
◦ promozione di forme di agricoltura sostenibile alla luce delle considerazioni sul
cambiamento climatico;
◦ ricerca su, promozione, sviluppo e maggior utilizzo delle fonti di energia nuove e
rinnovabili, delle tecnologie di cattura dell'anidride carbonica e delle nuove e
innovative tecnologie sicure per l'ambiente;
◦ progressiva riduzione o eliminazione delle imperfezioni di mercato, incentivi
fscali, tasse ed esenzioni e sussidi in tutti i settori ad alto livello di emissioni che
1Il Protocollo di Montreal sulle Sostanze che impoveriscono lo strato di Ozono fu concluso nel 1987 ed insieme alla Convenzione di Vienna per la
Protezione dello Strato di Ozono del 1985 è uno dei primi documenti internazionali ad affrontare la questione dei gas serra e del riscaldamento
globale. Prevedeva l'elaborazione di uno schema per la totale rimozione dei gas clorofuorocarburi (in breve CFC: quelli delle bombolette spray,
per intenderci) entro il 2030, i quali pertanto non fgurano nell'Annesso A del Protocollo di Kyōto.
ostacolano gli obiettivi della Convenzione [UNFCCC n.d.a.] e l'applicazione degli
strumenti di mercato;
◦ incoraggiamento e appropriate riforme nei settori rilevanti, volte a promuovere
politiche e misure che limitano o riducono le emissioni di gas serra non
controllate dal Protocollo di Montreal;
◦ limitazione e/o riduzione delle emissioni di metano attraverso il recupero e l'uso
nella gestione dei rifuti, ma anche nella produzione, nei trasporti e nella
distribuzione di energia;
• l'effcacia delle politiche e delle misure … A questo fne le Parti devono condividere
le proprie esperienze e scambiarsi informazioni su tali misure e politiche, nonché
sviluppare metodi per il miglioramento della loro confrontabilità, trasparenza ed
effcacia (Protocollo di Kyōto, art. 2, traduzione).
L'obiettivo era la stabilizzazione delle emissioni ad un livello globale considerato sicuro, il
che implicava grosse riduzioni per alcuni paesi (dell'8% come nel caso dell'Unione
Europea) o anche incrementi per altri (del 10% per l'Islanda), nel periodo tra il 2008 e il
2012, con riferimento ai livelli di emissioni registrati nel 1990 (Baumert et al., 2005, p.3). Gli
strumenti da utilizzarsi a questo scopo sono i cosiddetti meccanismi di Kyōto:
• il commercio delle emissioni, che prevede che i paesi che non raggiungono il tetto
massimo di emissioni previste possano “vendere” a paesi che invece la superano la
loro quota di emissioni non utilizzate;
• il meccanismo di sviluppo pulito, che prevede che i paesi frmatari possano
promuovere progetti di sviluppo sostenibile in paesi in via di sviluppo;
• l'implementazione congiunta, che prevede la collaborazione su progetti di sviluppo
sostenibile tra paesi considerati avanzati.
Dall'articolo 2 del si evincono alcuni concetti importanti e alcune debolezze dell'approccio.
Innanzi tutto il le “misure in accordo con le circostanze nazionali” prevedono la distinzione
tra i paesi avanzati dell'Annesso I, tra quali però risultano alcuni paesi in “transizione verso
un'economia di mercato” (EIT), per i quali i target di riduzione delle emissioni sono
ridimensionati. I paesi non-Annesso I sono invece i paesi defniti in via di sviluppo, e
comprendono anche 49 paesi meno sviluppati (LDC): essi sono monitorati ed aderiscono al
Protocollo, ma non sono legalmente vincolati alla riduzione delle emissioni. Tra questi anche
Cina e l'India, che sono tra i primi 25 paesi per livello assoluto di emissioni di gas serra.
Nello specifco i paesi EIT sono quelli che erano membri dell'ex Unione Sovietica e
sarebbero quindi liberi di inquinare di più, o comunque ridurre meno le proprie emissioni.
Tale misura è comprensibile, considerando la necessità di creare un livello di benessere
adeguato nei paesi in questione e che le energie rinnovabili e le innovazioni citate
nell'articolo richiedono costi di ricerca e sviluppo che diffcilmente paesi reduci dallo
smembramento dell'URSS sarebbero stati in grado di affrontare. Inoltre dove c'è poca
produzione ci sono anche poche emissioni. Pertanto, in confronto agli altri frmatari, i paesi
“in transizione” inquinavano di meno. Tuttavia, l'arretratezza di queste economie poteva
anche essere interpretata come un'opportunità di sviluppo sostenibile ex-novo: se per i
paesi con economie di mercato già avviate si parla di “riforme nei settori rilevanti”, dove
questi settori non erano ancora sviluppati, non sarebbe stato forse più semplice seguire da
subito un modello di produzione eco sostenibile, invece che replicare il modello esistente e
poi riformarlo? Lo stesso si può affermare riguardo ai paesi non-Annesso I, a maggior
ragione se si considerano nazioni in rapidissima crescita sia economica che demografca
come appunto Cina e India. Questo tema è stato oggetto di un working paper del World
Resource Institute pubblicato nel dicembre 2011 (Levin e Finnegan, “Assessing Non-Annex
I Pledges: Building a Case for Clarifcation”) dove si sostiene la necessità di imporre vincoli
precisi anche a questi paesi, oltre che ad adottare criteri di misurazione delle emissioni
specifci, poiché, come verrà spiegato più avanti, la composizione delle emissioni è diversa
a seconda del tipo e di livello di sviluppo dell'economia. Rilevante anche il caso degli Stati
Uniti, che non hanno mai ratifcato il trattato pur essendo il paese che produce più
emissioni al livello assoluto e che ne ha prodotte di più tra il 1850 e il 2002 (Baumert et al.,
2005, pagg. 12 e 32).
Di fatto, nonostante la partecipazione quasi universale al Protocollo e alle relative
contrattazioni, è molto diffcile garantirne e verifcarne l'effettiva applicazione, tanto più che
si è giunti alla scadenza del periodo di impegno previsto. Durante la conferenza di Durban,
oltre a ribadirsi la necessità di un nuovo protocollo per garantire la continuità degli impegni:
“[si è] ... notato con grande preoccupazione il gap tra l'effetto aggregato delle
forme di mitigazione applicate dalla Parti in termini di emissioni annuali dei gas
serra entro il 2020 e le previsioni sulle emissioni consistenti con la possibilità di
mantenere l'innalzamento delle temperature globali medie rispetto all'era pre-
industriale al di sotto di 1,5° o 2°...”
(Establishment of an Ad Hoc Working Group on the Durban
Platform for Enhanced Action, p.1, UNFCC COP-17)
Quindi non solo bisogno continuare ad applicare le misure di mitigazione, ma è
necessario incrementarne l'effcacia e la diffusione con lo scopo di ridurre anche fno al
40% le emissioni di gas serra rispetto all'anno di riferimento (il caso della Norvegia,
secondo le proposte di emendamento al Protocollo di Kyōto elaborate a Durban), oltre
all'auspicio della futura partecipazione degli Stati Uniti.
Tra le altre novità introdotte a Durban c'è anche l'introduzione tra i gas serra
riconosciuti del triafuoruro di azoto (NF3), il quale però non si trova nelle statistiche
sulle emissioni né sulle proiezioni in quanto non rientra ancora uffcialmente fra le
sostanze considerate pericolose (nonostante un GWP pari a 17200 sull'orizzonte di 100
anni2
), in quanto è il suo utilizzo è stato introdotto solo di recente in sostituzione di altri
gas serra e nella costruzione di parti elettroniche come gli schermi a cristalli liquidi
(Morgan, 2008).
Vale infne la pena di menzionare che dal 2004 anche la Comunità Europea si è dotata
di un meccanismo di monitoraggio delle emissioni e di implementazione del Protocollo
di Kyōto (che segue le linee guida dell'IPCC) e nel 2010 è stato istituito il Direttorato
Generale per l'Azione sul Clima (DG CLIMA), con lo scopo di guidare le trattative
internazionali sul clima, perseguire gli obiettivi di riduzione delle emissioni oltre che
sviluppare ed implementare lo schema di Trading Europeo delle emissioni (EU ETS).
1.3 I colpevoli
L'Annesso A del Protocollo di Kyōto identifca i seguenti gas antropici:
• anidride carbonica (CO2);
• metano (CH4);
• protossido di azoto (N2O);
• esafuoruro di zolfo (SF6);
• i gas perfuorocarburi (PFC) e idrofuorocarburi HFC).
Gli ultimi tre tipi di gas sono anche detti gas fuorinati e a differenza degli altri la loro
presenza nell'atmosfera non interferisce sul calore in uscita da pianeta, bloccandolo
nell'atmosfera, ma vanno bensì a corrodere lo strato di ozono presente nella stratosfera,
2 Per l'interpretazione di questi valori, vedere il paragrafo 1.3)
che rallenta il passaggio delle radiazioni solari. I gas clorofuorocarburi (CFC), oggetto del
Protocollo di Montreal non fgurano nell'Annesso A (che elenca i gas serra per i quali è
necessario ridurre le emissioni), sebbene secondo il DG CLIMA la loro concentrazione
atmosferica contribuisca, insieme a quella degli altri gas che impoveriscono l'ozono, per il
12% all'effetto complessivo di riscaldamento globale. Secondo la stessa fonte il primo
responsabile del Global Warming è l'anidride carbonica (alla cui presenza è attribuito il 63%
dell'effetto totale), seguita dal metano (19%), mentre il protossido di azoto è in fondo alla
classifca con il 6%.
Questo non signifca che l'anidride sia più dannosa degli altri gas in termini assoluti, ma che
essendo presente nell'atmosfera in quantità maggiori abbia un effetto predominante: ogni
gas serra non ha solo specifche fonti di emissione, modalità e tempi di smaltimento
dall'atmosfera, ma anche diverso Global Warming Potential (GWP). Questo valore indica la
quantità di calore assorbita da un determinato gas (o mix di gas) in determinato arco di
tempo. La misura di riferimento è l'equivalente CO2 (MtCO2eq), per cui il GWP dell'anidride
carbonica è 1. ll GWP del metano su 100 anni è 21: questo signifca che le emissioni
di un milione di tonnellate cube di metano ha lo stesso effetto di 21 milioni di
tonnellate cube di anidride carbonica (OECD, Glossario dei Termini Statistici). Questo
signifca che il metano, seppur presente in quantità assai minore nell'atmosfera è
potenzialmente molto più dannoso, e lo stesso vale per i gas fuorinati.
La seguente tabella riassume tutti i gas serra dell'Annesso A, il loro periodo di permanenza
nell'atmosfera, ovvero il periodo di tempo necessario perché essi siano smaltiti e quindi
cessi il loro effetto, e il GWP per gli orizzonti temporali di 20, 100 e 500 anni. Esso è riferito
ai periodi di decadimento calcolati secondo il modello di ciclo dell'anidride carbonica di
Berna3
, e considerando emissioni di CO2 costanti nel tempo rispetto ai livelli registrati al
3 Tale modello studia la relazione tra le emissioni antropiche di CO2, lo stock già presente nell'atmosfera e la loro interazione con gli oceani, la
superficie terrestre e l'atmosfera (F. Joos and M. Bruno, A SHORT DESCRIPTION OF THE BERN MODEL, University of Bern, 1996)
periodo di elaborazione dei dati (1995).
Tipo Formula
Chimica
Permanenza (anni) Potenziale Global Warming (orizzonte temporale)
20 anni 100 anni 500 anni
CO2 CO2 variabile § 1 1 1
Metano* CH4 12±3 56 21 6,5
Protossido
di Azoto
N2O 120 280 310 170
HFC-23 CHF3 264 9100 11700 9800
HFC-32 CH2F2 5,6 2100 650 200
HFC-41 CH3F 3,7 490 150 45
HFC-43-
10mee
C5H2F10 17,1 3000 1300 400
HFC-125 C2HF5 32,6 4600 2800 920
HFC-134 C2H2F4 10,6 2900 1000 310
HFC-134a C2H2F2 14,6 3400 1300 420
HFC-152a C2H4F2 1,5 460 140 42
HFC-143 C2H3F3 3,8 1000 300 94
HFC-143a C2H2F4 48,3 5000 3800 1400
HFC-227ea C3HF7 36,5 4300 2900 950
HFC-236fa C3H2F46 209 5100 6300 4700
HFC-245ca C3H3F5 6,6 1800 560 170
Esafuoruro
di Zolfo
SF6 3200 16300 23900 349000
Perfuorome
tano
CF4 50000 4400 6500 10000
Perluoroeta
no
C2F6 10000 6200 9200 14000
Perfuoropro
pano
C3F8 2600 4800 7000 10100
Perfuorobut
ano
C4F10 2600 4800 7000 10100
Perfuorocicl
obutano
c-C4F8 3200 6000 8700 12700
Perfuorope
ntano
C5F12 4100 5100 7500 11000
Perfuoroesa
no
C6F14 3200 5000 7400 10700
§ derivato dal Modello di Berna sul ciclo dell'anidride carbonica
* Il GWP per il metano include gli effetti dell'ozono nella troposfera e la produzione di vapore acqueo nella stratosfera
Climate Change 1995, The Science of Climate Change: Summary for Policymakers and Technical Summary of the Working
Group I Report, pag. 22
L'eterogeneità dei gas serra ha diverse implicazioni: in primo luogo, anche in caso di
immediata riduzione o eliminazione delle emissioni correnti, le concentrazioni nell'atmosfera
continuerebbero ad esercitare un forcing radiativo positivo a causa dei tempi di
smaltimento, e quindi la temperatura continuerebbe ad aumentare per effetto delle
emissioni antropiche del passato almeno per un periodo (come sta avvenendo nel caso dei
CFC). In secondo luogo, i processi di smaltimento sono strettamente collegati alla presenza
di vegetazione, fauna marina, concentrazioni di ozono e precipitazioni. Tutti elementi
vulnerabili all'innalzamento delle temperature, che potrebbe quindi anche interferire con
l'effcacia dei processi di smaltimento stesso.
Queste considerazioni sono utili a sottolineare un altro aspetto importante: l'incertezza della
misurazione non è del tutto risolta, e questa deriva soprattutto dall'interazione dei cicli
naturali dell'anidride carbonica con le emissioni antropiche della stessa, per questo, nella
maggior parte delle statistiche e dei grafci (quando non specifcato diversamente) non
vengono considerate le emissioni dovute a “diverso uso dei terreni e foreste” (Land Use
Change and Forestry, in breve LUCF, pari al 18,3% del totale delle emissioni). È bene tenere
a mente questa esclusione poiché la deforestazione e le attività agricole (che producono
prevalentemente emissioni di metano e protossido di azoto) sono la maggior fonte di gas
serra nei paesi in via di sviluppo, ma queste noon risultano nei dati che mostrano solo le
emissioni di CO2 dovute all'utilizzo dei combustibili fossili. Queste ultime rappresentano
l'81% delle emissioni nei paesi avanzati, ma solo il 41% nei paesi in via di sviluppo e il 5%
in quelli meno sviluppati, mentre in questi ultimi due le emissioni di CO2 derivanti dalla
LUCF stimate sono rispettivamente il 33% e il 62% del totale (Baumert et al., 2005, pagg.
3-7 e 12-14).
L'ultimo bollettino sui gas serra della WMO stima che tra il 1750 e il 1958 solo il 45% delle
emissioni di CO2 sia stato eliminato dall'atmosfera, mentre il restante 55% è rimasto ad
accumularsi sopra le nostre teste. Per quanto riguarda gli altri principali gas serra la stima è
che il 40% delle particelle di metano e protossido di azoto attualmente presenti
nell'atmosfera siano di origine naturale, attribuendo il resto alle attività umane. Nello stesso
bollettino è riportata la seguente tabella, che mostra la quantità e le variazioni dei tre gas tra
il 1750 e il 2009, ipotizzando che le concentrazioni nell'atmosfera nel periodo pre-industriale
fossero di 280ppm (parti per milione) per l'anidride carbonica, 700ppb (parti per miliardo)
per il metano e 270ppb per il protossido di azoto.
CO2
(ppm)
CH4
(ppb)
N2O
(ppb)
Quantità totale nel 2009 386,8 1803 322,5
Incremento dal 1750 38% 158% 19%
Incremento assoluto 2008-
2009 absloute increase
1.6 5 0.6
Incremento relativo 2008-
2009 relative increase
0.42% 0.28% 0.19%
Incremento assoluto medio
nel periodo 1999-2009
1.88 2.2 0.77
(WMO Greenhouse Gases Bullettin, 2009, Tabella 1, pag. 2 )
Grafcamente, ecco l'andamento delle concentrazioni di CO2 nell'atmosfera tra il 1750 e il
2004
(Baumert e. al., fg 1.1, pag. 3)
L'innalzamento delle temperature registrato rispecchia quasi perfettamente l'aumento della
concentrazione di CO2 nell'atmosfera, come si osserva tramite la seguente mappa, che
confronta l'andamento osservato delle temperature (indicato dalla linea nera), a livello sia
globale che regionale, confrontato con le variazioni simulate da modelli che includono le
emissioni sia naturali che antropiche (in rosa) e da modelli che considerano solo quelle
naturali, dovute principalmente all'attività solare e alle eruzioni vulcaniche (in azzurro).
(Climate Change 2007: Synthesis Report, pag. 40)
Ritornando all'eterogeneità dei gas serra, nei tre grafci seguenti è possibile osservare quali
siano i
(a) le emissioni annuali globali di gas serra antropici tra il 1970 e il 2004;
(b) la quantità dei diversi gas serra antropici sul totale delle emissioni in termini di
equivalente CO2 nel 2004;
(c) la quantità di emissioni antropiche per settore in termini di equivalente CO2 nel 2004;
(Climate Change 2007: Synthesis Report, p.36)
Come detto in precedenza l'anidride carbonica è responsabile per il 63% dell'effetto di
riscaldamento globale, ma le sue emissioni sono il 76,6% del totale; il metano contribuisce
al global warming per il 19% e alle emissioni per il 14,3%; il protossido di azoto
contribuisce ad entrambi in misura simile: 6% del surriscaldamento e 7,9% delle emissioni.
I gas fuorinati infne, pur essendo solo l'1,1% delle emissioni totali causano il 12%
dell'innalzamento delle temperature (insieme ai CFC). Queste cifre rendono più evidente
quanto detto in precedenza sulla dannosità dei gas serra: la CO2 è quello largamente più
abbondante, ma non il più dannoso in assoluto.
Ora che il quadro sui diversi tipi di gas serra e i loro effetti sulle temperature medie è
completo, possiamo analizzare le emissioni a livello geografco.
1.4 I responsabili
Stando ai dati del 2000, ecco i 25 paesi che producono più emissioni a livello assoluto e
con l'esclusione dei dati riguardanti la LUCF.
Paese Mt in equivalente CO2 % dei gas serra a livello mondiale
1. Stati Uniti 6928 20,6
2. Cina 4938 14,7
3. EU-25 4725 14,0
4. Russia 1915 5,7
5. India 1884 5,6
6. Giappone 1317 3,9
7. Germania 1009 3,0
8. Brasile 851 2,5
9. Canada 680 2,0
10. Gran Bretagna 654 1,9
11. Italia 531 1,6
12. Corea del Sud 521 1,5
13. Francia 513 1,5
14. Messico 512 1,5
15. Indonesia 503 1,5
16. Australia 491 1,5
17. Ucraina 482 1,4
18. Iran 480 1,4
19. Sud Africa 417 1,2
20. Spagna 381 1,1
21. Polonia 381 1,1
22. Turchia 355 1,1
23. Arabia Saudita 341 1,0
24. Argentina 289 0,9
25. Pakistan 285 0,8
Totale 25 27915 83
Resto del Mondo 5751 17
Paesi Avanzati 17355 52
Paesi in Via di Sviluppo 16310 48
(Baumert et al., 2005, fg. 2.1, pag. 12)
Attribuire la responsabilità del surriscaldamento globale, e quindi della sua eventuale
mitigazione, non è tuttavia così immediato: i paesi che per primi si sono industrializzati sono
quelli che hanno prodotto storicamente più emissioni, e sono anche quelli che secondo il
Protocollo di Kyōto tenuti ridurle in maniera maggiore. I paesi cosiddetti in via di transizione
(nella fattispecie: Bulgaria, Croazia, Repubblica Ceca, Estonia, Ungheria, Lettonia, Lituania,
Polonia, Russia, Romania, Slovacchia, Slovenia e Ucraina) hanno vincoli meno stringenti,
mentre i paesi in via di sviluppo non ne hanno ancora. Eppure alcuni paesi che hanno
inquinato poco in passato stanno inquinando, e probabilmente inquineranno, molto di più in
futuro: osservando i dati relativi alle emissioni di anidride carbonica cumulate tra il 1850 e il
2002 (Baumert et al., 2005, pag. 32) nelle prime 10 posizioni troviamo, oltre ai paesi di
prima industrializzazione come Stati Uniti, Regno Unito, Francia e Germania, anche Cina,
India e Ucraina, che risultano quindi aver “recuperato” molto in fretta in termini di
inquinamento. Infatti, per il periodo in questione i paesi in via di sviluppo risultano
responsabili del 24% delle emissioni totali, ma se si considera il periodo 1990-2002 viene
loro attribuito il 39%. I fattori che hanno maggiormente contributo alla crescita delle
emissioni di anidride carbonica sono stati il PIL pro capite, la popolazione, l'intensità
energetica (quantità di energia utilizzata per unità di reddito) e fuel mix (quantità di emissioni
di CO2 nell'energia utilizzata), con Cina, Stati Uniti e India nei primi tre posti.
Il livello assoluto di emissioni non tiene pertanto in conto fattori rilevanti come le emissioni
pro capite, che generalmente risultano maggiori quanto maggiore è il reddito pro capite,
poiché questo comporta un maggior consumo energetico (il gap aumenta ulteriormente
quando si considerano solo le emissioni di CO2 relative all'energia); anche la dotazione di
risorse naturali volte alla produzione di energia, la densità della popolazione e la
conformazione geografca sono fattori rilevanti. Non a caso infatti nella top 5 si trovano
Qatar, Emirati Arabi Uniti, Kuwait, Australia e Bahrain: tutti paesi a bassa densità di
popolazione e dotati di grandi riserve di combustibili fossili, mentre tra i primi 25 si trovano
ben 11 paesi che non sono tra i primi 25 per livello assoluto di emissioni (nell'ordine:
Lussemburgo, Nuova Zelanda, Antigua e Barbuda, Repubblica Ceca, Singapore,
Turkmenistan, Olanda, Finlandia, Palau, Nauru e Danimarca). Gli Stati Uniti si trovano al 6°
posto e l'Europa a 25 al 37°; Cina e India si trovano rispettivamente al 99° e 140°; l'Italia al
48°.
Ogni tipo di intervento a favore della riduzione delle emissioni deve quindi tenere in conto
una molteplicità di fattori, caratterizzati da orizzonti temporali molto lunghi ed elevati livelli
di incertezza. La crescita economica e demografca in corso in paesi come Brasile, Russia,
India e Cina (i cosiddetti BRIC), senza sottovalutare altri paesi in via di sviluppo, ha elevata
probabilità di continuare e quindi di esercitare ulteriore pressione sulle risorse, aumentando
la domanda di energia, beni, cibo e quindi le emissioni. Lo sviluppo economico e sociale, la
crescente globalizzazione e l'integrazione di tali paesi nelle relazioni diplomatiche con il
resto del mondo potrebbe avere diversi risvolti sia per quanto riguarda l'adesione alle linee
guida dell'IPCC sia per quanto riguarda la nascita di rivalità e tensioni sia politiche che
legate all'utilizzo delle risorse. La cooperazione internazionale in materia ambientale
potrebbe portare ad un più rapido sviluppo dell'effcienza energetica delle tecnologie
esistenti o all'innovazione in materia di energie rinnovabili. O forse no. A fronte di tutte
queste incognite, l'IPCC ha elaborato una serie di possibili scenari sul futuro livello di
emissioni e sul conseguente innalzamento delle temperature, che verranno analizzati nel
paragrafo 1.6. Intanto cercheremo di capire quali siano, in pratica, le conseguenza del
cambiamento climatico e come queste si rifettano sull'economia.
1.5 Gli effetti
L'aumento delle temperature dall'epoca pre-industriale, ad oggi, è ancora inferiore al grado
ma ha già effetti sensibili sulle condizioni ambientali e su tutte le attività umane ad esso
correlate. Le stagioni “tiepide” arrivano sempre prima, e si estendono sempre più verso
nord, le ondate di caldo sono sempre più frequenti così come le forti precipitazioni e il livello
del mare si è alzato in modo generalizzato. Per capire l'entità di queste variazioni possiamo,
come dice Smith (2010, p. 5) immaginare che il nostro “cortile si sposti verso nord alla
velocità 1,67m ogni giorno”. Pensando a paesi come la Russia, il Canada e quelli
Scandinavi, questi potrebbero probabilmente giovare di temperature più miti, grazie alla
maggiore disponibilità di terra coltivabile e acqua dolce, maggiore possibilità di navigazione
nei mari artici grazie al prolungato periodo di disgelo, minore fabbisogno energetico per il
riscaldamento. Se gli inverni più brevi permettono di navigare di più, essi però impediscono
di guidare: nelle aree artiche alcune aree estremamente remote sono raggiungibili su ruote
solo grazie alle winter roads, ovvero vere e proprie autostrade costruite nel ghiaccio e nella
neve limitatamente ai periodi più freddi dell'anno. In tali aree la costruzione di vere strade è
impossibile sia per i costi, troppo alti relativamente all'utilizzo, sia perché il terreno è
tendenzialmente paludoso e quindi poco stabile. Un altro problmea che riguarda il
riscaldamento delle aree nordiche è lo scioglimento del permafrost, il terreno perennemente
congelato: in alcune aree esso sorregge intere città e le infrastrutture da cui esse
dipendono, nonché laghi che tendono a sprofondare nel terreno quando questo si scioglie.
Il permafrost contiene anche materiale organico, in particolare piante, le quali
decomponendosi rilasciano anidride carbonica e metano: se si sciogliesse completamente
verrebbero rilasciate nell'atmosfera 1.672 miliardi di tonnellate (Gt) di emissioni, che
andrebbero a sommarsi alle 730Gt attualmente nell'atmosfera, innescando ulteriore
surriscaldamento (Smith, 2010, pagg. 164-170 e pagg. 234-235).
Tralasciando il caso specifco dei paesi nordici, livello globale le principali conseguente del
cambiamento climatico sono:
• scioglimento dei ghiacciai, del permafrost e, nel caso estremo, dei ghiacci
continentali dell'Antartide e della Groenlandia, con conseguenti
• innalzamento del livello del mare, che mette a rischio ogni attività umana costiera e
ne aumenta i costi di messa in sicure; e
• variazione nella distribuzione della disponibilità di acqua, con generale tendenza alla
diminuzione nelle aree dove è già scarsa;
• incremento dei fenomeni meteorologici estremi: in particolare le tempeste tropicali
diventano più violente all'aumentare della temperatura superfciale del mare;
• acidifcazione degli oceani, che altera la fauna marina compromettendo la
biodiversità e le riserve ittiche, tanto che è considerata probabile una
• estinzione del 15-40% delle specie esistenti per un incremento della temperatura di
2°;
• improvvisi e radicali cambiamenti nei processi meteorologici periodici, come i
monsoni, El Niño o la corrente nord atlantica.
Oltre all'immediata minaccia alla sicurezza delle persone e delle infrastrutture che questi
eventi portano con loro, esistono gravi implicazioni per la crescita economica. In particolare
“i paesi in via di sviluppo sono molto sensibili al cambiamento climatico data la loro grande
dipendenza dall'agricoltura e dall'ecosistema, la rapida crescita della popolazione e la
concentrazione di milioni di persone in condizioni abitative precarie, e alle carenti condizioni
igieniche”, senza contare la minore disponibilità di risorse economiche per l'adattamento
(Stern, 2007, Parte I, pagg. 92 -97). Del resto nemmeno i paesi avanzati sono immuni da
questi rischi: il 5% della popolazione mondiale vive in aree costiere così le tempeste, le
inondazioni (ma anche la siccità) aumentano i costi di sicurezza e anche quelli assicurativi,
con inevitabili ripercussioni sul mercato fnanziario e sul costo del capitale (Stern, 2007,
Parte II, pag. 14). Le catastrof naturali porteranno la popolazione a migrare quando non
sarà possibile o conveniente sostenere i costi di adattamento, con probabili esiti confittuali.
Anche la produzione di energia risente del cambiamento climatico: l'acqua più calda rende
più diffcoltoso il raffreddamento dei generatori di elettricità, le alluvioni e le siccità riducono
la disponibilità delle biomasse necessarie per alcuni tipi di energie rinnovabili, oltre che
danneggiare infrastrutture come oleodotti, gasdotti, miniere, piattaforme petrolifere e
centrali elettriche.
Infne, l'incapacità dei paesi in via di sviluppo di produrre quanto necessario per sostenere
la propria crescita demografca comporterà un incremento del gap del reddito e nuovi fussi
migratori.
Dare una misura precisa di questi fenomeni è diffcile, per questo l'IPCC nel fare le sue
previsioni non ha elaborato uno scenario futuro, ma una serie, senza valori di probabilità
associati.
1.6 Le previsioni
Il Climate Change 2007: Synstesis Report IPCC presenta un range di scenari possibili.
Facendo riferimento alla sola CO2, vengono presentati diversi livelli di stabilizzazione delle
emissioni, ad ognuno dei quali è associato un probabile intervallo di aumento della
temperatura media globale e un relativo di innalzamento del livello del mare. Quest'ultimo
dato è ampiamente incerto poiché, anche nel caso di stabilizzazione delle emissioni, le
temperature continuerebbero ad aumentare per un certo periodo, con effetti diffcilmente
prevedibili sullo scioglimento dei ghiacci in quanto l'innalzamento della temperatura media
a livello globale non comporta un aumento uniforme della temperatura ovunque.
Nel grafco di sinistra la linea rappresenta i livelli di CO2 osservati fno al 2000, mentre tra il
2000 e il 2100 vengono rappresentati i diversi livelli di stabilizzazione. La linea tratteggiata
(post-SRES range) rappresenta il livello minimo e massimo di emissioni che si potrebbe
raggiungere nel lungo periodo lasciando invariate le politiche di mitigazione. Raggiungere la
stabilizzazione delle emissioni signifca fondamentalmente diminuirle fno a portarle in pari
con il tasso di assorbimento dell'ecosistema, comprensivo di vegetazione e oceani: tale
processo è però indebolito dalla temperature più calde (Stern, 2007, Parte III, pag. 197).
Nel grafco di destra ad ogni livello di stabilizzazione (identifcato con lo stesso colore) viene
associato un possibile incremento di temperatura.
(Climate Change 2007: Synthesis Report, p.66)
Per capire meglio l'entità di queste variazioni basta analizzare lo scenario più roseo ad oggi
plausibile, ovvero il III (in arancione): tale livello di stabilizzazione richiederebbe che il picco
massimo delle emissioni di CO2 si verifcasse tra il 2010 e il 2030, per poi scendere,
arrivando nel 2050 a valori compresi fra il 30% in meno e il 5% in più rispetto a quelli
registrati nel 2000. Questo comporterebbe un incremento della temperatura media intorno
ai 3° rispetto all'epoca pre-industriale, con un innalzamento del livello del mare compreso
tra 0.6 e 1.9 metri (senza includere il contributo dello scioglimento dei ghiacci) (Climate
Change 2007: Synthesis Report, p.67).
L'impossibilità che si verifchino gli scenari I o II dipende dal fatto il picco di emissioni da
essi previsto dovrebbe già essersi verifcato, o verifcarsi in tempi troppo brevi perché
questo sia verosimile, e anche per lo scenario III i tempi sono già maturi. Più si attende
nell'attuare le misure necessarie alla mitigazione del cambiamento climatico più queste
misure saranno invasive e diffcili da attuare, oltre che a richiedere più tempo per rivelarsi
effcaci. Già da tempo scienziati come Smith e economisti come Stern e qualche politico
come Al Gore, cercano di fare capire a chi comanda che queste misure non sono una delle
cose da inserire nelle agende politiche, ma la priorità, non solo a livello umanitario o
ambientalista, ma anche e soprattutto economico.
1.7 Le alternative
Le energie rinnovabili riconosciute dalla International Energy Agency (Renewables in Global
Energy Supply, IEA, 2007) sono ordinate secondo un criterio temporale. Le tecnologie di
prima generazione sono conosciute dalla rivoluzione industriale e sono già competitive
laddove le risorse naturali necessarie sono abbondanti e l'incremento nel loro utilizzo
dipenderà dallo sviluppo delle tecnologie conosciute e dall'introduzione nei paesi in via di
sviluppo: in particolare l'energia idroelettrica ha un enorme potenziale in quanto solo una
piccola parte delle riserve idriche è fornita di impianti per la produzione di energia. Esistono
inoltre le biomasse combustibili e l'energia geotermica che vengono utilizzate sia per
generare riscaldamento che elettricità.
Le tecnologie di seconda generazione sono state sviluppate a partire dagli anni '80 e
comprendono l'energia solare, fotovoltaica ed eolica: l'ultima in particolare ha buone
possibilità di diventare competitiva con le forme di energie tradizionali grande ai sempre
minori costi di realizzazione degli impianti e di stoccaggio dell'energia prodotta.
Le tecnologie di terza generazione sono ancora in fase di sviluppo e a causa degli elevati
costi e della limitata conoscenza al riguardo non sono ancora ampiamente
commercializzate, e il loro futuro utilizzo dipende dalla fase di ricerca e sviluppo. Esse
comprendono l'energia solare concentrata, quella oceanica, la geotermica migliorata e i
sistemi di bioenergie integrate.
Attualmente le energie rinnovabili contribuiscono per il 13.1% alla produzione totale di
energia primaria mondiale e nonostante ne sia previsto un crescente utilizzo, la completa
sostituzione alle forme di energia tradizionale non è possibile in tempi brevi. Lo scenario di
riduzione delle emissioni entro il 2050 prevede una combinazione di energie rinnovabili,
nucleare e tradizionali ad aumentata effcienza per soddisfare la domanda globale (Energy
Technology Perspectives, IEA, 2010). I limiti delle energie rinnovabili sono principalmente,
ma non unicamente, tecnologici. I candidati favoriti alla sostituzione dei carburanti liquidi
sono l'idrogeno e le biomasse: il primo, innanzi tutto, non è una fonte di energia ma una
sostanza che può essere usata per produrla. Tale processo è molto complesso e richiede
ancora enormi quantità di energia. Inoltre l'idrogeno è esplosivo e un suo diffuso utilizzo
nell'alimentazione dei mezzi di trasporto richiederebbe la soluzione dei problemi di
sicurezza implicati, nonché la creazione delle infrastrutture necessarie a supportarlo. Le
biomasse sono più facilmente reperibili, ma dovendo essere coltivate producono esse
stesse una parte di gas serra, che è almeno pari al risparmio di emissioni dovuto al non
utilizzo del combustibile fossile, senza contare la competizione con le colture alimentari, di
cui c'è crescente domanda.
Per quanto riguarda la produzione di elettricità, il settore più avanzato è quello idroelettrico,
ma a causa delle gravi implicazioni ambientali delle grandi dighe, diffcilmente grandi
progetti saranno intrapresi in futuro (anche se i progetti che non richiedono dighe hanno un
buon potenziale). Le energie solare, fotovoltaica ed eolica, pur avendo fonti gratuite e
virtualmente illimitate anche ancora problemi per quanto riguarda l'immagazzinamento e la
distribuzione, soprattutto in aree remote (Smith, 2009, pagg. 63 – 77).
Prima dell'incidente di Fukushima, nel marzo 2011, il mondo sembrava pronto anche a
riconsiderare un ingente utilizzo del nucleare, grazie all'assenza di emissioni e ai bassi costi
di produzione e nonostante gli elevati costi di costruzione e manutenzione degli impianti e il
problema della limitatezza delle riserve di uranio. L'idea di sfruttare il più possibile l'energia
nucleare anche per un limitato periodo, in modo da creare un “cuscinetto” tra i combustibili
fossili e le energie rinnovabili, non è affatto insensata, ma i problemi di sicurezza degli
impianti recentemente emersi, con conseguenti proteste da parte delle popolazioni
interessate, hanno almeno momentaneamente tagliato le gambe al progetto.
A fronte di queste considerazioni, emerge tutta la rilevanza delle politiche a favore della
ricerca e sviluppo sia nel campo delle energie rinnovabili sia nell'incremento dell'effcienza
energetica delle forme di energia tradizionali.
1.8 Dalla scienza alla politica
L'accordo sui dati relativi al cambiamento climatico, e il riconoscimento dell'imminente
necessità di intervenire per mitigarlo e adattare la società e il sistema produttivo può dirsi
ormai unanime.
Nonostante le innumerevoli dichiarazioni, protocolli e piattaforme programmatiche
elaborate, frmate e (quasi sempre) ratifcate dagli stati membri delle organizzazioni
intergovernative, i metodi di attuazione di queste misure sono ancora piuttosto deboli e
molto spesso le politiche di sostenibilità sono interpretate come uno spreco di risorse, o,
più recentemente uno sforzo economico che paesi in recessione o sull'orlo della quale,
magari nel pieno dell'attuazione di politiche di austerità, non possono permettersi (anche
dal punto di vista del confitto sociale).
Il punto di partenza per la realizzazione di politiche puntuali è il riconoscimento, del resto
già avvenuto con l'art. 2 del Protocollo di Kyōto, del cambiamento climatico come
fallimento del mercato. Le emissioni che lo causano sono esternalità negative, il cui costo
non viene pagato totalmente ed esclusivamente da chi le produce, mentre il clima è un
bene pubblico per la sua caratteristica di non escludibilità. Defnito il benessere come
insieme di consumo, educazione, salute e qualità ambientale, anche per le generazioni
future, è necessario imporre un prezzo sulle emissioni e promuovere la Ricerca & Sviluppo,
affnché questo possa aumentare (Stern, 2007, Parte I, pagg. 24-34). Nessuno si auspica
un'economia futura totalmente controllata dai governi, ma il loro intervento è necessario
affnché sia poi il settore privato a trainare il cambiamento: la possibilità per il settore
produttivo di sviluppare maggiore effcienza energetica ed utilizzare più intensamente forme
di energia rinnovabili ne abbasserebbe via via i costi, rendendo i beni prodotti in maniera
eco-sostenibile più competitivi. Similmente, rendere più costoso il consumo dei beni
prodotti con alte concentrazioni di gas serra permetterebbe di spostare le preferenze dei
consumatori.
A livello teorico i principali strumenti per l'eliminazione delle esternalità sono:
• le tasse pigouviane, ovvero il pagamento da parte di chi inquina di una tassa pari al
costo marginale del danno causato;
• l'imposizione di soglie massime;
• l'allocazione di diritti di proprietà sulle emissioni, sia per chi le emette che per chi ne
subisce il effetti negativi, in moda che se ne possa creare un mercato.
Tali politiche devono essere caratterizzate da un'attenta pianifcazione e da elevati livelli di
credibilità affnché gli investitori decidano di intraprendere i progetti necessari, e devono
tenere conto di altre imperfezioni del mercato come i vincoli nell'accesso al credito, la
scarsa informazione e regolazioni ineffcienti che ostacolino l'innovazione attraverso costi
nascosti o brevetti troppo rigidi.
A livello pratico, le politiche più diffuse sono gli schemi di Cap&Trade delle emissioni:
queste prevedono i soggetti producono emissioni possano raggiungere un tetto massimo
prestabilito, oltre il quale vengono multati. Al di sotto di tale soglia guadagnano dei crediti
che possono vendere agli altri soggetti, che in tal modo potranno sforare la soglia senza
essere multati. Schemi di questo tipo esistono in Europa (EU ETS) e in Australia, la quale,
come anche la Gran Bretagna ha anche elaborato un piano di lungo periodo per la
riduzione delle emissioni di tutto il sistema produttivo che include aiuti fnanziari alle
imprese e alle famiglie.
Infatti, l'altro pilastro fondamentale delle politiche di mitigazione è l'innovazione: per un
mondo a basso contenuto di CO2 il grosso del cambiamento dovrà avvenire nella
produzione di energia attraverso l'aumento dell'effcienza energetica dei combustibili fossili
(in modo che sia possibile produrre sempre di più usandone sempre di meno) e la diffusione
delle fonti di energia rinnovabili. Tuttavia il processo innovativo è rallentato a causa di
alcune sue caratteristiche strutturali. In primo luogo, gli spillover della conoscenza acquisita
fanno sì che la scoperta di un'impresa abbia effetti positivi anche sulle altre che non hanno
investito in R&S, e per questo l'investimento complessivo sarà inferiore a quello ottimale. É
possibile elaborare un sistema di brevetti ad hoc, ma il rischio è quello di renderlo troppo
poco fessibile, ostacolando ulteriormente l'innovazione. Altri elementi che disincentivano
questo tipo di investimento sono l'incertezza sia riguardo il futuro costo delle emissioni sia
riguardo l'entità e le tempistiche dei rendimenti derivanti dall'innovazione, senza contare la
diffcoltà di inserire in un sistema produttivo già funzionante nuove tecniche, per quanto
economicamente vantaggiose.
É quindi necessario che i governi promuovano lo sviluppo di interi “pacchetti” di
innovazioni, contemporaneamente all'imposizione del prezzo sulle emissioni inquinanti, in
modo da ottenere una transizione armoniosa (e trainata dal settore privato) verso la
stabilizzazione (Stern, 2007, Parte IV, pagg. 310 – 400).
Oltre alle politiche di mitigazione, sono necessarie le politiche di adattamento al
cambiamento climatico, che non sono volte alla soluzione del problema, ma possono
ridurne l'impatto sulla popolazione. Secondo l'IPCC è “l'aggiustamento nei sistemi umani o
naturali in risposta a stimoli climatici o ai loro effetti, sia attesi che già avvenuti, che ne
riduce i danni o ne sfrutta le opportunità di benefcio. Possono essere identifcati vari tipi di
adattamento, inclusi l'adattamento anticipato o di reazione, privato e pubblico, autonomo o
pianifcato” (IPCC, 2001, TAR). I settori che più ne avranno bisogno sono l'agricoltura e le
aree costiere, mentre le asimmetrie informative, l'assenza di mercati adeguati (o il loro non
allineamento) e i vincoli di credito, soprattutto per quanto riguarda le aree povere,
potrebbero ostacolare l'effcienze della misure di adattamento, che quindi come le politiche
di mitigazione dovranno essere promosse dai governi. Non va tuttavia dimenticato che
l'adattamento è un'opzione limitata, ed attuabile esclusivamente in presenza di una
mitigazione effciente, effcacie e attuata in tempi brevi.
Nei paesi avanzati l'adattamento può essere promosso attraverso la pianifcazione per
l'utilizzo dei beni pubblici ambientali e l'imposizione di standard di prestazione, oltre che al
miglioramento del sistema informativo (ad esempio attraverso previsioni affdabili sui futuri
livelli di precipitazioni) e la creazione di un mercato assicurativo che tenga in considerazione
i nuovi rischi ambientali e di un sistema che permetta di proteggere anche chi non può
assicurarsi.
Le linee guida per i paesi di sviluppo sono grosso modo le stesse, ma le politiche dovranno
superare ostacoli maggiori per quanto riguarda la maggior diffcoltà di far circolare le
informazioni a causa degli elevati livelli di analfabetismo, la ridotta diffusione della rete
informativa e la presenza di zone remote e diffcili da raggiungere anche a livello
infrastrutturale. Esistono inoltre i problemi relativi alla limitatezza delle risorse e alla minore
credibilità dei governi, che potrebbe disincentivare gli investimenti (Stern, 2007, Parte V
pagg. 404 - 438) É però vero anche che l'arretratezza dei sistemi economici e produttivi è
un'occasione per inserire i piani di adattamento e mitigazione nei più generici piani di
sviluppo a tutto tondo, in modo da inglobare l'eco-sostenibilità nella crescita, invece di
doverla inserire in un sistema già avviato e funzionante. Infatti, come riporta la IEA il 49%
dell'energia in Africa, il 28.9% in America Latina e il 31.8% in Asia (ad esclusione della Cina,
dove la percentuale è 15.4%) è prodotta attraverso fonti rinnovabili, contro il 5.7% dei paesi
OECD (Renewables in Global Energy Supply, IEA, 2007).
Gli elevati livelli di incertezza legati al cambiamento climatico richiedono che le politiche
destinate a mitigarlo abbiano solide basi teoriche, che tengano conto dell'interazione fra
domanda e offerta, delle imperfezioni del mercato, dell'affdabilità delle istituzioni e di
orizzonti temporali di molti decenni, del benessere delle generazioni attuali e future. Per
questo nei prossimi capitoli andremo ad analizzare una serie di modelli economici che
tengono in considerazione tutti questi fattori, prima dal solo lato della produzione, poi
coinvolgendo anche i consumatori e la crescita economica.
Capitolo II
Fondamenti Teorici e Politiche Ottimali:
l'approccio dell'Economia Industriale
“I said, maybe, you're gonna be the one that saves me.”
OASIS
2.1 Giochi e Strategie
L'economia industriale è quella branca dell'economia che si occupa di studiare il
comportamento delle imprese in concorrenza perfetta, in condizioni di monopolio e in tutte
le situazioni intermedie. Tali imprese generalmente perseguono fni individuali di
massimizzazione dei proftti senza considerare il benessere comune quindi per
incrementarlo è necessario che il pianifcatore sociale conosca le dinamiche di interazione
dei soggetti (quindi imprese, ma anche consumatori) in modo da poterle correggere
attraverso le politiche necessarie. Una delle discipline che meglio si presta alla
formalizzazione dell'interazione dei soggetti con interessi confittuali è la teoria
dell'interazione strategica, conosciuta anche come teoria dei giochi. Essa analizza le
situazioni di confittualità a partire dal gioco in forma normale, che consiste in un numero
fnito N di giocatori, ciascuno dei quali ha a sua disposizione un insieme non vuoto e un
numero fnito di strategie
Si ={si1 ,si2 ,... , sik },∀i ∈N .
Il loro ordinamento è irrilevante, come indicato dalle parentesi graffe. L'insieme dei risultati
s=(s1, s2, ... , sN )
dipende dalle strategie effettivamente adottate, e il payoff πi (s) del giocatore i associa ad
ogni risultato un numero reale.
I giochi in forma normale possono essere:
• cooperativi, quando i soggetti collaborano al fne di massimizzare un payoff
collettivo, o non cooperativi;
• a somma fssa, quando la somma dei payoff a disposizione dei giocatori è sempre lo
stesso, o a somma variabile;
• statici, cioè giocati una volta sola, o ripetuti.
• l'informazione ha tre aspetti rilevanti: è perfetta quando ogni giocatore conosce tutte
le strategie adottate dai rivali, imperfetta quando ne conosce solo una parte; è
completa quando tutti i giocatori conoscono la struttura del gioco altrimenti è
incompleta; è simmetrica quando tutti i giocatori hanno a disposizione le stesse
informazioni.
Il primo metodo di soluzione dei giochi è il metodo di massiminimo (o minimassimo) di Von
Neumann (1928), secondo il quale
dato un gioco <N ,Si ,πi (s)> a somma costante , la strategia ˙si ∈Si
è una strategia di massiminimo per il giocatore i se
min
s−i ∈S−i
πi ( ˙si ,S−i)⩾ min
s−i ∈S−i
πi (si , S−i)
∀si≠ ˙si e con si ∈Si
ovvero, date le strategie giocate da tutti gli altri giocatori, ˙si è una strategia di equilibrio
quando garantisce un payoff non minore di quello che ricaverebbe giocando un'altra
strategia qualsiasi.
Il principio di massiminimo però non si applica ai giochi a somma variabile, ed è stato
generalizzato nel concetto di equilibrio di Nash (1950):
dato un gioco <N ,Si ,πi (s)>, il risultato ̂s=( ̂s1 , ̂s2 ,... , ̂sN ) con ̂si ∈Si
è un equilibrio di Nash se
πi ( ̂si , ̂s−i)⩾πi (si , ̂s−i) ∀si∈Si e ∀si∉ ̂si
ovvero se, ex post, nessun giocatore ha un incentivo unilaterale a deviare dalla propria
strategia, o ancora, se posto che tutti gli altri giocatori mantengono la strategia iniziale,
nessuno vorrà cambiare la propria.
Dalla defnizione di Equilibrio di Nash, deriva il Teorema di Nash (1951), secondo il quale
.
ogni gioco <N , Si ,πi(s)>, finito possiede almeno un
Equilibrio di Nash in strategie miste
.
L'espressione “almeno un” individua immediatamente uno dei problemi dell'approccio, che
è quello della molteplicità degli equilibri di Nash e che apre la strada ai perfezionamenti del
Teorema e dell'Equilibrio. Uno di questi è il Criterio di Dominanza delle strategie, secondo il
quale una strategia è dominante quando massimizza il payoff qualunque sia il vettore si
strategie scelto dagli altri: quando il payoff è strettamente maggiore di quello che si avrebbe
con un'altra strategia di parla di strategia strettamente dominanti, quando il payoff è
maggiore o uguale si parla di strategie debolmente dominanti. Secondo questo criterio tutti
gli equilibri in strategie dominanti sono equilibri di Nash, ma non tutti gli equilibri di Nash
sono in strategie dominanti (Garella, Lambertini, 2005, pagg. 217 – 231).
2.2 Il dilemma delle emissioni
I concetti introdotti nel paragrafo precedente permettono di inquadrare le emissioni
inquinanti, o meglio il problema della loro riduzione tramite investimenti in ricerca e sviluppo
verde, attraverso la Teoria dei Giochi e in particolare attraverso il Dilemma del Prigioniero.
Questo gioco mostra come un equilibrio in strategie strettamente dominanti possa
comportare un risultato non effciente dal punto di vista paretiano, dove i giocatori, lasciati
liberi di scegliere le proprie strategie, non sceglieranno il punto di equilibrio che massimizza
il benessere di entrambi, ma uno dove entrambi avranno lo stesso payoff anche se questo è
inferiore a quello paretoeffciente.
L'ipotesi sottostante alla versione originale del gioco è che due criminali complici vengano
arrestati ed interrogati separatamente e senza possibilità di comunicare tra di loro.
Possono decidere di confessare o non confessare: se entrambi confessano verranno
entrambi incarcerati per un anno, se nessuno dei due confessa la pena è di 5 anni, mentre
se uno confessa e l'altro no, il primo verrà rilasciato immediatamente mentre l'altro sconterà
10 anni.
In forma matriciale, il gioco è il seguente:
(Garella, Lambertini, 2005, pag. 230)
Dove NC è la strategia “non confessare” e C è la strategia “confessare”. L'equilibrio in
strategie dominanti è quello della casella in basso a destra (con payoff -5,5), mentre quello
pareto effciente è nella casella in altro a sinistra (con payoff -1,-1). Il primo è l'unico
equilibrio di Nash esistente nel gioco poiché nell'equilibrio paretiano esiste per entrambi i
giocatori l'incentivo a deviare, in quanto scaricando la colpa sull'altro verrebbero rilasciati,
se questi invece non confessa. Ognuno dei giocatori però sa che l'altro tenterà anch'esso
di scaricare la colpa e sicuramente confesserà, per cui la combinazione C,C di strategie è
strettamente dominante.
Ai fni della nostra analisi, possiamo sostituire i prigionieri con due imprese, e le strategie
non confessare e confessare rispettivamente con mitigare e non mitigare. Le due imprese
concorrenti infatti devono sostenere dei costi per le misure di mitigazione e/o la ricerca e
sviluppo verde, ma se una delle due non prende queste misure o non investe, le emissioni
prodotte continuano ad incidere negativamente anche su chi ha investito. Pertanto, invece
che scaricare la colpa le imprese cercano di scaricare il peso sulle emissioni ed in assenza
di una regolamentazione nessuna delle due investirà nelle politiche necessarie. Questo
ragionamento si applica anche ai consumatori che debbano scegliere se acquistare beni e
servizi a minore intensità di emissioni o continuare ad acquistare quelli tradizionali, ma
anche tra governi possano scegliere se incentivare la ricerca e sviluppo verde o meno sul
territorio nazionale. In tutti i casi, l'equilibrio raggiunto non è quello che garantisce il
massimo benessere per tutti, e pertanto esiste una possibilità di intervento da parte del
pianifcatore sociale o, nel caso dei governi, delle organizzazioni sovranazionali e
intergovernative.
2.3 Oligopolio e giochi sequenziali
Come accennato nel paragrafo 2.1, oltre alle due condizioni estreme di monopolio e
concorrenza perfetta, esistono forme intermedie dell'equilibrio di mercato dove ciascuna
impresa ha un limitato potere di mercato che gli permette di avere proftti positivi, anche se
non ne ha il controllo completo. Questa forma prende il nome di oligopolio, ma per
semplicità di analisi, viene più spesso analizzato il caso in cui sul mercato si trovino solo
due imprese, che prende il nome di duopolio. Tali imprese hanno la stessa tecnologia e
operano su un mercato omogeneo, e possono competere sulle quantità ottimale secondo il
modello di Cournot (1838), lasciando che sia la domanda di mercato stabilire il prezzo del
bene, oppure, seguendo lo schema di Bertrand (1883), esse decideranno il prezzo che
considerano ottimale e la domanda stabilirà le quantità da produrre. Tutti i modelli che
verranno analizzati nel resto del capitolo e in quello successivo considerano imprese (o
imprese e governi) che competono à-la-Cournot, pertanto vale la pena soffermasi sulla
descrizione di questo modello.
Nel modello di Cournot le due imprese, che abbiamo detto essere identiche per tecnologia,
massimizzano, secondo la quantità da produrre qi data la quantità qj prodotta
dall'avversario, la seguente funzione di proftto:
πi ( p ,Ci)qI=(a−qi−qJ −c)qi
con i , j=1,2 e i≠ j
Il risultato è un equilibrio di Nash in cui la quantità ottimale è detta funzione di reazione o di
risposta ottima, tale che
qi
¿∗¿
=Ri(qj )=
a−qi−c
2
Tale funzione è il luogo dei punti di tangenza fra il sistema di curve lungo le quali il proftto
dell'impresa è sempre lo stesso (curve di isoproftto) e il fascio di rette che identifca i livelli
di output scelti dall'altra impresa. In equilibrio è necessario che le condizioni di ottimo siano
compatibili, quindi eguagliando le funzioni di isoproftto otteniamo la quantità prodotta nel
sistema in condizione di equilibrio di Nash
πi
CN
=π j
CN
→ qCN
=
a−c
3
dove l'apice CN sta per Cournot – Nash (Garella, Lambertini, 2005, pagg. 246-249).
L'equilibrio dipende dunque dalle strategie intraprese dal concorrente e nel modello base
appena descritto le due imprese stabiliscono le proprie quantità simultaneamente, ma
poiché tratteremo soprattutto di interazione fra governi ed imprese, è utile pensare alla
dinamica del sistema in modo sequenziale. In particolare, avremo un governo leader di
mercato, che stabilisce ad esempio di imporre una tassa sulla produzione, e un'impresa
follower che stabilisce massimizzaz i proftti stabilendo la quantità da produrre di
conseguenza. Il modello di duopolio con leadership di mercato è descritto da Stackelberg
(1934) e viene risolto per induzione a ritroso, secondo il criterio di perfezione nei
sottogiochi. L'induzione a ritroso prevede semplicemente che, nel caso di un gioco ripetuto,
si proceda risolvendo il problema dall'ultimo periodo e risalendo al primo. Il criterio di
perfezione nei sottogiochi implica invece che in ogni sottogioco originale, ovvero in ogni
periodo, la soluzione sia un equilibrio di Nash (Selten, 1965, 1975).
I giochi non cooperativi ad informazione completa e perfetta di Cournot - Stackelberg
prevedono che il leader massimizzi il proprio proftto rispetto alla quantità da produrre, sotto
il vincolo della funzione di reazione del follower
max
qi
πi=(a−qi−sq j−c)qi
s.v. qj
¿∗¿
=
a−sqi−c
2
.
Sostituendo la funzione di reazione q*
j nella funzione obiettivo e massimizzando rispetto a qi
si ottiene
qCL
=
(a−c)(2−s)
2(2−s)
dove l'apice CL indica la quantità prodotta dal leader in un gioco di Cournot, e s
rappresenta la quota di mercato di ciascuna imprese. S è compreso tra 0 e 1: s=0 implica
concorrenza perfetta, s=1 implica monopolio. La quantità prodotta dal follower è
qCF
=
(a−c)(2−s)
4(2−s)
.
I proftti di equilibrio, infne sono
πCL
=
(a−c)2
(2−s)2
8(2−s
2
)
;
π
CF
=
(a−c)
2
(4−2−s
2
)
2
16(2−s2
)2
.
Questo implica che per ogni valore di s compreso fra 0 e 1 vale che
qCL
⩾qCN
⩾qCF
; πCL
⩾πCN
⩾πCF
perciò l'impresa leader ha maggiore potere di mercato ed espande l'output rispetto
all'equilibrio di Cournot – Nash, e lo fa in misura maggiore rispetto a quanto il follower lo
contrae. Questo comporta un prezzo di equilibrio inferiore e quindi un aumento del surplus
del consumatore (Garella, Lambertini, 2005, pagg. 235-237 e pagg. 269-270).
Tra le strategie a cui le imprese possono ricorrere per incrementare i proftti ci sono la
differenziazione del prodotto e la collusione. La prima può essere orizzontale quando, a
parità di prezzo, esistono almeno due individui che ordinano i prodotti in modo differente;
oppure può essere verticale se, a parità di prezzo, tutti gli individui ordinano nello stesso
modo. La collusione consiste nella massimizzazione congiunta dei proftti da parte di più
imprese e può avvenire sia erodendo il surplus del consumatore, sia attraverso la fssazione
di un investimento in ricerca e sviluppo che permetta alle imprese di internalizzare gli
spillover tecnologici e di ridurre i costi di investimento complessivi. Infatti l'innovazione è
caratterizzata dal fatto che, una volta resa pubblica, permette anche a chi non ha contributo
all'investimento di fruire della nuova tecnologia, il che incentiva il free-ride da parte delle
imprese e causa generalmente sotto-investimento. Una possibile soluzione a questo
problema sono le patenti e i brevetti, che vincolano l'utilizzo dell'innovazione a chi l'ha
prodotta, almeno per un determinato periodo. Tuttavia quando il sistema dei brevetti è
troppo rigido il livello risulta comunque ineffciente, spesso perché le imprese si troveranno
tutte costrette ad investire per giungere ad innovazioni simili, non potendole condividere, e
nel sistema si avrà una cosiddetta moltiplicazione degli sforzi. Quando si analizzano le
politiche a favore della riduzione delle emissioni e della promozione della ricerca e sviluppo,
ci si trova quindi ad dover correggere diversi fallimenti del mercato.
Nel campo delle politiche a favore della riduzione delle emissioni la letteratura ha cercato di
dimostrare che attraverso determinati livelli di tassazione, è possibile aumentare il
benessere sociale sia stimolando la competitività delle imprese in materia di qualità
ambientale (Cremer e Thisse, 1999 e poi Lombardini-Riipinen, 2005) sia spingendole a
collaborare in materia di ricerca e sviluppo (Poyago-Theotoky, 2007). L'intervento del
governo come pianifcatore sociale è infatti giustifcato a livello economico dalla presenza di
condizioni di equilibrio subottimali. In particolare Lombardini-Riipinen dimostra che in
presenza di un duopolio con competizione sulla qualità ambientale, anche se l'allocazione
del consumo fra i due tipi di beni è ottimale, il benessere sociale in assenza di
regolamentazione è inferiore a quello ottimale. Per raggiungerlo è necessaria l'applicazione
di una tassa ad valorem uniforme sul prodotto, abbinata o a una tassa sulle emissioni o ad
un sussidio per l'acquisto del bene di qualità ambientale superiore.
2.4 Qualità ambientale, politiche ottimali e second-best
Il modello di Lombardini-Riipinen (2005) è composto da due giochi sequenziali di
Stackelberg: nel primo il governo sceglie le politiche ottimali per massimizzare il benessere
sociale, date le funzioni di reazione delle imprese; nel secondo le imprese in un primo stadio
stabiliscono di quanto ridurre le proprie emissioni date le politiche del governo, nel secondo
competono per la determinazione dei prezzi dei prodotti.
Partendo dal secondo stadio del secondo gioco, poiché si risolve per induzione a ritroso,
otteniamo le equazioni del prezzi dei due beni, mentre nel primo stadio vediamo che le
imprese massimizzano i propri proftti rispetto allo sforzo per la riduzione delle emissioni,
che è maggiore per l'impresa che produce il bene di più elevata qualità ambientale H,
mentre il bene di qualità ambientale inferiore, L, viene prodotto con una maggiore intensità
di emissioni. Tutti i consumatori acquistano una unità di uno dei due beni, il base alla
propria propensione a pagare per la qualità ambientale, che è indicata dal parametro θ
uniformemente distribuito tra [θ ,θ] e con θ−θ=1 .
Il danno aggregato causato dalle emissioni inquinanti incide su tutti i consumatori allo
stesso modo, indipendentemente dal loro θi , e pertanto tale danno non entra nel
problema di massimizzazione individuale (quindi non incide sull'equilibrio di duopolio), ma
infuenza il benessere sociale complessivo. Esso è defnito da γ E , dove γ⩾0 è il
valore sociale delle emissioni, mentre le emissioni totali sono
E=e−eH (θ−θH )−eL (θH −θ+1)
oppure E=e−ea , dove ea è la qualità ambientale media. Vedremo anche nei modelli
successivi che è tipico del comportamento delle imprese non considerare le emissioni
inquinanti nel processo di massimizzazione, il che richiede l'intervento del pianifcatore
sociale affnché queste vengano internalizzate.
Le politiche governative sono di tre tipi: ta è una tassa ad valorem uniforme sui prodotti, te è
una tassa sulle emissioni non abbattute e b è il sussidio ai consumatori per l'acquisto del
bene H.
La funzione di proftto delle imprese è
πi=[(1−ta) pi −MCi] xi
dove pi è il prezzo del bene, xi è l'output e MCi sono i costi marginali, pari a
MCi=[cei
2
+te (e−ei )] .
Il costo per l'impresa di produrre un'unità del bene aumenta all'aumentare dell'intensità di
emissioni, sia attraverso la funzione dei costi variabili (c), sia attraverso la tassa sulle
emissioni (te)
L'utilità indiretta del consumatore è invece determinata da
U i=θei− pi +dB−γ E
dove B=b(eH −eL) è il sussidio, mentre d=0 se il consumatore acquista il bene di tipo L
e d=1 se il consumatore acquista il bene di tipo H.
Come anticipato, la soluzione del gioco dei duopolisti comporta una distribuzione ottimale
dei consumi tra le due varianti del prodotto, e la combinazione di valori del livello di
emissioni che massimizza il proftto delle due imprese è
eH
N
=
(1−ta)(4Θ+4b+1)+4te
8c
;
eL
N
=
(1−ta)(4Θ+4b−5)+4te
8c
.
Tenendo presente che il benessere sociale è la somma dei surplus di consumatore e
produttore meno il danno ambientale delle emissioni, ponendo ta te e b pari a zero è
possibile ottenere il livello di benessere relativo al duopolio non regolato, che risulta pari a
W UN
=
16Θ
2
−16Θ+1+21Θ γ−17 γ
64c
−γ e .
Il massimo livello di benessere sociale viene scelto dal pianifcatore tramite la soluzione del
primo gioco del modello ed è determinato da
˙W =
16[θ(θ−1)+γ(2θ+γ−1)]+5
64c
−γe .
La differenza tra i due diversi livelli di benessere sociale è negativa e pari a
W
UN
− ˙W=
−1+4γ2
16c
<0
perciò l'intervento del governo tramite politiche che regolamentino il duopolio è giustifcato
dal possibile aumento del benessere. Infatti il duopolio è caratterizzato da un doppio
fallimento del mercato, dovuto al fatto che entrambe le imprese abbiano potere di mercato
(e quindi non c'è concorrenza perfetta) e alla differenziazione del prodotto (che quindi non è
omogeneo): entrambe vanno ad aggiungersi alla presenza delle emissioni inquinanti come
esternalità negativa.
Lombardini – Riipinen dimostra che, quando non ci sono costi amministrativi, l'ottimo
sociale può essere raggiunto attraverso la combinazione di una tassa ad valorem uniforme
e una tassa sulle emissioni, oppure da una tassa ad valorem uniforme e un sussidio per
l'acquisto del bene di qualità ambientale maggiore. Analiticamente, le due possibili soluzioni
al problema sono
[ta
¿∗¿
,te
¿∗¿
]=[2
3
, γ+
2
3
(Θ−
1
2
)] ;
[ta
¿∗¿
,b¿∗¿
]=[2
3
,3 γ+2(Θ−
1
2
)]
.
Uno dei limiti del modello dipende dal fatto che nel caso il governo possa applicare
solamente una politica alla volta, e non una combinazione delle tre che ha a disposizione,
non è possibile raggiungere il massimo livello di benessere sociale, anche se è comunque
possibile aumentarlo rispetto alla condizione di duopolio non regolamentato (sempre in
assenza di costi amministrativi) In particolare, sia la tassa sulle emissioni che il sussidio di
cosiddetta scelta second – best, per incrementare il benessere, devono essere posti uguali
al valore attribuito alle emissioni inquinanti, ovvero γ . Per quanto riguarda la tassa ad
valorem, questa aumenta il benessere sociale solo se il valore di γ non è troppo elevato,
ovvero se
γ<
3
4(2Θ−1)
.
Tale risultato, intuitivamente, dipende dal fatto che una tassa di questo tipo aumenta il
benessere sociale in quanto riduce il gap tra H e L ed incrementa la competitività, ma
abbassa anche il livello ottimale di qualità ambientale incrementando l'intensità delle
emissioni. Pertanto quando queste hanno un forte peso nell'utilità dei consumatori il solo
utilizzo di ta come strumento non permette di aumentare il benessere rispetto al livello
garantito dal duopolio non regolato.
Questo modello, pur basandosi su ipotesi molto restrittive come quella sulla completezza
del mercato (ogni consumatore acquista un'unità di uno dei due beni prodotto) o quella
sull'output fsso, e senza prendere in considerazione l'orizzonte temporale, permette di
formalizzare alcuni concetti importanti nella gestione delle politiche verdi: esistono prodotti
simili, che differiscono solo per la qualità ambientale e che potrebbero avere prezzi diversi,
ed esistono consumatori disposti ad acquistarli. Esiste anche la possibilità di organizzare la
produzione in base ad un livello ottimale di emissioni, o meglio ad un livello di sforzo
necessario per il loro abbattimento, il che, in presenza di un'opportuna combinazione di
politiche, permette di massimizzare il benessere sociale.
Sapendo che il consumatore è indifferente tra acquistare il bene H o il bene L quando
θH =
pH − pL
eH −eL
−b
notiamo immediatamente che questo valore aumenta all'aumentare di ph, e quindi diminuirà
al suo diminuire: se il bene ad alta qualità ambientale costa di meno, ci saranno più
consumatori disposti ad acquistarlo, e questo prezzo, in presenza di una tassa sulle
emissioni, è minore quando l'intensità di emissioni della produzione è minore.
Intuitivamente, per ridurre tale intensità, senza ridurre l'output e mantenendo i proftti è
necessario che le imprese investano in R&S in modo da garantirsi nuovi e/o più effcienti
metodi produttivi, in modo da aumentare la competitività del proprio prodotto grazie ai
ridotti costi di produzione e non attraverso l'abbassamento della qualità ambientale.
2.5 Ricerca, Sviluppo e fallimenti del mercato
Quali sono dunque le politiche necessarie ad incrementare R&S? Come già anticipato,
l'informazione è un bene pubblico e questo porta a dei fallimenti del mercato: se gli
spillover vengono eliminati tramite i brevetti, tutte le imprese dovranno raggiungere lo
stesso obiettivo autonomamente e si troveranno a sovra-investire in modo strategico. In
presenza di spillover sotto-investiranno perché non vorranno rendere disponibile ai
concorrenti il risultato ottenuto. Anche nel modello di Poyago-Theotoky (2007) che stiamo
per analizzare siamo in presenza di un triplo fallimento del mercato: emissioni, livello di
investimento non ottimale, spillover informativi. E nuovamente ci troviamo davanti a due
giochi di Stackelberg: nel primo stadio del primo gioco le imprese conducono R&S
autonomamente mentre nel secondo gioco tale scelta è cooperativa; in entrambi i casi nel
secondo stadio il governo impone una tassa sulle emissioni, mentre nel terzo le due
imprese competono sul prezzo scegliendo le quantità.
L'importanza dei costi della ricerca e sviluppo per il imprese entra immediatamente
nell'analisi attraverso la funzione di costo delle imprese
c(qi , zi)=cqi+(
γ zi
2
2
) ,
dove zi è il costo della ricerca e sviluppo e γ>0 è il parametro che ne indica l'effcienza.
Le emissioni totali vengono ridotte sia dalla R&S che dagli spillover, e si presentano nella
funzione
ei (qi , zi )=qi −zi−β z j
dove 0≤β≤1 indica quanto la ricerca ricerca e sviluppo del concorrente incida sulle
emissioni.
Esiste infne una funzione quadratica di danno dovuto alle emissioni complessive defnita
come
D=
1
2
d E2
dove d>1/2 indica l'entità del danno, mentre E=ei + ej.
Tramite i tre stadi sopra descritti si ottengono la spesa per R&S, la tassa e l'output di
equilibrio, oltre che i proftti e il livello di benessere sociale, sia nel caso di R&S autonoma
(nc) che nel caso di cooperazione, o cartello in ricerca e sviluppo (erc).
La spesa per ricerca e sviluppo nei due casi è rispettivamente
znc=
[(1+d)(2d−1)+d (1+β)] A
2γ(1+d)
2
+d (1+β)[3(3+β)+d (7+β)]
;
zerc=
[(1+d)(2d−1)+d (1+β)] A
2γ(1+d)2
+4d(3+2d)(1+β)2
,
dove il parametro A coincide con (a – c), dove a indica il potere di mercato dell'impresa e c
il costo unitario di produzione. Per quanto riguarda gli altri valori di equilibrio
tnc=
d (2d−3)(1+β)2
+2 γ(2d2
+d−1)
2d(1+β)[3(3+β)+d (7+β)]+4 γ(1+d)
2
A;
terc=
[d (2d−3)(1+β)
2
+γ(2d
2
+d−1)] A
2(1+d)2
γ+4d(3+2d)(1+β)2
sono i livelli di tassazione, mentre l'output nei due casi è pari a
qnc=
2(1+d)γ+d (1+β)(7+4d+3β)
2d(1+β)[3(3+β)+d(7+β)]+4γ(1+d)2
A;
qerc=
[ d(5+2d)(1+β)2
+γ(1+d)]A
2(1+d)2
γ+4d(3+2d)(1+β)2
.
I proftti delle imprese corrispondono a
πnc=qnc
2
+tnc(1+β)znc−
1
2
γ znc
2
;
πerc=qerc
2
+terc (1+β)zerc−
1
2
γ zerc
2
;
infne il benessere sociale complessivo realizzato nei due casi è
SW nc=2Aqnc−2qnc
2
−2d(qnc−(1+β)znc)2
−γ znc
2
;
SW erc=2Aqerc−2qerc
2
−2d(qerc−(1+β) zerc)
2
−γ zerc
2
.
Confrontando questi valori, emergono diversi elementi interessanti: considerando, come da
ipotesi, un valore positivo di gamma (ovvero R&S relativamente effciente) e un valore d > ½,
nel caso di cooperazione in materia di R&S si avrà una spesa z maggiore e un minore livello
di tassazione, per ogni livello di danno. La R&S indipendente risulta migliore solo nel caso
di una bassa effcienza della ricerca e di danni ambientali molto elevati. A livello di proftti,
alle imprese conviene sempre istituire in cartello di R&S, mentre non è così la punto di vista
del benessere sociale. La collusione lo incrementa, ma non quando la R&S è effciente e i
danni ambientali ingenti: questo crea disallineamento fra interesse pubblico e privato,
giustifcando l'applicazione di politiche. Come osservato da Poyago – Theotoky (2007),
quando il valore di ß tende a 1, ovvero quando l'informazione è maggiormente condivisa
(nel caso di ß=1 si parla di joint venture e non più di cartello) tutte le condizioni sono più
favorevoli, incluso il benessere sociale, e per ogni livello di danno ambientale causato
dall'inquinamento: sarebbe quindi opportuno stimolare organizzazioni di questi tipo
piuttosto che cartelli, e quando ciò non è possibile, stimolare la competitività delle imprese
per incrementarne l'effcienza in materia di R&S.
Anche questo modello però, non è immune da difetti: innanzi tutto, e come il modello di
Lombardini-Riipinen (2005), non considera la dimensione temporale. Inoltre si assume che il
governo non sia in grado di garantire credibilità riguardo all'applicazione della tassa sulle
emissioni, che è peraltro l'unico strumento preso in considerazione.
Non è ovviamente possibile includere in un solo modello tutti le possibili politiche applicabili
nella realtà, e i due qui analizzati riescono comunque a dimostrare che, in alcuni casi,
attraverso le politiche è possibile migliorare il benessere della società e simultaneamente
abbattere le emissioni inquinanti. Quello che non viene fatto è prendere in considerazione
due aspetti fondamentali, che non possono non essere ignorati nel perseguimento degli
obiettivi riguardanti il cambiamento climatico: il perseguimento della crescita del sistema
economico nel suo complesso (e non solo della massimizzazione di proftti delle imprese e
benessere sociale) e la capacità dei regolatori di implementare in modo credibile e nel lungo
periodo le politiche necessarie, che è requisito fondamentale affnché gli agenti del mercato
possano pianifcare consumi e produzione futuri in maniera eco-sostenibile.
2.6 Oltre l'economia industriale
La presenza di un orizzonte temporale infnito nelle decisioni di produzione di imprese
oligopolistiche soggette a tassazione delle emissioni è preso in considerazione da
Benchekroun e van Long (1998). Essi propongono un numero n di imprese identiche che
possono massimizzare i proftti per tutto l'orizzonte temporale in base a quelli scelti dalle
altre creando un equilibrio di Nash che è, per sua stessa defnizione, time consistent (ovvero
non varia nel tempo): questo implica anche che le imprese conoscano perfettamente le
scelte di tutte le altre. Essi dimostrano che sia nel caso di un equilibrio di Nash di tipo
open-loop che nel caso di un equilibrio di Nash di Markov, dove l'output è anche funzione
dello stock di emissioni osservato in quel periodo, l'introduzione di una tassa da parte del
pianifcatore benevolo permette di massimizzare il benessere sociale. La tassazione può
anche assumere valore negativo, ovvero diventare un sussidio, quando le emissioni sono
basse: questo spinge le imprese a produrre meno, sapendo che se l'output aumenta il
sussidio si riduce.
Questo dimostra che l'economia industriale fornire basi teoriche solide all'applicazione di
politiche per l'innovazione verde, che siano time consistent e che permettano di
massimizzare il benessere sociale. La forma di tali politiche è solitamente l'imposizione di
un prezzo sulle emissioni, in varie forme, che vanno indirettamente o indirettamente, a
stimolare l'innovazione verde. Lo stato può far pagare un prezzo unitario sullo stock di
emissioni prodotto, o eccedente un prestabilito tetto; può fornire incentivi ai consumatori
affnché scelgano i beni a qualità ambientale maggiore o incentivi alle imprese stesse
affnché investano in ricerca e sviluppo, sia autonomamente che cooperando tra loro. Come
suggerito da Poyago-Theotoky (2007), poiché il cartello in ricerca e sviluppo è effciente
solo in alcuni casi, lo stato dovrebbe anche promuovere la condivisione delle informazioni
da parte delle imprese che decidono di massimizzare proftti congiunti ed evitare
l'imposizione di brevetti che creano ulteriori distorsioni del sistema. Quello che invece
dimostra Lombardini-Riipinen (2005) è che non basta un solo strumento per correggere tutti
i fallimenti del mercato, che nella specifcità dei modelli analizzati sono ben tre: anche se un
solo strumento permette di migliorare il benessere sociale rispetto a nessuno strumento,
questo non permette di massimizzarlo.
Questo spiega perché la maggior parte dei piani per la riduzione delle emissioni a lungo
termine, come lo schema europeo EU ETS (ma anche lo schema britannico e quello
australiano) prevedano l'applicazione di una molteplicità di strumenti, tra cui la tassazione e
lo scambio di crediti per le emissioni e incentivi sia alle famiglie che alle imprese. Sono
inoltre importanti le politiche di coordinamento tra i diversi governi in modo che lo sforzo
per la mitigazione sia il più possibile uniforme (come sancito anche dalle linee guida
dell'IPCC).
Oltre al benessere sociale i governi devono anche perseguire la crescita economica quando
decidono dell'applicazione di qualunque tipo di politiche, ed è tanto più vero quando si
parla di politiche di innovazione verde che sono state a lungo viste come investimenti poco
profttevoli e poco necessari, in quanto sono solo pochi anni che il cambiamento climatico è
entrato uffcialmente a fare parte delle agende governative, senza considerare che
ultimamente l'urgenza della crisi economica sembra aver messo in secondo piano ogni altra
tematica. Eppure il rinnovamento del sistema produttivo e lo spostamento delle preferenze
dei consumatori in direzione di una maggiore qualità ambientale nel lungo periodo, tali da
migliorare il benessere sociale, sembrano intuitivamente una possibile soluzione ad
entrambi i problemi. Tuttavia, per parlare di accumulazione di capitale e di crescita
economica, è necessario affancare agli strumenti teorici fnora analizzati anche teorie che
prevedano accumulazione di capitale per la crescita del sistema economico, in particolare,
il modello di crescita endogena di Ramsey-Cass-Koopmans.
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile
Innovazione Verde e Crescita Sostenibile

More Related Content

Viewers also liked

Oferta produktowa Bratex - blachodachówki
Oferta produktowa Bratex - blachodachówkiOferta produktowa Bratex - blachodachówki
Oferta produktowa Bratex - blachodachówkiBratex
 
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACIONPRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION1072492189
 
Aircraft Engine part1
Aircraft Engine part1Aircraft Engine part1
Aircraft Engine part1Omar Osama
 
Amyotrophic lateral sclerosis (als)
Amyotrophic lateral sclerosis (als)Amyotrophic lateral sclerosis (als)
Amyotrophic lateral sclerosis (als)Jessica González
 
Lasers in pediatric dentistry
Lasers in pediatric dentistryLasers in pediatric dentistry
Lasers in pediatric dentistryBhumi Patel
 

Viewers also liked (9)

J1 chenkuancheng
J1 chenkuanchengJ1 chenkuancheng
J1 chenkuancheng
 
How to meditate
How to meditateHow to meditate
How to meditate
 
Oferta produktowa Bratex - blachodachówki
Oferta produktowa Bratex - blachodachówkiOferta produktowa Bratex - blachodachówki
Oferta produktowa Bratex - blachodachówki
 
Geometria descriptiva
Geometria descriptivaGeometria descriptiva
Geometria descriptiva
 
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACIONPRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION
PRESENTACION SOBRE LA IMPORTANCIA DE LA COMUNICACION
 
MNP,PPT BY VENKATESH.
MNP,PPT BY VENKATESH.MNP,PPT BY VENKATESH.
MNP,PPT BY VENKATESH.
 
Aircraft Engine part1
Aircraft Engine part1Aircraft Engine part1
Aircraft Engine part1
 
Amyotrophic lateral sclerosis (als)
Amyotrophic lateral sclerosis (als)Amyotrophic lateral sclerosis (als)
Amyotrophic lateral sclerosis (als)
 
Lasers in pediatric dentistry
Lasers in pediatric dentistryLasers in pediatric dentistry
Lasers in pediatric dentistry
 

Similar to Innovazione Verde e Crescita Sostenibile

Blue Economy: la natura come guida e lo sviluppo delle tecnologie
Blue Economy: la natura come guida e lo sviluppo delle tecnologieBlue Economy: la natura come guida e lo sviluppo delle tecnologie
Blue Economy: la natura come guida e lo sviluppo delle tecnologieSaraRiccio1
 
2019 10 decoupling-debunked-paolantoni
2019 10 decoupling-debunked-paolantoni2019 10 decoupling-debunked-paolantoni
2019 10 decoupling-debunked-paolantoniSnpambiente
 
Gestione etica d'impresa
Gestione etica d'impresa Gestione etica d'impresa
Gestione etica d'impresa Jessica Fileni
 
CRISI ECOLOGICA E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA? M. Morosini, ...
CRISI ECOLOGICA  E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA?   M. Morosini, ...CRISI ECOLOGICA  E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA?   M. Morosini, ...
CRISI ECOLOGICA E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA? M. Morosini, ...morosini1952
 
Relazione sullo stato della green economy in italia 2018
Relazione sullo stato della green economy in italia 2018Relazione sullo stato della green economy in italia 2018
Relazione sullo stato della green economy in italia 2018Massa Critica
 
L'economia italiana dopo il covid 19 - the italian economy after covid-19
L'economia italiana dopo il covid 19 - the italian economy after covid-19L'economia italiana dopo il covid 19 - the italian economy after covid-19
L'economia italiana dopo il covid 19 - the italian economy after covid-19SalvatoreSpadaro4
 
Green marketing (r)evolution
Green marketing (r)evolutionGreen marketing (r)evolution
Green marketing (r)evolutionGiuseppe Storelli
 
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018Tecnoalimenti S.C.p.A.
 
Agenda ambientalista
Agenda ambientalistaAgenda ambientalista
Agenda ambientalistaamanda_pacher
 
Elezioni nazionali 2013 doc ass ambientaliste sintesi def
Elezioni nazionali 2013 doc ass ambientaliste sintesi defElezioni nazionali 2013 doc ass ambientaliste sintesi def
Elezioni nazionali 2013 doc ass ambientaliste sintesi defwwfturismo
 
Analisi di un anno di governo Monti - Antonio De Poli
Analisi di un anno di governo Monti - Antonio De Poli Analisi di un anno di governo Monti - Antonio De Poli
Analisi di un anno di governo Monti - Antonio De Poli Antonio De Poli
 
Editoriale - così il rigore del prof ha messo al tappeto l'economia italiana
Editoriale - così il rigore del prof ha messo al tappeto l'economia italianaEditoriale - così il rigore del prof ha messo al tappeto l'economia italiana
Editoriale - così il rigore del prof ha messo al tappeto l'economia italianapdl-approfondimenti
 
La Lombardia dopo il COVID 19. Un progetto per tornare a crescere
La Lombardia dopo il COVID 19. Un progetto per tornare a crescereLa Lombardia dopo il COVID 19. Un progetto per tornare a crescere
La Lombardia dopo il COVID 19. Un progetto per tornare a crescereAres 2.0 - aresduezero
 
Sustainability-oriented innovation e modelli di business: casi aziendali a co...
Sustainability-oriented innovation e modelli di business: casi aziendali a co...Sustainability-oriented innovation e modelli di business: casi aziendali a co...
Sustainability-oriented innovation e modelli di business: casi aziendali a co...Mattia Pagliuso
 
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...Nicola_C_Salerno
 
Verso la grande transizione Mauro Bonaiuti m. 2011
Verso la grande transizione Mauro Bonaiuti m. 2011Verso la grande transizione Mauro Bonaiuti m. 2011
Verso la grande transizione Mauro Bonaiuti m. 2011Decrescita FVG
 
Le proposte dei 10 saggi di Napolitano
Le proposte dei 10 saggi di NapolitanoLe proposte dei 10 saggi di Napolitano
Le proposte dei 10 saggi di Napolitanoidealistait
 
Saggi - relazione conclusiva del gruppo economico-sociale
Saggi - relazione conclusiva del gruppo economico-socialeSaggi - relazione conclusiva del gruppo economico-sociale
Saggi - relazione conclusiva del gruppo economico-socialeilfattoquotidiano.it
 

Similar to Innovazione Verde e Crescita Sostenibile (20)

Blue Economy: la natura come guida e lo sviluppo delle tecnologie
Blue Economy: la natura come guida e lo sviluppo delle tecnologieBlue Economy: la natura come guida e lo sviluppo delle tecnologie
Blue Economy: la natura come guida e lo sviluppo delle tecnologie
 
2019 10 decoupling-debunked-paolantoni
2019 10 decoupling-debunked-paolantoni2019 10 decoupling-debunked-paolantoni
2019 10 decoupling-debunked-paolantoni
 
Gestione etica d'impresa
Gestione etica d'impresa Gestione etica d'impresa
Gestione etica d'impresa
 
CRISI ECOLOGICA E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA? M. Morosini, ...
CRISI ECOLOGICA  E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA?   M. Morosini, ...CRISI ECOLOGICA  E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA?   M. Morosini, ...
CRISI ECOLOGICA E SOCIALE - UN FUTURO SOSTENIBILE IN EUROPA? M. Morosini, ...
 
Relazione sullo stato della green economy in italia 2018
Relazione sullo stato della green economy in italia 2018Relazione sullo stato della green economy in italia 2018
Relazione sullo stato della green economy in italia 2018
 
B. Sviluppo Sostenibile
B. Sviluppo SostenibileB. Sviluppo Sostenibile
B. Sviluppo Sostenibile
 
L'economia italiana dopo il covid 19 - the italian economy after covid-19
L'economia italiana dopo il covid 19 - the italian economy after covid-19L'economia italiana dopo il covid 19 - the italian economy after covid-19
L'economia italiana dopo il covid 19 - the italian economy after covid-19
 
Green marketing (r)evolution
Green marketing (r)evolutionGreen marketing (r)evolution
Green marketing (r)evolution
 
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018
Relazione del Presidente di Tecnoalimenti all'Assemblea dei Soci 2018
 
Agenda ambientalista
Agenda ambientalistaAgenda ambientalista
Agenda ambientalista
 
Elezioni nazionali 2013 doc ass ambientaliste sintesi def
Elezioni nazionali 2013 doc ass ambientaliste sintesi defElezioni nazionali 2013 doc ass ambientaliste sintesi def
Elezioni nazionali 2013 doc ass ambientaliste sintesi def
 
Analisi di un anno di governo Monti - Antonio De Poli
Analisi di un anno di governo Monti - Antonio De Poli Analisi di un anno di governo Monti - Antonio De Poli
Analisi di un anno di governo Monti - Antonio De Poli
 
Editoriale - così il rigore del prof ha messo al tappeto l'economia italiana
Editoriale - così il rigore del prof ha messo al tappeto l'economia italianaEditoriale - così il rigore del prof ha messo al tappeto l'economia italiana
Editoriale - così il rigore del prof ha messo al tappeto l'economia italiana
 
La Lombardia dopo il COVID 19. Un progetto per tornare a crescere
La Lombardia dopo il COVID 19. Un progetto per tornare a crescereLa Lombardia dopo il COVID 19. Un progetto per tornare a crescere
La Lombardia dopo il COVID 19. Un progetto per tornare a crescere
 
Sustainability-oriented innovation e modelli di business: casi aziendali a co...
Sustainability-oriented innovation e modelli di business: casi aziendali a co...Sustainability-oriented innovation e modelli di business: casi aziendali a co...
Sustainability-oriented innovation e modelli di business: casi aziendali a co...
 
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...
Articolo per ALTROCONSUMO - Tassare gli alimenti dannosi per la salute e per ...
 
Verso la grande transizione Mauro Bonaiuti m. 2011
Verso la grande transizione Mauro Bonaiuti m. 2011Verso la grande transizione Mauro Bonaiuti m. 2011
Verso la grande transizione Mauro Bonaiuti m. 2011
 
Agenda possibile
Agenda possibileAgenda possibile
Agenda possibile
 
Le proposte dei 10 saggi di Napolitano
Le proposte dei 10 saggi di NapolitanoLe proposte dei 10 saggi di Napolitano
Le proposte dei 10 saggi di Napolitano
 
Saggi - relazione conclusiva del gruppo economico-sociale
Saggi - relazione conclusiva del gruppo economico-socialeSaggi - relazione conclusiva del gruppo economico-sociale
Saggi - relazione conclusiva del gruppo economico-sociale
 

Innovazione Verde e Crescita Sostenibile

  • 1. Alma Mater Studiorum – Università di Bologna FACOLTA’ DI SCIENZE POLITICHE Corso di laurea magistrale in Economia, Industria e Istituzioni Finanziarie Tesi di Laurea in Economia Industriale Avanzata INNOVAZIONE VERDE E CRESCITA SOSTENIBILE: UNA PROSPETTIVA TEORICA Candidato Relatore Chiar.mo Prof. Nico Scagliarini Luca Lambertini Sessione III Anno Accademico 2010/2011
  • 2. “Sell the kids for food weather changes moods spring is here again reproductive glands. He's the one who like all the pretty songs and he likes to sing along and he likes to shoot his gun but knows not what it means. We can have some more nature is a whore bruises on the fruit tender age in bloom.” NIRVANA
  • 3.
  • 4. Introduzione “Ridurre le emissioni a livelli tali da impedire interferenze umane dannose per il sistema climatico, considerando la crescita economica e demografca, richiederà cambiamenti sostanziali nell'utilizzo dell'energia, che includano innovazione tecnologica e miglioramento dell'effcienza, della conservazione e delle fonti di energia alternative … ma i paesi non hanno tutti lo stesso interesse nel ridurre le emissioni, né la loro infuenza è egualmente signifcativa.” (Baumert et al., 2005, pag.2, traduzione). Alla fne del 2011 a Durban si svolgeva la Conferenza sul Clima delle Nazioni Unite. Questa si è conclusa con l'adozione di una piattaforma programmatica per il raggiungimento di un accordo globale che entro il 2015 subentri alla scadenza al Protocollo di Kyōto, e di un progetto per l'istituzione di un Fondo Verde, volto a fnanziare politiche per la riduzione delle emissioni nei paesi in via di sviluppo. Per quanto la crisi economica abbia avuto nell'ultimo periodo una risonanza mediatica decisamente maggiore rispetto ai problemi ambientali, le due questioni non sono affatto scollegate: gli effetti di un generalizzato incremento delle temperature sul sistema economico-produttivo possono sembrare marginali, o comunque molto dilazionati nel tempo, ma basta una rapida occhiata ai dati su cause e conseguenze del global warming per convincersi del contrario. L'intento di questa tesi è quello di chiarire questa relazione, dimostrando che le emissioni antropogeniche di gas serra e i loro effetti
  • 5. sul clima del pianeta sono a tutti gli effetti un problema economico: sono esternalità negative e, come afferma Nicholas Stern, sono “il più grande fallimento del mercato che il mondo abbia mai visto” (Stern, 2009, p.11, traduzione). Poiché introdurre misure di mitigazione delle emissioni, attraverso l'investimento in ricerca e sviluppo, la riduzione della produzione o il versamento di tasse compensative dell'inquinamento ha un costo, il problema della loro riduzione delle emissioni prende la forma di un dilemma del prigioniero: esiste la possibilità di equilibrio effciente in senso paretiano ma in mancanza di una regolamentazione questo non verrà mai raggiunto dall'interazione spontanea degli agenti sul mercato. Senza l'intervento di un pianifcatore sociale benevolo che consideri la qualità ambientale (o l'esternalità negativa dovuta alle emissioni) nella sua funzione obiettivo, né i consumatori né i produttori avranno un incentivo suffciente per autotassarsi in modo da conseguire autonomamente l'ottimo sociale. L'idea di fondo è che senza tenere conto del cambiamento climatico è impossibile pensare di programmare crescita economica, né per i paesi in via di sviluppo né tantomeno per quelli già sviluppati o le economie emergenti. Non solo le variabili climatiche ambientali hanno un effetto diretto sulla produzione, ma entrambe interagiscono necessariamente anche con la componente demografca: più persone nel mondo signifca più consumo, quindi più fabbisogno energetico e alimentare da soddisfare, il che porta a sua volta ad una maggiore pressione sulle risorse naturali, con conseguenti implicazioni geopolitiche potenzialmente confittuali. É quindi in concomitanza con una crisi economica generalizzata e un'uffcializzata recessione in Europa, come dichiarato il 23 febbraio 2012 dalla Commissione Europea, che diventa ancora più importante pianifcare la crescita in modo da minimizzare sia il rischio che l'incertezza derivanti dalle variabili climatiche, demografche ed energetiche. Il Capitolo I spiega il cambiamento climatico come fenomeno: il susseguirsi di ricerche
  • 6. scientifche che ha condotto alla sua scoperta e come è diventato oggetto di interessi politici ed economici, a partire dai trattati internazionali al riguardo, come il Protocollo di Kyōto e quello di Montreal. Illustra quali sostanze ne siano responsabili, le loro caratteristiche e la loro concentrazione atmosferica e quali siano i paesi e settori produttivi che hanno rilasciato, rilascano e probabilmente rilasceranno, la maggior quantità di queste sostanze nell'atmosfera. Dopo le cause, vengono descritti gli effetti, e i diversi possibili scenari per il futuro, a seconda dell'applicazione o meno di misure di mitigazione, secondo le diverse tempistiche di intervento, e le possibili forme di questo intervento, come la sostituzione dei combustibili fossili con fonti di energia rinnovabili e l'incremento dell'effcienza energetica. Infne, viene introdotto il concetto dal punto di vista economico attraverso le possibili implicazioni per la crescita. Il Capitolo II analizza le politiche di mitigazione attraverso gli strumenti teorici dell'Economia Industriale: dopo una breve introduzione delle teorie necessarie alla comprensione dei modelli analizzati nei Capitolo II e III. Vengono poi illustrati dettagliatamente due modelli (e in breve un terzo) che dimostrano come le politiche governative possano migliorare il benessere sociale correggendo le imperfezioni del mercato. Nel primo modello (Lombardini- Riipinen, 2005) queste imperfezioni sono dovute alle emissioni, dall'asimmetria del prodotto (i due beni sono ordinati in base alla qualità ambientale) e al fatto di trovarsi in una condizione di duopolio. Si illustra come senza l'intervento dello stato si raggiunga l'allocazione ottimale dei consumi ma non il massimo benessere sociale. Affinché ciò avvenga è necessario che il pianificatore sociale applichi una tassa ad valorem uniforme sull'output e una tassa sulle emissioni/sussidio per l'acquisto del bene a qualità ambientale maggiore. Nel caso sia possibile applicare solo una delle due politiche il benessere sociale aumenta rispetto al caso di duopolio non regolato ma non è massimizzato, e si dimostra che l'equilibrio di second-best è possibile solo quando le emissioni hanno un'influenza solo marginale sul benessere sociale. Questo introduce lo spazio per altre politiche, come quelle
  • 7. a favore della ricerca e sviluppo, delle quali si occupa il secondo modello (Poyago-Theotoky, 2007). Anche in questo caso esistono due imprese con potere di mercato, che producono emissioni che vanno a danneggiare in benessere sociale e possono investire in ricerca e sviluppo, ma poiché c'è spillover informativo, l'investimento sarà subottimale. Vieni dimostrato che quando le imprese collaborano in materia di ricerca e sviluppo, formando un cartello, il benessere aumenta, e aumenta quanto più l'informazione è condivisa. Alla fine del capitolo vengono introdotti i limiti dell'approccio dell'economia industriale rispetto ai problemi che le politiche di mitigazione devono affrontare nella realtà: la credibilità del governo, gli orizzonti temporali prolungati e la crescita economica. Il Capitolo III presenta innanzi tutto il modello di crescita endogena di Ramsey-Cass- Koopmans, e poi analizza modelli che combinano la dinamica di accumulazione del capitale con l'interazione tra i produttori e il pianificatore sociale che impone una tassa. Il primo modello (Dragone et al., 2008) vede N imprese oligopolistiche che non internalizzano le proprie emissioni, e quindi il governo impone una tassa per massimizzare il benessere sociale: quanto l'esternalità dipende dal consumo è possibile raggiungere l'ottimo livello sociale, quando invece l'esternalità dipende dalla produzione questo non è possibile. Il modello successivo (Xie, 1997) non solo affronta la questione della time consistency, ma risolve anche la questione della provenienza delle emissioni poiché i produttori sono anche consumatori, e questi interagiscono con il governo che massimizza il benessere sociale imponendo una tassa sull'output che viene reinvestita in un generico bene pubblico, che è in questo caso interpretato come la qualità ambientale. Viene dimostrato che, in alcuni casi parametrici, è possibile individuare un livello di tassazione che sia time consistent che efficiente in senso paretiano, in quanto indipendente dall'output. Il quarto e ultimo capitolo analizza invece come tali strumenti teorici siano stati applicati nella realtà, sia a livello di elaborazione di politiche più complesse e strutturate come gli schemi di cap&trade nei paesi industrializzati, sia a livello di iniziative locali sia nei paesi industrializzati (in particolare all'interno della Comunità Europea) sia a livello di progetti avviati nei paesi in via di sviluppo e meno sviluppati, con la collaborazione delle organizzazioni internazionali.
  • 8. Capitolo I Guida Rapida al Global Warming “Enjoy yourself, is later than you think” THE SPECIALS 1.1 Il cambiamento mediatico Quando ci si avvicina allo studio delle tematiche ambientali, sia dal punto di vista scientifco che da un punto di vista politico-economico, risulta evidente una cosa: diffcilmente coloro nati a cavallo tra la fne degli anni '80 e l'inizio degli anni '90 del secolo scorso erano ne erano a conoscenza o si erano mai veramente interrogati al riguardo, prima dell'uscita di flm come il documentario An Inconvenient Truth (Davis Guggenheim, 2006), o del catastrofco The Day After Tomorrow (Roland Emmerich, 2004). Quello che io e miei coetanei sapevamo sull'ambiente era che bisognava riciclare plastica, carta e vetro, fermare la deforestazione e proteggere le specie in via di estinzione. Sapevamo che alcune macchine hanno un carburante diverso dalle altre, che bisogna chiudere il rubinetto mentre ci si lava i denti e mangiare sempre tutto pensando ai bambini che pativano le carestie in Africa. Quando siamo diventati un po' più grandi abbiamo sentito parlare di guerre combattute per il petrolio e dell'esistenza di fonti di energia rinnovabili: abbiamo sempre avuto cognizione di cosa fosse più giusto o tendenzialmente sbagliato, ma diffcilmente ci siamo interrogati sul perché. O se tutti questi fenomeni fossero tra di loro collegati.
  • 9. Delle due pellicole citate, la seconda è sicuramente meno informativa ed allarmante (essendo uno strumento di intrattenimento, e non di informazione) ma decisamente più d'impatto, almeno per il numero di spettatori che è stata in grado di raggiungere. Inoltre le premesse su cui si basa la trama sono del tutto verosimili: è vero che lo studio del clima si basa su modelli computerizzati, e che, come detto nel paragrafo precedente, parte dallo studio delle cause delle glaciazioni. Ed è vero che clima della regione Nord Atlantica dipende dalle correnti oceaniche. L'acqua più calda e ricca di sale si sposta dalle zone equatoriali a quelle polari dove a causa dello stagionale scioglimento dei ghiacci l'acqua è più fredda e meno salina; qui l'acqua si raffredda e sprofonda per poi tornare verso sud: in questo modo le aree più fredde si riscaldano e quelle più calde si rinfrescano. Perciò, quello che potenzialmente può rallentare o fermare la corrente è l'aumento della quantità di acqua dolce e fredda dovuto ad un maggiore scioglimento dei ghiacciai a causa dell'innalzamento delle temperature. Questo comporterebbe sostanzialmente meno redistribuzione del calore attraverso l'emisfero, con inverni più rigidi nel nord e estati più calde e con maggiori precipitazioni più a sud. É evidente che un tale cambiamento non può avvenire da un giorno all'altro come nel flm, e che nonostante l'innalzamento della temperatura media mondiale non è previsto in tempi imminenti nessuno scioglimento dei ghiacci suffcientemente ampio da fermare la corrente del Golfo (Smith, 2010, pagg. 288-231), nonostante il fenomeno in questione (e il direttamente correlato di innalzamento del livello del mare) resti la maggiore fonte di incertezza riguardo alle previsioni sui futuri effetti del surriscaldamento globale (Climate Change 2007: Synthesis Report, IPCC, p.73). Il cinema non è stato l'unico media a portare l'attenzione sui potenziali rischi del global warming: da qualche anno a questa parte i fenomeni atmosferici e naturali sono diventati più assidui e intensi, tanto che è diventato impossibile non notare l'interconnessione tra essi e l'innalzamento delle temperature. Ad inaugurare la lunga serie di prime pagine, l'uragano Katrina nel 2005, anno che ha registrato record sia per quanto riguarda la temperatura media, sia per quanto riguarda la frequenza e l'intensità dei cicloni tropicali. A
  • 10. seguire l'uragano Ike che ha colpito gli Stati Uniti e Cuba, le violente alluvioni anche che hanno colpito la costa orientale dell'Australia nel 2011 e nel 2012 (prima in Queensland poi in il New South Wales) e, ad inizio 2012, la Thailandia. Il cambiamento climatico tuttavia non è uniforme: se da un lato aumentano le piogge, altrove diminuiscono. In California, in Australia e in Grecia nell'estate del 2009, si sono verifcati numerosi incendi, senza contare la prolungata siccità nel Corno D'Africa e nel nord ancora dell'Australia. Gli scienziati hanno impiegato secoli ha mettere in relazione tutti questi fenomeni, su quali esistono ancora margini di incertezza, e solo in tempi recentissimi sono riusciti a convincere anche buona parte dei politici e dell'opinione pubblica che il prendere provvedimenti per mitigare gli effetti del cambiamento climatico non è più un'opzione, ma una necessità. 1.2 Breve storia della scoperta del cambiamento climatico Quando si parla fenomeni atmosferici è necessario innanzitutto distinguere tra meteorologia e climatologia: la prima si riferisce allo studio degli stati localizzati e temporanei dell'atmosfera e al tentativo di prevederli nel breve periodo. La seconda studia l'andamento delle temperature e dei fenomeni atmosferici nel lungo periodo, e riguarda sia le previsioni per il futuro che la ricostruzione di quanto avvenuto in passato. Il cambiamento climatico è infatti un fenomeno integrante del nostro ecosistema e sin dall'inizio dei tempi si sono alternati periodi in cui il pianeta era molto più caldo, come all'epoca dei dinosauri, o molto più freddo, come durante le era glaciali. Fu proprio nel tentativo di spiegare come quest'ultime avessero potuto verifcarsi che nel XIX secolo videro la luce i primi studi sul clima.
  • 11. All'inizio del'800 il francese Joseph Fourier, chiedendosi come la luce solare potesse scaldare la superfcie terrestre ma non incenerirla portandola a temperature pari a quella del sole stesso, scoprì una radiazione proveniente dalla superfcie del nostro pianeta capace di convogliare questo calore verso lo spazio. Fourier intuì anche che l'atmosfera terrestre era in grado di intrappolare parte di questo calore, ma furono i successivi studi del britannico John Tyndall a spiegare più dettagliatamente questo fenomeno, che conosciamo con il nome di effetto serra. In pratica, la terra assorbe le radiazioni solari ed emette delle radiazioni infrarosse della stessa intensità per bilanciare la temperatura, ma parte di queste radiazioni viene trattenuta dai cosiddetti gas serra che si trovano nella troposfera e mantengono la superfcie terrestre più calda di quanto sarebbe se tutta l'energia irradiata dalla terra venisse dispersa nello spazio. I principali gas serra esistenti in natura, indipendentemente dalle attività umane, sono il vapore acqueo (H2O) e l'anidride carbonica (CO2), seguiti in quantità assai minori da metano (CH3) e protossido di azoto (N2O). Un altro gas importante è l'ozono (O3), una forma allotropica dell'ossigeno la cui presenza della stratosfera forma una sorta di strato protettivo che fltra il passaggio dei raggi solari, quindi, contrariamente a quanto avviene per gli altri gas appena elencati, la temperatura aumenta quando se ne trova di meno. Oggi sappiamo che variazioni delle quantità di queste sostanze contenute nell'atmosfera hanno effetti a catena sul clima: un aumento della concentrazione di CO2 comporta un aumento delle temperature, e un'atmosfera più calda trattiene più umidità, e quindi l'effetto serra si intensifca. Sappiamo inoltre che alcune sostanze utilizzate dall'uomo liberano nell'atmosfera molecole che decomponendosi distruggono quelle di ozono. Allora invece la convinzione generale era che l'effetto serra stesse già esprimendo il suo massimo potenziale e quindi le futtuazioni delle quantità di anidride carbonica nell'atmosfera non avrebbero avuto nessun effetto sulle temperature, mentre gli oceani avrebbero assorbito qualunque ammontare di CO2 in eccesso. Il potenziale riscaldamento globale sarebbe quindi stato attribuito esclusivamente ad un aumento dell'umidità dell'atmosfera. Tutte
  • 12. queste ragioni, in aggiunta alle diffcoltà di misurazione e all'ancora contenuto livello di emissioni inquinanti, ne resero lo studio una disciplina marginale e poco approfondita per molti decenni. A partire dai primi anni della Guerra Fredda la ricerca scientifca assunse una nuova dimensione strategica: la necessità di aggiudicarsi un primato sulla potenza rivale spinse entrambi i blocchi a promuovere e fnanziare la ricerca scientifca non solo nel campo degli armamenti e quello aerospaziale, ma anche in materia di meteorologia, fsica, geochimica e oceanografa. Fenomeni come il clima e le correnti sono però intrinsecamente internazionali e interdisciplinari e una loro conoscenza approfondita non può prescindere dalla collaborazione sia tra governi che tra individui. Fu proprio grazie all'idea di alcuni scienziati che tra il 1957 e il 1958 gli studi sulle emissioni di CO2 si intensifcarono sotto la bandiera dell'Anno Internazionale della Geofsica, tramite il quale era stato possibile raccogliere fondi e avviare un processo di cooperazione, almeno in campo scientifco, tra le due potenze. Gli studi combinati del chimico Hans Seuss e dell'oceanografo Roger Revelle illustrarono che anche se parte dell'anidride carbonica viene effettivamente assorbita dagli oceani, questo processo richiede migliaia di anni (molto di più di quanto si pensasse in precedenza) e che comunque la maggior parte di queste particelle, concentrata in superfcie, viene nuovamente rilasciata nell'atmosfera attraverso l'evaporazione. Furono però le misurazioni effettuate dal geochimico Dave Keeling grazie ai nuovi strumenti piazzati alle Hawaii e in Antartide a confermare che la quantità di anidride carbonica nell'atmosfera stava aumentando di anno in anno, e il collegamento tra l'aumento delle temperature e l'aumento delle emissioni iniziò fnalmente ad essere considerato come una possibilità scientifcamente fondata e non più solo una remota ipotesi (Weart, 2003, pagg. 40-60). Parallelamente proseguivano le indagini sulle cause delle ere glaciali: dallo studio dei cambiamenti climatici del passato attraverso i pollini e il radiocarbonio contenuti nel suolo si passò a domandarsi se il clima potesse nuovamente cambiare e con che rapidità, visto
  • 13. che in passato il processo aveva richiesto millenni. Mentre alcuni scienziati si chiedevano se e quando sarebbe fnito il periodo interglaciale, altri analizzavano la relazione fra la temperatura terrestre e la presenza o meno dei ghiacci polari, delle correnti oceaniche e dei gas nell'atmosfera. Nessuna delle tre parti del quesito aveva ancora una risposta scientifcamente fondata ma almeno l'ultima era sotto gli occhi di tutti: l'inquinamento era visibile ad occhio nudo e la presenza di sostanze oscuranti nell'atmosfera aveva sia un effetto distorsivo sulla luce solare che giungeva sulla terra, sia sull'ambiente sottostante. Ancora però non si sapeva di preciso quali fossero questi effetti, tanto che a metà degli anni '70 una nuova imminente era glaciale era ritenuta possibile tanto quanto l'innalzamento delle temperature. Proprio in quegli anni le preoccupazioni riguardo l'inquinamento atmosferico e l'approvvigionamento energetico (in particolare a partire dalla crisi petrolifera del 1973) avevano rimpiazzato l'entusiasmo per l'industrializzazione e il boom economico (nonché la fobia per l'apocalisse nucleare) che avevano dominato le agende politiche e turbato il sonno dell'opinione pubblica per il ventennio precedente. Questo nuovo interesse per l'argomento permise agli scienziati di creare gruppi di pressione e di ottenere fnanziamenti dai rispettivi governi. La disponibilità di fondi permise di dimostrare il collegamento fra la deforestazione e la maggiore quantità di CO2 nell'aria, in quanto la vegetazione abbattuta non solo cessa di assorbire anidride carbonica, ma decomponendosi ne produce altra. Venne via via allontanata anche l'ipotesi di un possibile abbassamento delle temperature, mentre appariva sempre più probabile il suo innalzamento (Weart, 2003, pagg. 109-115). Questa crescente consapevolezza dei rischi legati all'inquinamento atmosferico portò nel 1988 all'istituzione, in sede alle Nazioni Unite, del Intergovernmental Panel on Climate Change (IPCC). Organo di collaborazione tra a United Nations Environment Programme (UNEP, fondata nel 1972) e la World Metheorological Organization (WMO, fondata nel 1950), il suo scopo era, ed è tuttora, la raccolta di informazioni scientifche sul cambiamento climatico inteso come “un cambiamento climatico nello stato del clima che possa essere
  • 14. identifcato attraverso variazioni nella media e/o nella variabilità delle sue proprietà e che persista per un esteso periodo di tempo” (Climate Change 2007: Synthesis Report, IPCC, p.30, traduzione). All'IPCC possono partecipare tutti i paesi membri dell'Onu, anche quelli non aderenti alla UNFCCC e al Protocollo di Kyōto, con l'unico limite di attenersi alle tecniche e alle unità di misurazione stabilite dalle Conferenze delle Parti e di riportare annualmente i dati, in modo che essi siano comparabili e il più possibile aggiornati. I suoi periodici rapporti sono probabilmente la più completa e precisa fonte di informazioni sullo stato del clima mondiale. 1.2 Il cambiamento climatico nella diplomazia internazionale Dopo la pubblicazione del primo rapporto dell'IPCC, nel 1990, iniziarono i negoziati per la United Nations Framework Convention on Climate Change (UNFCCC), che si propone come obiettivo “la stabilizzazione delle emissioni di gas serra nell'atmosfera ad un livello che permetterà di prevenire pericolose interferenze antropiche con il sistema climatico” (UNFCCC, pag. 9, traduzione). La defnizione di cambiamento climatico adottata in questa sede è diversa dalla precedente: “cambiamento climatico ... è attribuito direttamente o indirettamente all'attività umana e che altera la composizione dell'atmosfera globale e che si aggiunge alla naturale variabilità del clima osservata su periodi di tempo comparabili” (UNFCCC, pag. 7, traduzione). Veniva così uffcialmente introdotta la separazione fra emissioni e cambiamento climatico come fenomeni naturali ed emissioni e cambiamento climatico dovuti alle attività umane. Secondo l'IPCC (Climate Change 2007: Synthesis Report, p.72), infatti:
  • 15. ”Il riscaldamento del sistema climatico è inequivocabile, ed è oramai evidente dalle osservazioni degli incrementi nella temperatura media dell'aria e degli oceani, dal diffuso scioglimento della neve e dei ghiacci e nell'innalzamento medio globale del livello del mare.” Dall'approvazione del trattato UNFCCC, nel 1994, si sono tenute 17 Conferenze delle Parti (l'ultima a Durban nel Novembre 2011), la terza delle quali ha visto, nel 1997, l'approvazione formale del Protocollo di Kyōto, con il quale gli stati frmatari si impegnarono a limitare le emissioni con l'obiettivo di “promuovere lo sviluppo sostenibile”. Per farlo devono: • implementare e/o elaborare politiche e misure in accordo con le circostanze nazionali, come ad esempio: ◦ il miglioramento dell'effcienza energetica nei settori rilevanti dell'economia nazionale; ◦ la protezione e il miglioramento del decadimento e delle riserve dei gas serra non controllati dal Protocollo di Montreal1 , tenendo in considerazione gli obblighi derivanti da accordi internazionali sull'ambiente, promozione delle pratiche di gestione sostenibile delle foreste, forestazione e riforestazione; ◦ promozione di forme di agricoltura sostenibile alla luce delle considerazioni sul cambiamento climatico; ◦ ricerca su, promozione, sviluppo e maggior utilizzo delle fonti di energia nuove e rinnovabili, delle tecnologie di cattura dell'anidride carbonica e delle nuove e innovative tecnologie sicure per l'ambiente; ◦ progressiva riduzione o eliminazione delle imperfezioni di mercato, incentivi fscali, tasse ed esenzioni e sussidi in tutti i settori ad alto livello di emissioni che 1Il Protocollo di Montreal sulle Sostanze che impoveriscono lo strato di Ozono fu concluso nel 1987 ed insieme alla Convenzione di Vienna per la Protezione dello Strato di Ozono del 1985 è uno dei primi documenti internazionali ad affrontare la questione dei gas serra e del riscaldamento globale. Prevedeva l'elaborazione di uno schema per la totale rimozione dei gas clorofuorocarburi (in breve CFC: quelli delle bombolette spray, per intenderci) entro il 2030, i quali pertanto non fgurano nell'Annesso A del Protocollo di Kyōto.
  • 16. ostacolano gli obiettivi della Convenzione [UNFCCC n.d.a.] e l'applicazione degli strumenti di mercato; ◦ incoraggiamento e appropriate riforme nei settori rilevanti, volte a promuovere politiche e misure che limitano o riducono le emissioni di gas serra non controllate dal Protocollo di Montreal; ◦ limitazione e/o riduzione delle emissioni di metano attraverso il recupero e l'uso nella gestione dei rifuti, ma anche nella produzione, nei trasporti e nella distribuzione di energia; • l'effcacia delle politiche e delle misure … A questo fne le Parti devono condividere le proprie esperienze e scambiarsi informazioni su tali misure e politiche, nonché sviluppare metodi per il miglioramento della loro confrontabilità, trasparenza ed effcacia (Protocollo di Kyōto, art. 2, traduzione). L'obiettivo era la stabilizzazione delle emissioni ad un livello globale considerato sicuro, il che implicava grosse riduzioni per alcuni paesi (dell'8% come nel caso dell'Unione Europea) o anche incrementi per altri (del 10% per l'Islanda), nel periodo tra il 2008 e il 2012, con riferimento ai livelli di emissioni registrati nel 1990 (Baumert et al., 2005, p.3). Gli strumenti da utilizzarsi a questo scopo sono i cosiddetti meccanismi di Kyōto: • il commercio delle emissioni, che prevede che i paesi che non raggiungono il tetto massimo di emissioni previste possano “vendere” a paesi che invece la superano la loro quota di emissioni non utilizzate; • il meccanismo di sviluppo pulito, che prevede che i paesi frmatari possano promuovere progetti di sviluppo sostenibile in paesi in via di sviluppo; • l'implementazione congiunta, che prevede la collaborazione su progetti di sviluppo sostenibile tra paesi considerati avanzati.
  • 17. Dall'articolo 2 del si evincono alcuni concetti importanti e alcune debolezze dell'approccio. Innanzi tutto il le “misure in accordo con le circostanze nazionali” prevedono la distinzione tra i paesi avanzati dell'Annesso I, tra quali però risultano alcuni paesi in “transizione verso un'economia di mercato” (EIT), per i quali i target di riduzione delle emissioni sono ridimensionati. I paesi non-Annesso I sono invece i paesi defniti in via di sviluppo, e comprendono anche 49 paesi meno sviluppati (LDC): essi sono monitorati ed aderiscono al Protocollo, ma non sono legalmente vincolati alla riduzione delle emissioni. Tra questi anche Cina e l'India, che sono tra i primi 25 paesi per livello assoluto di emissioni di gas serra. Nello specifco i paesi EIT sono quelli che erano membri dell'ex Unione Sovietica e sarebbero quindi liberi di inquinare di più, o comunque ridurre meno le proprie emissioni. Tale misura è comprensibile, considerando la necessità di creare un livello di benessere adeguato nei paesi in questione e che le energie rinnovabili e le innovazioni citate nell'articolo richiedono costi di ricerca e sviluppo che diffcilmente paesi reduci dallo smembramento dell'URSS sarebbero stati in grado di affrontare. Inoltre dove c'è poca produzione ci sono anche poche emissioni. Pertanto, in confronto agli altri frmatari, i paesi “in transizione” inquinavano di meno. Tuttavia, l'arretratezza di queste economie poteva anche essere interpretata come un'opportunità di sviluppo sostenibile ex-novo: se per i paesi con economie di mercato già avviate si parla di “riforme nei settori rilevanti”, dove questi settori non erano ancora sviluppati, non sarebbe stato forse più semplice seguire da subito un modello di produzione eco sostenibile, invece che replicare il modello esistente e poi riformarlo? Lo stesso si può affermare riguardo ai paesi non-Annesso I, a maggior ragione se si considerano nazioni in rapidissima crescita sia economica che demografca come appunto Cina e India. Questo tema è stato oggetto di un working paper del World Resource Institute pubblicato nel dicembre 2011 (Levin e Finnegan, “Assessing Non-Annex I Pledges: Building a Case for Clarifcation”) dove si sostiene la necessità di imporre vincoli precisi anche a questi paesi, oltre che ad adottare criteri di misurazione delle emissioni specifci, poiché, come verrà spiegato più avanti, la composizione delle emissioni è diversa
  • 18. a seconda del tipo e di livello di sviluppo dell'economia. Rilevante anche il caso degli Stati Uniti, che non hanno mai ratifcato il trattato pur essendo il paese che produce più emissioni al livello assoluto e che ne ha prodotte di più tra il 1850 e il 2002 (Baumert et al., 2005, pagg. 12 e 32). Di fatto, nonostante la partecipazione quasi universale al Protocollo e alle relative contrattazioni, è molto diffcile garantirne e verifcarne l'effettiva applicazione, tanto più che si è giunti alla scadenza del periodo di impegno previsto. Durante la conferenza di Durban, oltre a ribadirsi la necessità di un nuovo protocollo per garantire la continuità degli impegni: “[si è] ... notato con grande preoccupazione il gap tra l'effetto aggregato delle forme di mitigazione applicate dalla Parti in termini di emissioni annuali dei gas serra entro il 2020 e le previsioni sulle emissioni consistenti con la possibilità di mantenere l'innalzamento delle temperature globali medie rispetto all'era pre- industriale al di sotto di 1,5° o 2°...” (Establishment of an Ad Hoc Working Group on the Durban Platform for Enhanced Action, p.1, UNFCC COP-17) Quindi non solo bisogno continuare ad applicare le misure di mitigazione, ma è necessario incrementarne l'effcacia e la diffusione con lo scopo di ridurre anche fno al 40% le emissioni di gas serra rispetto all'anno di riferimento (il caso della Norvegia, secondo le proposte di emendamento al Protocollo di Kyōto elaborate a Durban), oltre all'auspicio della futura partecipazione degli Stati Uniti. Tra le altre novità introdotte a Durban c'è anche l'introduzione tra i gas serra riconosciuti del triafuoruro di azoto (NF3), il quale però non si trova nelle statistiche sulle emissioni né sulle proiezioni in quanto non rientra ancora uffcialmente fra le sostanze considerate pericolose (nonostante un GWP pari a 17200 sull'orizzonte di 100
  • 19. anni2 ), in quanto è il suo utilizzo è stato introdotto solo di recente in sostituzione di altri gas serra e nella costruzione di parti elettroniche come gli schermi a cristalli liquidi (Morgan, 2008). Vale infne la pena di menzionare che dal 2004 anche la Comunità Europea si è dotata di un meccanismo di monitoraggio delle emissioni e di implementazione del Protocollo di Kyōto (che segue le linee guida dell'IPCC) e nel 2010 è stato istituito il Direttorato Generale per l'Azione sul Clima (DG CLIMA), con lo scopo di guidare le trattative internazionali sul clima, perseguire gli obiettivi di riduzione delle emissioni oltre che sviluppare ed implementare lo schema di Trading Europeo delle emissioni (EU ETS). 1.3 I colpevoli L'Annesso A del Protocollo di Kyōto identifca i seguenti gas antropici: • anidride carbonica (CO2); • metano (CH4); • protossido di azoto (N2O); • esafuoruro di zolfo (SF6); • i gas perfuorocarburi (PFC) e idrofuorocarburi HFC). Gli ultimi tre tipi di gas sono anche detti gas fuorinati e a differenza degli altri la loro presenza nell'atmosfera non interferisce sul calore in uscita da pianeta, bloccandolo nell'atmosfera, ma vanno bensì a corrodere lo strato di ozono presente nella stratosfera, 2 Per l'interpretazione di questi valori, vedere il paragrafo 1.3)
  • 20. che rallenta il passaggio delle radiazioni solari. I gas clorofuorocarburi (CFC), oggetto del Protocollo di Montreal non fgurano nell'Annesso A (che elenca i gas serra per i quali è necessario ridurre le emissioni), sebbene secondo il DG CLIMA la loro concentrazione atmosferica contribuisca, insieme a quella degli altri gas che impoveriscono l'ozono, per il 12% all'effetto complessivo di riscaldamento globale. Secondo la stessa fonte il primo responsabile del Global Warming è l'anidride carbonica (alla cui presenza è attribuito il 63% dell'effetto totale), seguita dal metano (19%), mentre il protossido di azoto è in fondo alla classifca con il 6%. Questo non signifca che l'anidride sia più dannosa degli altri gas in termini assoluti, ma che essendo presente nell'atmosfera in quantità maggiori abbia un effetto predominante: ogni gas serra non ha solo specifche fonti di emissione, modalità e tempi di smaltimento dall'atmosfera, ma anche diverso Global Warming Potential (GWP). Questo valore indica la quantità di calore assorbita da un determinato gas (o mix di gas) in determinato arco di tempo. La misura di riferimento è l'equivalente CO2 (MtCO2eq), per cui il GWP dell'anidride carbonica è 1. ll GWP del metano su 100 anni è 21: questo signifca che le emissioni di un milione di tonnellate cube di metano ha lo stesso effetto di 21 milioni di tonnellate cube di anidride carbonica (OECD, Glossario dei Termini Statistici). Questo signifca che il metano, seppur presente in quantità assai minore nell'atmosfera è potenzialmente molto più dannoso, e lo stesso vale per i gas fuorinati. La seguente tabella riassume tutti i gas serra dell'Annesso A, il loro periodo di permanenza nell'atmosfera, ovvero il periodo di tempo necessario perché essi siano smaltiti e quindi cessi il loro effetto, e il GWP per gli orizzonti temporali di 20, 100 e 500 anni. Esso è riferito ai periodi di decadimento calcolati secondo il modello di ciclo dell'anidride carbonica di Berna3 , e considerando emissioni di CO2 costanti nel tempo rispetto ai livelli registrati al 3 Tale modello studia la relazione tra le emissioni antropiche di CO2, lo stock già presente nell'atmosfera e la loro interazione con gli oceani, la superficie terrestre e l'atmosfera (F. Joos and M. Bruno, A SHORT DESCRIPTION OF THE BERN MODEL, University of Bern, 1996)
  • 21. periodo di elaborazione dei dati (1995). Tipo Formula Chimica Permanenza (anni) Potenziale Global Warming (orizzonte temporale) 20 anni 100 anni 500 anni CO2 CO2 variabile § 1 1 1 Metano* CH4 12±3 56 21 6,5 Protossido di Azoto N2O 120 280 310 170 HFC-23 CHF3 264 9100 11700 9800 HFC-32 CH2F2 5,6 2100 650 200 HFC-41 CH3F 3,7 490 150 45 HFC-43- 10mee C5H2F10 17,1 3000 1300 400 HFC-125 C2HF5 32,6 4600 2800 920 HFC-134 C2H2F4 10,6 2900 1000 310 HFC-134a C2H2F2 14,6 3400 1300 420 HFC-152a C2H4F2 1,5 460 140 42 HFC-143 C2H3F3 3,8 1000 300 94 HFC-143a C2H2F4 48,3 5000 3800 1400 HFC-227ea C3HF7 36,5 4300 2900 950 HFC-236fa C3H2F46 209 5100 6300 4700
  • 22. HFC-245ca C3H3F5 6,6 1800 560 170 Esafuoruro di Zolfo SF6 3200 16300 23900 349000 Perfuorome tano CF4 50000 4400 6500 10000 Perluoroeta no C2F6 10000 6200 9200 14000 Perfuoropro pano C3F8 2600 4800 7000 10100 Perfuorobut ano C4F10 2600 4800 7000 10100 Perfuorocicl obutano c-C4F8 3200 6000 8700 12700 Perfuorope ntano C5F12 4100 5100 7500 11000 Perfuoroesa no C6F14 3200 5000 7400 10700 § derivato dal Modello di Berna sul ciclo dell'anidride carbonica * Il GWP per il metano include gli effetti dell'ozono nella troposfera e la produzione di vapore acqueo nella stratosfera Climate Change 1995, The Science of Climate Change: Summary for Policymakers and Technical Summary of the Working Group I Report, pag. 22 L'eterogeneità dei gas serra ha diverse implicazioni: in primo luogo, anche in caso di immediata riduzione o eliminazione delle emissioni correnti, le concentrazioni nell'atmosfera continuerebbero ad esercitare un forcing radiativo positivo a causa dei tempi di smaltimento, e quindi la temperatura continuerebbe ad aumentare per effetto delle emissioni antropiche del passato almeno per un periodo (come sta avvenendo nel caso dei CFC). In secondo luogo, i processi di smaltimento sono strettamente collegati alla presenza di vegetazione, fauna marina, concentrazioni di ozono e precipitazioni. Tutti elementi vulnerabili all'innalzamento delle temperature, che potrebbe quindi anche interferire con l'effcacia dei processi di smaltimento stesso. Queste considerazioni sono utili a sottolineare un altro aspetto importante: l'incertezza della
  • 23. misurazione non è del tutto risolta, e questa deriva soprattutto dall'interazione dei cicli naturali dell'anidride carbonica con le emissioni antropiche della stessa, per questo, nella maggior parte delle statistiche e dei grafci (quando non specifcato diversamente) non vengono considerate le emissioni dovute a “diverso uso dei terreni e foreste” (Land Use Change and Forestry, in breve LUCF, pari al 18,3% del totale delle emissioni). È bene tenere a mente questa esclusione poiché la deforestazione e le attività agricole (che producono prevalentemente emissioni di metano e protossido di azoto) sono la maggior fonte di gas serra nei paesi in via di sviluppo, ma queste noon risultano nei dati che mostrano solo le emissioni di CO2 dovute all'utilizzo dei combustibili fossili. Queste ultime rappresentano l'81% delle emissioni nei paesi avanzati, ma solo il 41% nei paesi in via di sviluppo e il 5% in quelli meno sviluppati, mentre in questi ultimi due le emissioni di CO2 derivanti dalla LUCF stimate sono rispettivamente il 33% e il 62% del totale (Baumert et al., 2005, pagg. 3-7 e 12-14). L'ultimo bollettino sui gas serra della WMO stima che tra il 1750 e il 1958 solo il 45% delle emissioni di CO2 sia stato eliminato dall'atmosfera, mentre il restante 55% è rimasto ad accumularsi sopra le nostre teste. Per quanto riguarda gli altri principali gas serra la stima è che il 40% delle particelle di metano e protossido di azoto attualmente presenti nell'atmosfera siano di origine naturale, attribuendo il resto alle attività umane. Nello stesso bollettino è riportata la seguente tabella, che mostra la quantità e le variazioni dei tre gas tra il 1750 e il 2009, ipotizzando che le concentrazioni nell'atmosfera nel periodo pre-industriale fossero di 280ppm (parti per milione) per l'anidride carbonica, 700ppb (parti per miliardo) per il metano e 270ppb per il protossido di azoto.
  • 24. CO2 (ppm) CH4 (ppb) N2O (ppb) Quantità totale nel 2009 386,8 1803 322,5 Incremento dal 1750 38% 158% 19% Incremento assoluto 2008- 2009 absloute increase 1.6 5 0.6 Incremento relativo 2008- 2009 relative increase 0.42% 0.28% 0.19% Incremento assoluto medio nel periodo 1999-2009 1.88 2.2 0.77 (WMO Greenhouse Gases Bullettin, 2009, Tabella 1, pag. 2 ) Grafcamente, ecco l'andamento delle concentrazioni di CO2 nell'atmosfera tra il 1750 e il 2004 (Baumert e. al., fg 1.1, pag. 3)
  • 25. L'innalzamento delle temperature registrato rispecchia quasi perfettamente l'aumento della concentrazione di CO2 nell'atmosfera, come si osserva tramite la seguente mappa, che confronta l'andamento osservato delle temperature (indicato dalla linea nera), a livello sia globale che regionale, confrontato con le variazioni simulate da modelli che includono le emissioni sia naturali che antropiche (in rosa) e da modelli che considerano solo quelle naturali, dovute principalmente all'attività solare e alle eruzioni vulcaniche (in azzurro). (Climate Change 2007: Synthesis Report, pag. 40)
  • 26. Ritornando all'eterogeneità dei gas serra, nei tre grafci seguenti è possibile osservare quali siano i (a) le emissioni annuali globali di gas serra antropici tra il 1970 e il 2004; (b) la quantità dei diversi gas serra antropici sul totale delle emissioni in termini di equivalente CO2 nel 2004; (c) la quantità di emissioni antropiche per settore in termini di equivalente CO2 nel 2004; (Climate Change 2007: Synthesis Report, p.36) Come detto in precedenza l'anidride carbonica è responsabile per il 63% dell'effetto di riscaldamento globale, ma le sue emissioni sono il 76,6% del totale; il metano contribuisce al global warming per il 19% e alle emissioni per il 14,3%; il protossido di azoto contribuisce ad entrambi in misura simile: 6% del surriscaldamento e 7,9% delle emissioni. I gas fuorinati infne, pur essendo solo l'1,1% delle emissioni totali causano il 12% dell'innalzamento delle temperature (insieme ai CFC). Queste cifre rendono più evidente quanto detto in precedenza sulla dannosità dei gas serra: la CO2 è quello largamente più
  • 27. abbondante, ma non il più dannoso in assoluto. Ora che il quadro sui diversi tipi di gas serra e i loro effetti sulle temperature medie è completo, possiamo analizzare le emissioni a livello geografco. 1.4 I responsabili Stando ai dati del 2000, ecco i 25 paesi che producono più emissioni a livello assoluto e con l'esclusione dei dati riguardanti la LUCF. Paese Mt in equivalente CO2 % dei gas serra a livello mondiale 1. Stati Uniti 6928 20,6 2. Cina 4938 14,7 3. EU-25 4725 14,0 4. Russia 1915 5,7 5. India 1884 5,6 6. Giappone 1317 3,9 7. Germania 1009 3,0 8. Brasile 851 2,5 9. Canada 680 2,0 10. Gran Bretagna 654 1,9 11. Italia 531 1,6 12. Corea del Sud 521 1,5 13. Francia 513 1,5 14. Messico 512 1,5 15. Indonesia 503 1,5 16. Australia 491 1,5 17. Ucraina 482 1,4 18. Iran 480 1,4 19. Sud Africa 417 1,2 20. Spagna 381 1,1 21. Polonia 381 1,1 22. Turchia 355 1,1
  • 28. 23. Arabia Saudita 341 1,0 24. Argentina 289 0,9 25. Pakistan 285 0,8 Totale 25 27915 83 Resto del Mondo 5751 17 Paesi Avanzati 17355 52 Paesi in Via di Sviluppo 16310 48 (Baumert et al., 2005, fg. 2.1, pag. 12) Attribuire la responsabilità del surriscaldamento globale, e quindi della sua eventuale mitigazione, non è tuttavia così immediato: i paesi che per primi si sono industrializzati sono quelli che hanno prodotto storicamente più emissioni, e sono anche quelli che secondo il Protocollo di Kyōto tenuti ridurle in maniera maggiore. I paesi cosiddetti in via di transizione (nella fattispecie: Bulgaria, Croazia, Repubblica Ceca, Estonia, Ungheria, Lettonia, Lituania, Polonia, Russia, Romania, Slovacchia, Slovenia e Ucraina) hanno vincoli meno stringenti, mentre i paesi in via di sviluppo non ne hanno ancora. Eppure alcuni paesi che hanno inquinato poco in passato stanno inquinando, e probabilmente inquineranno, molto di più in futuro: osservando i dati relativi alle emissioni di anidride carbonica cumulate tra il 1850 e il 2002 (Baumert et al., 2005, pag. 32) nelle prime 10 posizioni troviamo, oltre ai paesi di prima industrializzazione come Stati Uniti, Regno Unito, Francia e Germania, anche Cina, India e Ucraina, che risultano quindi aver “recuperato” molto in fretta in termini di inquinamento. Infatti, per il periodo in questione i paesi in via di sviluppo risultano responsabili del 24% delle emissioni totali, ma se si considera il periodo 1990-2002 viene loro attribuito il 39%. I fattori che hanno maggiormente contributo alla crescita delle emissioni di anidride carbonica sono stati il PIL pro capite, la popolazione, l'intensità energetica (quantità di energia utilizzata per unità di reddito) e fuel mix (quantità di emissioni di CO2 nell'energia utilizzata), con Cina, Stati Uniti e India nei primi tre posti.
  • 29. Il livello assoluto di emissioni non tiene pertanto in conto fattori rilevanti come le emissioni pro capite, che generalmente risultano maggiori quanto maggiore è il reddito pro capite, poiché questo comporta un maggior consumo energetico (il gap aumenta ulteriormente quando si considerano solo le emissioni di CO2 relative all'energia); anche la dotazione di risorse naturali volte alla produzione di energia, la densità della popolazione e la conformazione geografca sono fattori rilevanti. Non a caso infatti nella top 5 si trovano Qatar, Emirati Arabi Uniti, Kuwait, Australia e Bahrain: tutti paesi a bassa densità di popolazione e dotati di grandi riserve di combustibili fossili, mentre tra i primi 25 si trovano ben 11 paesi che non sono tra i primi 25 per livello assoluto di emissioni (nell'ordine: Lussemburgo, Nuova Zelanda, Antigua e Barbuda, Repubblica Ceca, Singapore, Turkmenistan, Olanda, Finlandia, Palau, Nauru e Danimarca). Gli Stati Uniti si trovano al 6° posto e l'Europa a 25 al 37°; Cina e India si trovano rispettivamente al 99° e 140°; l'Italia al 48°. Ogni tipo di intervento a favore della riduzione delle emissioni deve quindi tenere in conto una molteplicità di fattori, caratterizzati da orizzonti temporali molto lunghi ed elevati livelli di incertezza. La crescita economica e demografca in corso in paesi come Brasile, Russia, India e Cina (i cosiddetti BRIC), senza sottovalutare altri paesi in via di sviluppo, ha elevata probabilità di continuare e quindi di esercitare ulteriore pressione sulle risorse, aumentando la domanda di energia, beni, cibo e quindi le emissioni. Lo sviluppo economico e sociale, la crescente globalizzazione e l'integrazione di tali paesi nelle relazioni diplomatiche con il resto del mondo potrebbe avere diversi risvolti sia per quanto riguarda l'adesione alle linee guida dell'IPCC sia per quanto riguarda la nascita di rivalità e tensioni sia politiche che legate all'utilizzo delle risorse. La cooperazione internazionale in materia ambientale potrebbe portare ad un più rapido sviluppo dell'effcienza energetica delle tecnologie esistenti o all'innovazione in materia di energie rinnovabili. O forse no. A fronte di tutte queste incognite, l'IPCC ha elaborato una serie di possibili scenari sul futuro livello di emissioni e sul conseguente innalzamento delle temperature, che verranno analizzati nel
  • 30. paragrafo 1.6. Intanto cercheremo di capire quali siano, in pratica, le conseguenza del cambiamento climatico e come queste si rifettano sull'economia. 1.5 Gli effetti L'aumento delle temperature dall'epoca pre-industriale, ad oggi, è ancora inferiore al grado ma ha già effetti sensibili sulle condizioni ambientali e su tutte le attività umane ad esso correlate. Le stagioni “tiepide” arrivano sempre prima, e si estendono sempre più verso nord, le ondate di caldo sono sempre più frequenti così come le forti precipitazioni e il livello del mare si è alzato in modo generalizzato. Per capire l'entità di queste variazioni possiamo, come dice Smith (2010, p. 5) immaginare che il nostro “cortile si sposti verso nord alla velocità 1,67m ogni giorno”. Pensando a paesi come la Russia, il Canada e quelli Scandinavi, questi potrebbero probabilmente giovare di temperature più miti, grazie alla maggiore disponibilità di terra coltivabile e acqua dolce, maggiore possibilità di navigazione nei mari artici grazie al prolungato periodo di disgelo, minore fabbisogno energetico per il riscaldamento. Se gli inverni più brevi permettono di navigare di più, essi però impediscono di guidare: nelle aree artiche alcune aree estremamente remote sono raggiungibili su ruote solo grazie alle winter roads, ovvero vere e proprie autostrade costruite nel ghiaccio e nella neve limitatamente ai periodi più freddi dell'anno. In tali aree la costruzione di vere strade è impossibile sia per i costi, troppo alti relativamente all'utilizzo, sia perché il terreno è tendenzialmente paludoso e quindi poco stabile. Un altro problmea che riguarda il riscaldamento delle aree nordiche è lo scioglimento del permafrost, il terreno perennemente congelato: in alcune aree esso sorregge intere città e le infrastrutture da cui esse dipendono, nonché laghi che tendono a sprofondare nel terreno quando questo si scioglie.
  • 31. Il permafrost contiene anche materiale organico, in particolare piante, le quali decomponendosi rilasciano anidride carbonica e metano: se si sciogliesse completamente verrebbero rilasciate nell'atmosfera 1.672 miliardi di tonnellate (Gt) di emissioni, che andrebbero a sommarsi alle 730Gt attualmente nell'atmosfera, innescando ulteriore surriscaldamento (Smith, 2010, pagg. 164-170 e pagg. 234-235). Tralasciando il caso specifco dei paesi nordici, livello globale le principali conseguente del cambiamento climatico sono: • scioglimento dei ghiacciai, del permafrost e, nel caso estremo, dei ghiacci continentali dell'Antartide e della Groenlandia, con conseguenti • innalzamento del livello del mare, che mette a rischio ogni attività umana costiera e ne aumenta i costi di messa in sicure; e • variazione nella distribuzione della disponibilità di acqua, con generale tendenza alla diminuzione nelle aree dove è già scarsa; • incremento dei fenomeni meteorologici estremi: in particolare le tempeste tropicali diventano più violente all'aumentare della temperatura superfciale del mare; • acidifcazione degli oceani, che altera la fauna marina compromettendo la biodiversità e le riserve ittiche, tanto che è considerata probabile una • estinzione del 15-40% delle specie esistenti per un incremento della temperatura di 2°; • improvvisi e radicali cambiamenti nei processi meteorologici periodici, come i monsoni, El Niño o la corrente nord atlantica. Oltre all'immediata minaccia alla sicurezza delle persone e delle infrastrutture che questi eventi portano con loro, esistono gravi implicazioni per la crescita economica. In particolare “i paesi in via di sviluppo sono molto sensibili al cambiamento climatico data la loro grande dipendenza dall'agricoltura e dall'ecosistema, la rapida crescita della popolazione e la
  • 32. concentrazione di milioni di persone in condizioni abitative precarie, e alle carenti condizioni igieniche”, senza contare la minore disponibilità di risorse economiche per l'adattamento (Stern, 2007, Parte I, pagg. 92 -97). Del resto nemmeno i paesi avanzati sono immuni da questi rischi: il 5% della popolazione mondiale vive in aree costiere così le tempeste, le inondazioni (ma anche la siccità) aumentano i costi di sicurezza e anche quelli assicurativi, con inevitabili ripercussioni sul mercato fnanziario e sul costo del capitale (Stern, 2007, Parte II, pag. 14). Le catastrof naturali porteranno la popolazione a migrare quando non sarà possibile o conveniente sostenere i costi di adattamento, con probabili esiti confittuali. Anche la produzione di energia risente del cambiamento climatico: l'acqua più calda rende più diffcoltoso il raffreddamento dei generatori di elettricità, le alluvioni e le siccità riducono la disponibilità delle biomasse necessarie per alcuni tipi di energie rinnovabili, oltre che danneggiare infrastrutture come oleodotti, gasdotti, miniere, piattaforme petrolifere e centrali elettriche. Infne, l'incapacità dei paesi in via di sviluppo di produrre quanto necessario per sostenere la propria crescita demografca comporterà un incremento del gap del reddito e nuovi fussi migratori. Dare una misura precisa di questi fenomeni è diffcile, per questo l'IPCC nel fare le sue previsioni non ha elaborato uno scenario futuro, ma una serie, senza valori di probabilità associati. 1.6 Le previsioni Il Climate Change 2007: Synstesis Report IPCC presenta un range di scenari possibili. Facendo riferimento alla sola CO2, vengono presentati diversi livelli di stabilizzazione delle
  • 33. emissioni, ad ognuno dei quali è associato un probabile intervallo di aumento della temperatura media globale e un relativo di innalzamento del livello del mare. Quest'ultimo dato è ampiamente incerto poiché, anche nel caso di stabilizzazione delle emissioni, le temperature continuerebbero ad aumentare per un certo periodo, con effetti diffcilmente prevedibili sullo scioglimento dei ghiacci in quanto l'innalzamento della temperatura media a livello globale non comporta un aumento uniforme della temperatura ovunque. Nel grafco di sinistra la linea rappresenta i livelli di CO2 osservati fno al 2000, mentre tra il 2000 e il 2100 vengono rappresentati i diversi livelli di stabilizzazione. La linea tratteggiata (post-SRES range) rappresenta il livello minimo e massimo di emissioni che si potrebbe raggiungere nel lungo periodo lasciando invariate le politiche di mitigazione. Raggiungere la stabilizzazione delle emissioni signifca fondamentalmente diminuirle fno a portarle in pari con il tasso di assorbimento dell'ecosistema, comprensivo di vegetazione e oceani: tale processo è però indebolito dalla temperature più calde (Stern, 2007, Parte III, pag. 197). Nel grafco di destra ad ogni livello di stabilizzazione (identifcato con lo stesso colore) viene associato un possibile incremento di temperatura. (Climate Change 2007: Synthesis Report, p.66) Per capire meglio l'entità di queste variazioni basta analizzare lo scenario più roseo ad oggi
  • 34. plausibile, ovvero il III (in arancione): tale livello di stabilizzazione richiederebbe che il picco massimo delle emissioni di CO2 si verifcasse tra il 2010 e il 2030, per poi scendere, arrivando nel 2050 a valori compresi fra il 30% in meno e il 5% in più rispetto a quelli registrati nel 2000. Questo comporterebbe un incremento della temperatura media intorno ai 3° rispetto all'epoca pre-industriale, con un innalzamento del livello del mare compreso tra 0.6 e 1.9 metri (senza includere il contributo dello scioglimento dei ghiacci) (Climate Change 2007: Synthesis Report, p.67). L'impossibilità che si verifchino gli scenari I o II dipende dal fatto il picco di emissioni da essi previsto dovrebbe già essersi verifcato, o verifcarsi in tempi troppo brevi perché questo sia verosimile, e anche per lo scenario III i tempi sono già maturi. Più si attende nell'attuare le misure necessarie alla mitigazione del cambiamento climatico più queste misure saranno invasive e diffcili da attuare, oltre che a richiedere più tempo per rivelarsi effcaci. Già da tempo scienziati come Smith e economisti come Stern e qualche politico come Al Gore, cercano di fare capire a chi comanda che queste misure non sono una delle cose da inserire nelle agende politiche, ma la priorità, non solo a livello umanitario o ambientalista, ma anche e soprattutto economico. 1.7 Le alternative Le energie rinnovabili riconosciute dalla International Energy Agency (Renewables in Global Energy Supply, IEA, 2007) sono ordinate secondo un criterio temporale. Le tecnologie di prima generazione sono conosciute dalla rivoluzione industriale e sono già competitive laddove le risorse naturali necessarie sono abbondanti e l'incremento nel loro utilizzo
  • 35. dipenderà dallo sviluppo delle tecnologie conosciute e dall'introduzione nei paesi in via di sviluppo: in particolare l'energia idroelettrica ha un enorme potenziale in quanto solo una piccola parte delle riserve idriche è fornita di impianti per la produzione di energia. Esistono inoltre le biomasse combustibili e l'energia geotermica che vengono utilizzate sia per generare riscaldamento che elettricità. Le tecnologie di seconda generazione sono state sviluppate a partire dagli anni '80 e comprendono l'energia solare, fotovoltaica ed eolica: l'ultima in particolare ha buone possibilità di diventare competitiva con le forme di energie tradizionali grande ai sempre minori costi di realizzazione degli impianti e di stoccaggio dell'energia prodotta. Le tecnologie di terza generazione sono ancora in fase di sviluppo e a causa degli elevati costi e della limitata conoscenza al riguardo non sono ancora ampiamente commercializzate, e il loro futuro utilizzo dipende dalla fase di ricerca e sviluppo. Esse comprendono l'energia solare concentrata, quella oceanica, la geotermica migliorata e i sistemi di bioenergie integrate. Attualmente le energie rinnovabili contribuiscono per il 13.1% alla produzione totale di energia primaria mondiale e nonostante ne sia previsto un crescente utilizzo, la completa sostituzione alle forme di energia tradizionale non è possibile in tempi brevi. Lo scenario di riduzione delle emissioni entro il 2050 prevede una combinazione di energie rinnovabili, nucleare e tradizionali ad aumentata effcienza per soddisfare la domanda globale (Energy Technology Perspectives, IEA, 2010). I limiti delle energie rinnovabili sono principalmente, ma non unicamente, tecnologici. I candidati favoriti alla sostituzione dei carburanti liquidi sono l'idrogeno e le biomasse: il primo, innanzi tutto, non è una fonte di energia ma una sostanza che può essere usata per produrla. Tale processo è molto complesso e richiede ancora enormi quantità di energia. Inoltre l'idrogeno è esplosivo e un suo diffuso utilizzo nell'alimentazione dei mezzi di trasporto richiederebbe la soluzione dei problemi di sicurezza implicati, nonché la creazione delle infrastrutture necessarie a supportarlo. Le biomasse sono più facilmente reperibili, ma dovendo essere coltivate producono esse
  • 36. stesse una parte di gas serra, che è almeno pari al risparmio di emissioni dovuto al non utilizzo del combustibile fossile, senza contare la competizione con le colture alimentari, di cui c'è crescente domanda. Per quanto riguarda la produzione di elettricità, il settore più avanzato è quello idroelettrico, ma a causa delle gravi implicazioni ambientali delle grandi dighe, diffcilmente grandi progetti saranno intrapresi in futuro (anche se i progetti che non richiedono dighe hanno un buon potenziale). Le energie solare, fotovoltaica ed eolica, pur avendo fonti gratuite e virtualmente illimitate anche ancora problemi per quanto riguarda l'immagazzinamento e la distribuzione, soprattutto in aree remote (Smith, 2009, pagg. 63 – 77). Prima dell'incidente di Fukushima, nel marzo 2011, il mondo sembrava pronto anche a riconsiderare un ingente utilizzo del nucleare, grazie all'assenza di emissioni e ai bassi costi di produzione e nonostante gli elevati costi di costruzione e manutenzione degli impianti e il problema della limitatezza delle riserve di uranio. L'idea di sfruttare il più possibile l'energia nucleare anche per un limitato periodo, in modo da creare un “cuscinetto” tra i combustibili fossili e le energie rinnovabili, non è affatto insensata, ma i problemi di sicurezza degli impianti recentemente emersi, con conseguenti proteste da parte delle popolazioni interessate, hanno almeno momentaneamente tagliato le gambe al progetto. A fronte di queste considerazioni, emerge tutta la rilevanza delle politiche a favore della ricerca e sviluppo sia nel campo delle energie rinnovabili sia nell'incremento dell'effcienza energetica delle forme di energia tradizionali. 1.8 Dalla scienza alla politica L'accordo sui dati relativi al cambiamento climatico, e il riconoscimento dell'imminente
  • 37. necessità di intervenire per mitigarlo e adattare la società e il sistema produttivo può dirsi ormai unanime. Nonostante le innumerevoli dichiarazioni, protocolli e piattaforme programmatiche elaborate, frmate e (quasi sempre) ratifcate dagli stati membri delle organizzazioni intergovernative, i metodi di attuazione di queste misure sono ancora piuttosto deboli e molto spesso le politiche di sostenibilità sono interpretate come uno spreco di risorse, o, più recentemente uno sforzo economico che paesi in recessione o sull'orlo della quale, magari nel pieno dell'attuazione di politiche di austerità, non possono permettersi (anche dal punto di vista del confitto sociale). Il punto di partenza per la realizzazione di politiche puntuali è il riconoscimento, del resto già avvenuto con l'art. 2 del Protocollo di Kyōto, del cambiamento climatico come fallimento del mercato. Le emissioni che lo causano sono esternalità negative, il cui costo non viene pagato totalmente ed esclusivamente da chi le produce, mentre il clima è un bene pubblico per la sua caratteristica di non escludibilità. Defnito il benessere come insieme di consumo, educazione, salute e qualità ambientale, anche per le generazioni future, è necessario imporre un prezzo sulle emissioni e promuovere la Ricerca & Sviluppo, affnché questo possa aumentare (Stern, 2007, Parte I, pagg. 24-34). Nessuno si auspica un'economia futura totalmente controllata dai governi, ma il loro intervento è necessario affnché sia poi il settore privato a trainare il cambiamento: la possibilità per il settore produttivo di sviluppare maggiore effcienza energetica ed utilizzare più intensamente forme di energia rinnovabili ne abbasserebbe via via i costi, rendendo i beni prodotti in maniera eco-sostenibile più competitivi. Similmente, rendere più costoso il consumo dei beni prodotti con alte concentrazioni di gas serra permetterebbe di spostare le preferenze dei consumatori. A livello teorico i principali strumenti per l'eliminazione delle esternalità sono: • le tasse pigouviane, ovvero il pagamento da parte di chi inquina di una tassa pari al
  • 38. costo marginale del danno causato; • l'imposizione di soglie massime; • l'allocazione di diritti di proprietà sulle emissioni, sia per chi le emette che per chi ne subisce il effetti negativi, in moda che se ne possa creare un mercato. Tali politiche devono essere caratterizzate da un'attenta pianifcazione e da elevati livelli di credibilità affnché gli investitori decidano di intraprendere i progetti necessari, e devono tenere conto di altre imperfezioni del mercato come i vincoli nell'accesso al credito, la scarsa informazione e regolazioni ineffcienti che ostacolino l'innovazione attraverso costi nascosti o brevetti troppo rigidi. A livello pratico, le politiche più diffuse sono gli schemi di Cap&Trade delle emissioni: queste prevedono i soggetti producono emissioni possano raggiungere un tetto massimo prestabilito, oltre il quale vengono multati. Al di sotto di tale soglia guadagnano dei crediti che possono vendere agli altri soggetti, che in tal modo potranno sforare la soglia senza essere multati. Schemi di questo tipo esistono in Europa (EU ETS) e in Australia, la quale, come anche la Gran Bretagna ha anche elaborato un piano di lungo periodo per la riduzione delle emissioni di tutto il sistema produttivo che include aiuti fnanziari alle imprese e alle famiglie. Infatti, l'altro pilastro fondamentale delle politiche di mitigazione è l'innovazione: per un mondo a basso contenuto di CO2 il grosso del cambiamento dovrà avvenire nella produzione di energia attraverso l'aumento dell'effcienza energetica dei combustibili fossili (in modo che sia possibile produrre sempre di più usandone sempre di meno) e la diffusione delle fonti di energia rinnovabili. Tuttavia il processo innovativo è rallentato a causa di alcune sue caratteristiche strutturali. In primo luogo, gli spillover della conoscenza acquisita fanno sì che la scoperta di un'impresa abbia effetti positivi anche sulle altre che non hanno investito in R&S, e per questo l'investimento complessivo sarà inferiore a quello ottimale. É possibile elaborare un sistema di brevetti ad hoc, ma il rischio è quello di renderlo troppo poco fessibile, ostacolando ulteriormente l'innovazione. Altri elementi che disincentivano
  • 39. questo tipo di investimento sono l'incertezza sia riguardo il futuro costo delle emissioni sia riguardo l'entità e le tempistiche dei rendimenti derivanti dall'innovazione, senza contare la diffcoltà di inserire in un sistema produttivo già funzionante nuove tecniche, per quanto economicamente vantaggiose. É quindi necessario che i governi promuovano lo sviluppo di interi “pacchetti” di innovazioni, contemporaneamente all'imposizione del prezzo sulle emissioni inquinanti, in modo da ottenere una transizione armoniosa (e trainata dal settore privato) verso la stabilizzazione (Stern, 2007, Parte IV, pagg. 310 – 400). Oltre alle politiche di mitigazione, sono necessarie le politiche di adattamento al cambiamento climatico, che non sono volte alla soluzione del problema, ma possono ridurne l'impatto sulla popolazione. Secondo l'IPCC è “l'aggiustamento nei sistemi umani o naturali in risposta a stimoli climatici o ai loro effetti, sia attesi che già avvenuti, che ne riduce i danni o ne sfrutta le opportunità di benefcio. Possono essere identifcati vari tipi di adattamento, inclusi l'adattamento anticipato o di reazione, privato e pubblico, autonomo o pianifcato” (IPCC, 2001, TAR). I settori che più ne avranno bisogno sono l'agricoltura e le aree costiere, mentre le asimmetrie informative, l'assenza di mercati adeguati (o il loro non allineamento) e i vincoli di credito, soprattutto per quanto riguarda le aree povere, potrebbero ostacolare l'effcienze della misure di adattamento, che quindi come le politiche di mitigazione dovranno essere promosse dai governi. Non va tuttavia dimenticato che l'adattamento è un'opzione limitata, ed attuabile esclusivamente in presenza di una mitigazione effciente, effcacie e attuata in tempi brevi. Nei paesi avanzati l'adattamento può essere promosso attraverso la pianifcazione per l'utilizzo dei beni pubblici ambientali e l'imposizione di standard di prestazione, oltre che al miglioramento del sistema informativo (ad esempio attraverso previsioni affdabili sui futuri livelli di precipitazioni) e la creazione di un mercato assicurativo che tenga in considerazione i nuovi rischi ambientali e di un sistema che permetta di proteggere anche chi non può
  • 40. assicurarsi. Le linee guida per i paesi di sviluppo sono grosso modo le stesse, ma le politiche dovranno superare ostacoli maggiori per quanto riguarda la maggior diffcoltà di far circolare le informazioni a causa degli elevati livelli di analfabetismo, la ridotta diffusione della rete informativa e la presenza di zone remote e diffcili da raggiungere anche a livello infrastrutturale. Esistono inoltre i problemi relativi alla limitatezza delle risorse e alla minore credibilità dei governi, che potrebbe disincentivare gli investimenti (Stern, 2007, Parte V pagg. 404 - 438) É però vero anche che l'arretratezza dei sistemi economici e produttivi è un'occasione per inserire i piani di adattamento e mitigazione nei più generici piani di sviluppo a tutto tondo, in modo da inglobare l'eco-sostenibilità nella crescita, invece di doverla inserire in un sistema già avviato e funzionante. Infatti, come riporta la IEA il 49% dell'energia in Africa, il 28.9% in America Latina e il 31.8% in Asia (ad esclusione della Cina, dove la percentuale è 15.4%) è prodotta attraverso fonti rinnovabili, contro il 5.7% dei paesi OECD (Renewables in Global Energy Supply, IEA, 2007). Gli elevati livelli di incertezza legati al cambiamento climatico richiedono che le politiche destinate a mitigarlo abbiano solide basi teoriche, che tengano conto dell'interazione fra domanda e offerta, delle imperfezioni del mercato, dell'affdabilità delle istituzioni e di orizzonti temporali di molti decenni, del benessere delle generazioni attuali e future. Per questo nei prossimi capitoli andremo ad analizzare una serie di modelli economici che tengono in considerazione tutti questi fattori, prima dal solo lato della produzione, poi coinvolgendo anche i consumatori e la crescita economica.
  • 41.
  • 42. Capitolo II Fondamenti Teorici e Politiche Ottimali: l'approccio dell'Economia Industriale “I said, maybe, you're gonna be the one that saves me.” OASIS 2.1 Giochi e Strategie L'economia industriale è quella branca dell'economia che si occupa di studiare il comportamento delle imprese in concorrenza perfetta, in condizioni di monopolio e in tutte le situazioni intermedie. Tali imprese generalmente perseguono fni individuali di massimizzazione dei proftti senza considerare il benessere comune quindi per incrementarlo è necessario che il pianifcatore sociale conosca le dinamiche di interazione dei soggetti (quindi imprese, ma anche consumatori) in modo da poterle correggere attraverso le politiche necessarie. Una delle discipline che meglio si presta alla formalizzazione dell'interazione dei soggetti con interessi confittuali è la teoria dell'interazione strategica, conosciuta anche come teoria dei giochi. Essa analizza le situazioni di confittualità a partire dal gioco in forma normale, che consiste in un numero fnito N di giocatori, ciascuno dei quali ha a sua disposizione un insieme non vuoto e un numero fnito di strategie
  • 43. Si ={si1 ,si2 ,... , sik },∀i ∈N . Il loro ordinamento è irrilevante, come indicato dalle parentesi graffe. L'insieme dei risultati s=(s1, s2, ... , sN ) dipende dalle strategie effettivamente adottate, e il payoff πi (s) del giocatore i associa ad ogni risultato un numero reale. I giochi in forma normale possono essere: • cooperativi, quando i soggetti collaborano al fne di massimizzare un payoff collettivo, o non cooperativi; • a somma fssa, quando la somma dei payoff a disposizione dei giocatori è sempre lo stesso, o a somma variabile; • statici, cioè giocati una volta sola, o ripetuti. • l'informazione ha tre aspetti rilevanti: è perfetta quando ogni giocatore conosce tutte le strategie adottate dai rivali, imperfetta quando ne conosce solo una parte; è completa quando tutti i giocatori conoscono la struttura del gioco altrimenti è incompleta; è simmetrica quando tutti i giocatori hanno a disposizione le stesse informazioni. Il primo metodo di soluzione dei giochi è il metodo di massiminimo (o minimassimo) di Von Neumann (1928), secondo il quale
  • 44. dato un gioco <N ,Si ,πi (s)> a somma costante , la strategia ˙si ∈Si è una strategia di massiminimo per il giocatore i se min s−i ∈S−i πi ( ˙si ,S−i)⩾ min s−i ∈S−i πi (si , S−i) ∀si≠ ˙si e con si ∈Si ovvero, date le strategie giocate da tutti gli altri giocatori, ˙si è una strategia di equilibrio quando garantisce un payoff non minore di quello che ricaverebbe giocando un'altra strategia qualsiasi. Il principio di massiminimo però non si applica ai giochi a somma variabile, ed è stato generalizzato nel concetto di equilibrio di Nash (1950): dato un gioco <N ,Si ,πi (s)>, il risultato ̂s=( ̂s1 , ̂s2 ,... , ̂sN ) con ̂si ∈Si è un equilibrio di Nash se πi ( ̂si , ̂s−i)⩾πi (si , ̂s−i) ∀si∈Si e ∀si∉ ̂si ovvero se, ex post, nessun giocatore ha un incentivo unilaterale a deviare dalla propria strategia, o ancora, se posto che tutti gli altri giocatori mantengono la strategia iniziale, nessuno vorrà cambiare la propria. Dalla defnizione di Equilibrio di Nash, deriva il Teorema di Nash (1951), secondo il quale . ogni gioco <N , Si ,πi(s)>, finito possiede almeno un Equilibrio di Nash in strategie miste . L'espressione “almeno un” individua immediatamente uno dei problemi dell'approccio, che è quello della molteplicità degli equilibri di Nash e che apre la strada ai perfezionamenti del Teorema e dell'Equilibrio. Uno di questi è il Criterio di Dominanza delle strategie, secondo il
  • 45. quale una strategia è dominante quando massimizza il payoff qualunque sia il vettore si strategie scelto dagli altri: quando il payoff è strettamente maggiore di quello che si avrebbe con un'altra strategia di parla di strategia strettamente dominanti, quando il payoff è maggiore o uguale si parla di strategie debolmente dominanti. Secondo questo criterio tutti gli equilibri in strategie dominanti sono equilibri di Nash, ma non tutti gli equilibri di Nash sono in strategie dominanti (Garella, Lambertini, 2005, pagg. 217 – 231). 2.2 Il dilemma delle emissioni I concetti introdotti nel paragrafo precedente permettono di inquadrare le emissioni inquinanti, o meglio il problema della loro riduzione tramite investimenti in ricerca e sviluppo verde, attraverso la Teoria dei Giochi e in particolare attraverso il Dilemma del Prigioniero. Questo gioco mostra come un equilibrio in strategie strettamente dominanti possa comportare un risultato non effciente dal punto di vista paretiano, dove i giocatori, lasciati liberi di scegliere le proprie strategie, non sceglieranno il punto di equilibrio che massimizza il benessere di entrambi, ma uno dove entrambi avranno lo stesso payoff anche se questo è inferiore a quello paretoeffciente. L'ipotesi sottostante alla versione originale del gioco è che due criminali complici vengano arrestati ed interrogati separatamente e senza possibilità di comunicare tra di loro. Possono decidere di confessare o non confessare: se entrambi confessano verranno entrambi incarcerati per un anno, se nessuno dei due confessa la pena è di 5 anni, mentre se uno confessa e l'altro no, il primo verrà rilasciato immediatamente mentre l'altro sconterà 10 anni. In forma matriciale, il gioco è il seguente:
  • 46. (Garella, Lambertini, 2005, pag. 230) Dove NC è la strategia “non confessare” e C è la strategia “confessare”. L'equilibrio in strategie dominanti è quello della casella in basso a destra (con payoff -5,5), mentre quello pareto effciente è nella casella in altro a sinistra (con payoff -1,-1). Il primo è l'unico equilibrio di Nash esistente nel gioco poiché nell'equilibrio paretiano esiste per entrambi i giocatori l'incentivo a deviare, in quanto scaricando la colpa sull'altro verrebbero rilasciati, se questi invece non confessa. Ognuno dei giocatori però sa che l'altro tenterà anch'esso di scaricare la colpa e sicuramente confesserà, per cui la combinazione C,C di strategie è strettamente dominante. Ai fni della nostra analisi, possiamo sostituire i prigionieri con due imprese, e le strategie non confessare e confessare rispettivamente con mitigare e non mitigare. Le due imprese concorrenti infatti devono sostenere dei costi per le misure di mitigazione e/o la ricerca e sviluppo verde, ma se una delle due non prende queste misure o non investe, le emissioni
  • 47. prodotte continuano ad incidere negativamente anche su chi ha investito. Pertanto, invece che scaricare la colpa le imprese cercano di scaricare il peso sulle emissioni ed in assenza di una regolamentazione nessuna delle due investirà nelle politiche necessarie. Questo ragionamento si applica anche ai consumatori che debbano scegliere se acquistare beni e servizi a minore intensità di emissioni o continuare ad acquistare quelli tradizionali, ma anche tra governi possano scegliere se incentivare la ricerca e sviluppo verde o meno sul territorio nazionale. In tutti i casi, l'equilibrio raggiunto non è quello che garantisce il massimo benessere per tutti, e pertanto esiste una possibilità di intervento da parte del pianifcatore sociale o, nel caso dei governi, delle organizzazioni sovranazionali e intergovernative. 2.3 Oligopolio e giochi sequenziali Come accennato nel paragrafo 2.1, oltre alle due condizioni estreme di monopolio e concorrenza perfetta, esistono forme intermedie dell'equilibrio di mercato dove ciascuna impresa ha un limitato potere di mercato che gli permette di avere proftti positivi, anche se non ne ha il controllo completo. Questa forma prende il nome di oligopolio, ma per semplicità di analisi, viene più spesso analizzato il caso in cui sul mercato si trovino solo due imprese, che prende il nome di duopolio. Tali imprese hanno la stessa tecnologia e operano su un mercato omogeneo, e possono competere sulle quantità ottimale secondo il modello di Cournot (1838), lasciando che sia la domanda di mercato stabilire il prezzo del bene, oppure, seguendo lo schema di Bertrand (1883), esse decideranno il prezzo che
  • 48. considerano ottimale e la domanda stabilirà le quantità da produrre. Tutti i modelli che verranno analizzati nel resto del capitolo e in quello successivo considerano imprese (o imprese e governi) che competono à-la-Cournot, pertanto vale la pena soffermasi sulla descrizione di questo modello. Nel modello di Cournot le due imprese, che abbiamo detto essere identiche per tecnologia, massimizzano, secondo la quantità da produrre qi data la quantità qj prodotta dall'avversario, la seguente funzione di proftto: πi ( p ,Ci)qI=(a−qi−qJ −c)qi con i , j=1,2 e i≠ j Il risultato è un equilibrio di Nash in cui la quantità ottimale è detta funzione di reazione o di risposta ottima, tale che qi ¿∗¿ =Ri(qj )= a−qi−c 2 Tale funzione è il luogo dei punti di tangenza fra il sistema di curve lungo le quali il proftto dell'impresa è sempre lo stesso (curve di isoproftto) e il fascio di rette che identifca i livelli di output scelti dall'altra impresa. In equilibrio è necessario che le condizioni di ottimo siano compatibili, quindi eguagliando le funzioni di isoproftto otteniamo la quantità prodotta nel sistema in condizione di equilibrio di Nash πi CN =π j CN → qCN = a−c 3
  • 49. dove l'apice CN sta per Cournot – Nash (Garella, Lambertini, 2005, pagg. 246-249). L'equilibrio dipende dunque dalle strategie intraprese dal concorrente e nel modello base appena descritto le due imprese stabiliscono le proprie quantità simultaneamente, ma poiché tratteremo soprattutto di interazione fra governi ed imprese, è utile pensare alla dinamica del sistema in modo sequenziale. In particolare, avremo un governo leader di mercato, che stabilisce ad esempio di imporre una tassa sulla produzione, e un'impresa follower che stabilisce massimizzaz i proftti stabilendo la quantità da produrre di conseguenza. Il modello di duopolio con leadership di mercato è descritto da Stackelberg (1934) e viene risolto per induzione a ritroso, secondo il criterio di perfezione nei sottogiochi. L'induzione a ritroso prevede semplicemente che, nel caso di un gioco ripetuto, si proceda risolvendo il problema dall'ultimo periodo e risalendo al primo. Il criterio di perfezione nei sottogiochi implica invece che in ogni sottogioco originale, ovvero in ogni periodo, la soluzione sia un equilibrio di Nash (Selten, 1965, 1975). I giochi non cooperativi ad informazione completa e perfetta di Cournot - Stackelberg prevedono che il leader massimizzi il proprio proftto rispetto alla quantità da produrre, sotto il vincolo della funzione di reazione del follower max qi πi=(a−qi−sq j−c)qi s.v. qj ¿∗¿ = a−sqi−c 2 . Sostituendo la funzione di reazione q* j nella funzione obiettivo e massimizzando rispetto a qi si ottiene
  • 50. qCL = (a−c)(2−s) 2(2−s) dove l'apice CL indica la quantità prodotta dal leader in un gioco di Cournot, e s rappresenta la quota di mercato di ciascuna imprese. S è compreso tra 0 e 1: s=0 implica concorrenza perfetta, s=1 implica monopolio. La quantità prodotta dal follower è qCF = (a−c)(2−s) 4(2−s) . I proftti di equilibrio, infne sono πCL = (a−c)2 (2−s)2 8(2−s 2 ) ; π CF = (a−c) 2 (4−2−s 2 ) 2 16(2−s2 )2 . Questo implica che per ogni valore di s compreso fra 0 e 1 vale che qCL ⩾qCN ⩾qCF ; πCL ⩾πCN ⩾πCF perciò l'impresa leader ha maggiore potere di mercato ed espande l'output rispetto all'equilibrio di Cournot – Nash, e lo fa in misura maggiore rispetto a quanto il follower lo
  • 51. contrae. Questo comporta un prezzo di equilibrio inferiore e quindi un aumento del surplus del consumatore (Garella, Lambertini, 2005, pagg. 235-237 e pagg. 269-270). Tra le strategie a cui le imprese possono ricorrere per incrementare i proftti ci sono la differenziazione del prodotto e la collusione. La prima può essere orizzontale quando, a parità di prezzo, esistono almeno due individui che ordinano i prodotti in modo differente; oppure può essere verticale se, a parità di prezzo, tutti gli individui ordinano nello stesso modo. La collusione consiste nella massimizzazione congiunta dei proftti da parte di più imprese e può avvenire sia erodendo il surplus del consumatore, sia attraverso la fssazione di un investimento in ricerca e sviluppo che permetta alle imprese di internalizzare gli spillover tecnologici e di ridurre i costi di investimento complessivi. Infatti l'innovazione è caratterizzata dal fatto che, una volta resa pubblica, permette anche a chi non ha contributo all'investimento di fruire della nuova tecnologia, il che incentiva il free-ride da parte delle imprese e causa generalmente sotto-investimento. Una possibile soluzione a questo problema sono le patenti e i brevetti, che vincolano l'utilizzo dell'innovazione a chi l'ha prodotta, almeno per un determinato periodo. Tuttavia quando il sistema dei brevetti è troppo rigido il livello risulta comunque ineffciente, spesso perché le imprese si troveranno tutte costrette ad investire per giungere ad innovazioni simili, non potendole condividere, e nel sistema si avrà una cosiddetta moltiplicazione degli sforzi. Quando si analizzano le politiche a favore della riduzione delle emissioni e della promozione della ricerca e sviluppo, ci si trova quindi ad dover correggere diversi fallimenti del mercato. Nel campo delle politiche a favore della riduzione delle emissioni la letteratura ha cercato di dimostrare che attraverso determinati livelli di tassazione, è possibile aumentare il benessere sociale sia stimolando la competitività delle imprese in materia di qualità ambientale (Cremer e Thisse, 1999 e poi Lombardini-Riipinen, 2005) sia spingendole a collaborare in materia di ricerca e sviluppo (Poyago-Theotoky, 2007). L'intervento del governo come pianifcatore sociale è infatti giustifcato a livello economico dalla presenza di
  • 52. condizioni di equilibrio subottimali. In particolare Lombardini-Riipinen dimostra che in presenza di un duopolio con competizione sulla qualità ambientale, anche se l'allocazione del consumo fra i due tipi di beni è ottimale, il benessere sociale in assenza di regolamentazione è inferiore a quello ottimale. Per raggiungerlo è necessaria l'applicazione di una tassa ad valorem uniforme sul prodotto, abbinata o a una tassa sulle emissioni o ad un sussidio per l'acquisto del bene di qualità ambientale superiore. 2.4 Qualità ambientale, politiche ottimali e second-best Il modello di Lombardini-Riipinen (2005) è composto da due giochi sequenziali di Stackelberg: nel primo il governo sceglie le politiche ottimali per massimizzare il benessere sociale, date le funzioni di reazione delle imprese; nel secondo le imprese in un primo stadio stabiliscono di quanto ridurre le proprie emissioni date le politiche del governo, nel secondo competono per la determinazione dei prezzi dei prodotti. Partendo dal secondo stadio del secondo gioco, poiché si risolve per induzione a ritroso, otteniamo le equazioni del prezzi dei due beni, mentre nel primo stadio vediamo che le imprese massimizzano i propri proftti rispetto allo sforzo per la riduzione delle emissioni, che è maggiore per l'impresa che produce il bene di più elevata qualità ambientale H, mentre il bene di qualità ambientale inferiore, L, viene prodotto con una maggiore intensità di emissioni. Tutti i consumatori acquistano una unità di uno dei due beni, il base alla propria propensione a pagare per la qualità ambientale, che è indicata dal parametro θ uniformemente distribuito tra [θ ,θ] e con θ−θ=1 .
  • 53. Il danno aggregato causato dalle emissioni inquinanti incide su tutti i consumatori allo stesso modo, indipendentemente dal loro θi , e pertanto tale danno non entra nel problema di massimizzazione individuale (quindi non incide sull'equilibrio di duopolio), ma infuenza il benessere sociale complessivo. Esso è defnito da γ E , dove γ⩾0 è il valore sociale delle emissioni, mentre le emissioni totali sono E=e−eH (θ−θH )−eL (θH −θ+1) oppure E=e−ea , dove ea è la qualità ambientale media. Vedremo anche nei modelli successivi che è tipico del comportamento delle imprese non considerare le emissioni inquinanti nel processo di massimizzazione, il che richiede l'intervento del pianifcatore sociale affnché queste vengano internalizzate. Le politiche governative sono di tre tipi: ta è una tassa ad valorem uniforme sui prodotti, te è una tassa sulle emissioni non abbattute e b è il sussidio ai consumatori per l'acquisto del bene H. La funzione di proftto delle imprese è πi=[(1−ta) pi −MCi] xi dove pi è il prezzo del bene, xi è l'output e MCi sono i costi marginali, pari a MCi=[cei 2 +te (e−ei )] .
  • 54. Il costo per l'impresa di produrre un'unità del bene aumenta all'aumentare dell'intensità di emissioni, sia attraverso la funzione dei costi variabili (c), sia attraverso la tassa sulle emissioni (te) L'utilità indiretta del consumatore è invece determinata da U i=θei− pi +dB−γ E dove B=b(eH −eL) è il sussidio, mentre d=0 se il consumatore acquista il bene di tipo L e d=1 se il consumatore acquista il bene di tipo H. Come anticipato, la soluzione del gioco dei duopolisti comporta una distribuzione ottimale dei consumi tra le due varianti del prodotto, e la combinazione di valori del livello di emissioni che massimizza il proftto delle due imprese è eH N = (1−ta)(4Θ+4b+1)+4te 8c ; eL N = (1−ta)(4Θ+4b−5)+4te 8c . Tenendo presente che il benessere sociale è la somma dei surplus di consumatore e produttore meno il danno ambientale delle emissioni, ponendo ta te e b pari a zero è possibile ottenere il livello di benessere relativo al duopolio non regolato, che risulta pari a W UN = 16Θ 2 −16Θ+1+21Θ γ−17 γ 64c −γ e .
  • 55. Il massimo livello di benessere sociale viene scelto dal pianifcatore tramite la soluzione del primo gioco del modello ed è determinato da ˙W = 16[θ(θ−1)+γ(2θ+γ−1)]+5 64c −γe . La differenza tra i due diversi livelli di benessere sociale è negativa e pari a W UN − ˙W= −1+4γ2 16c <0 perciò l'intervento del governo tramite politiche che regolamentino il duopolio è giustifcato dal possibile aumento del benessere. Infatti il duopolio è caratterizzato da un doppio fallimento del mercato, dovuto al fatto che entrambe le imprese abbiano potere di mercato (e quindi non c'è concorrenza perfetta) e alla differenziazione del prodotto (che quindi non è omogeneo): entrambe vanno ad aggiungersi alla presenza delle emissioni inquinanti come esternalità negativa. Lombardini – Riipinen dimostra che, quando non ci sono costi amministrativi, l'ottimo sociale può essere raggiunto attraverso la combinazione di una tassa ad valorem uniforme e una tassa sulle emissioni, oppure da una tassa ad valorem uniforme e un sussidio per l'acquisto del bene di qualità ambientale maggiore. Analiticamente, le due possibili soluzioni al problema sono
  • 56. [ta ¿∗¿ ,te ¿∗¿ ]=[2 3 , γ+ 2 3 (Θ− 1 2 )] ; [ta ¿∗¿ ,b¿∗¿ ]=[2 3 ,3 γ+2(Θ− 1 2 )] . Uno dei limiti del modello dipende dal fatto che nel caso il governo possa applicare solamente una politica alla volta, e non una combinazione delle tre che ha a disposizione, non è possibile raggiungere il massimo livello di benessere sociale, anche se è comunque possibile aumentarlo rispetto alla condizione di duopolio non regolamentato (sempre in assenza di costi amministrativi) In particolare, sia la tassa sulle emissioni che il sussidio di cosiddetta scelta second – best, per incrementare il benessere, devono essere posti uguali al valore attribuito alle emissioni inquinanti, ovvero γ . Per quanto riguarda la tassa ad valorem, questa aumenta il benessere sociale solo se il valore di γ non è troppo elevato, ovvero se γ< 3 4(2Θ−1) . Tale risultato, intuitivamente, dipende dal fatto che una tassa di questo tipo aumenta il benessere sociale in quanto riduce il gap tra H e L ed incrementa la competitività, ma abbassa anche il livello ottimale di qualità ambientale incrementando l'intensità delle emissioni. Pertanto quando queste hanno un forte peso nell'utilità dei consumatori il solo utilizzo di ta come strumento non permette di aumentare il benessere rispetto al livello garantito dal duopolio non regolato. Questo modello, pur basandosi su ipotesi molto restrittive come quella sulla completezza del mercato (ogni consumatore acquista un'unità di uno dei due beni prodotto) o quella
  • 57. sull'output fsso, e senza prendere in considerazione l'orizzonte temporale, permette di formalizzare alcuni concetti importanti nella gestione delle politiche verdi: esistono prodotti simili, che differiscono solo per la qualità ambientale e che potrebbero avere prezzi diversi, ed esistono consumatori disposti ad acquistarli. Esiste anche la possibilità di organizzare la produzione in base ad un livello ottimale di emissioni, o meglio ad un livello di sforzo necessario per il loro abbattimento, il che, in presenza di un'opportuna combinazione di politiche, permette di massimizzare il benessere sociale. Sapendo che il consumatore è indifferente tra acquistare il bene H o il bene L quando θH = pH − pL eH −eL −b notiamo immediatamente che questo valore aumenta all'aumentare di ph, e quindi diminuirà al suo diminuire: se il bene ad alta qualità ambientale costa di meno, ci saranno più consumatori disposti ad acquistarlo, e questo prezzo, in presenza di una tassa sulle emissioni, è minore quando l'intensità di emissioni della produzione è minore. Intuitivamente, per ridurre tale intensità, senza ridurre l'output e mantenendo i proftti è necessario che le imprese investano in R&S in modo da garantirsi nuovi e/o più effcienti metodi produttivi, in modo da aumentare la competitività del proprio prodotto grazie ai ridotti costi di produzione e non attraverso l'abbassamento della qualità ambientale.
  • 58. 2.5 Ricerca, Sviluppo e fallimenti del mercato Quali sono dunque le politiche necessarie ad incrementare R&S? Come già anticipato, l'informazione è un bene pubblico e questo porta a dei fallimenti del mercato: se gli spillover vengono eliminati tramite i brevetti, tutte le imprese dovranno raggiungere lo stesso obiettivo autonomamente e si troveranno a sovra-investire in modo strategico. In presenza di spillover sotto-investiranno perché non vorranno rendere disponibile ai concorrenti il risultato ottenuto. Anche nel modello di Poyago-Theotoky (2007) che stiamo per analizzare siamo in presenza di un triplo fallimento del mercato: emissioni, livello di investimento non ottimale, spillover informativi. E nuovamente ci troviamo davanti a due giochi di Stackelberg: nel primo stadio del primo gioco le imprese conducono R&S autonomamente mentre nel secondo gioco tale scelta è cooperativa; in entrambi i casi nel secondo stadio il governo impone una tassa sulle emissioni, mentre nel terzo le due imprese competono sul prezzo scegliendo le quantità. L'importanza dei costi della ricerca e sviluppo per il imprese entra immediatamente nell'analisi attraverso la funzione di costo delle imprese c(qi , zi)=cqi+( γ zi 2 2 ) , dove zi è il costo della ricerca e sviluppo e γ>0 è il parametro che ne indica l'effcienza. Le emissioni totali vengono ridotte sia dalla R&S che dagli spillover, e si presentano nella funzione
  • 59. ei (qi , zi )=qi −zi−β z j dove 0≤β≤1 indica quanto la ricerca ricerca e sviluppo del concorrente incida sulle emissioni. Esiste infne una funzione quadratica di danno dovuto alle emissioni complessive defnita come D= 1 2 d E2 dove d>1/2 indica l'entità del danno, mentre E=ei + ej. Tramite i tre stadi sopra descritti si ottengono la spesa per R&S, la tassa e l'output di equilibrio, oltre che i proftti e il livello di benessere sociale, sia nel caso di R&S autonoma (nc) che nel caso di cooperazione, o cartello in ricerca e sviluppo (erc). La spesa per ricerca e sviluppo nei due casi è rispettivamente znc= [(1+d)(2d−1)+d (1+β)] A 2γ(1+d) 2 +d (1+β)[3(3+β)+d (7+β)] ; zerc= [(1+d)(2d−1)+d (1+β)] A 2γ(1+d)2 +4d(3+2d)(1+β)2 , dove il parametro A coincide con (a – c), dove a indica il potere di mercato dell'impresa e c il costo unitario di produzione. Per quanto riguarda gli altri valori di equilibrio
  • 60. tnc= d (2d−3)(1+β)2 +2 γ(2d2 +d−1) 2d(1+β)[3(3+β)+d (7+β)]+4 γ(1+d) 2 A; terc= [d (2d−3)(1+β) 2 +γ(2d 2 +d−1)] A 2(1+d)2 γ+4d(3+2d)(1+β)2 sono i livelli di tassazione, mentre l'output nei due casi è pari a qnc= 2(1+d)γ+d (1+β)(7+4d+3β) 2d(1+β)[3(3+β)+d(7+β)]+4γ(1+d)2 A; qerc= [ d(5+2d)(1+β)2 +γ(1+d)]A 2(1+d)2 γ+4d(3+2d)(1+β)2 . I proftti delle imprese corrispondono a πnc=qnc 2 +tnc(1+β)znc− 1 2 γ znc 2 ; πerc=qerc 2 +terc (1+β)zerc− 1 2 γ zerc 2 ; infne il benessere sociale complessivo realizzato nei due casi è SW nc=2Aqnc−2qnc 2 −2d(qnc−(1+β)znc)2 −γ znc 2 ; SW erc=2Aqerc−2qerc 2 −2d(qerc−(1+β) zerc) 2 −γ zerc 2 .
  • 61. Confrontando questi valori, emergono diversi elementi interessanti: considerando, come da ipotesi, un valore positivo di gamma (ovvero R&S relativamente effciente) e un valore d > ½, nel caso di cooperazione in materia di R&S si avrà una spesa z maggiore e un minore livello di tassazione, per ogni livello di danno. La R&S indipendente risulta migliore solo nel caso di una bassa effcienza della ricerca e di danni ambientali molto elevati. A livello di proftti, alle imprese conviene sempre istituire in cartello di R&S, mentre non è così la punto di vista del benessere sociale. La collusione lo incrementa, ma non quando la R&S è effciente e i danni ambientali ingenti: questo crea disallineamento fra interesse pubblico e privato, giustifcando l'applicazione di politiche. Come osservato da Poyago – Theotoky (2007), quando il valore di ß tende a 1, ovvero quando l'informazione è maggiormente condivisa (nel caso di ß=1 si parla di joint venture e non più di cartello) tutte le condizioni sono più favorevoli, incluso il benessere sociale, e per ogni livello di danno ambientale causato dall'inquinamento: sarebbe quindi opportuno stimolare organizzazioni di questi tipo piuttosto che cartelli, e quando ciò non è possibile, stimolare la competitività delle imprese per incrementarne l'effcienza in materia di R&S. Anche questo modello però, non è immune da difetti: innanzi tutto, e come il modello di Lombardini-Riipinen (2005), non considera la dimensione temporale. Inoltre si assume che il governo non sia in grado di garantire credibilità riguardo all'applicazione della tassa sulle emissioni, che è peraltro l'unico strumento preso in considerazione. Non è ovviamente possibile includere in un solo modello tutti le possibili politiche applicabili nella realtà, e i due qui analizzati riescono comunque a dimostrare che, in alcuni casi, attraverso le politiche è possibile migliorare il benessere della società e simultaneamente abbattere le emissioni inquinanti. Quello che non viene fatto è prendere in considerazione due aspetti fondamentali, che non possono non essere ignorati nel perseguimento degli obiettivi riguardanti il cambiamento climatico: il perseguimento della crescita del sistema economico nel suo complesso (e non solo della massimizzazione di proftti delle imprese e
  • 62. benessere sociale) e la capacità dei regolatori di implementare in modo credibile e nel lungo periodo le politiche necessarie, che è requisito fondamentale affnché gli agenti del mercato possano pianifcare consumi e produzione futuri in maniera eco-sostenibile. 2.6 Oltre l'economia industriale La presenza di un orizzonte temporale infnito nelle decisioni di produzione di imprese oligopolistiche soggette a tassazione delle emissioni è preso in considerazione da Benchekroun e van Long (1998). Essi propongono un numero n di imprese identiche che possono massimizzare i proftti per tutto l'orizzonte temporale in base a quelli scelti dalle altre creando un equilibrio di Nash che è, per sua stessa defnizione, time consistent (ovvero non varia nel tempo): questo implica anche che le imprese conoscano perfettamente le scelte di tutte le altre. Essi dimostrano che sia nel caso di un equilibrio di Nash di tipo open-loop che nel caso di un equilibrio di Nash di Markov, dove l'output è anche funzione dello stock di emissioni osservato in quel periodo, l'introduzione di una tassa da parte del pianifcatore benevolo permette di massimizzare il benessere sociale. La tassazione può anche assumere valore negativo, ovvero diventare un sussidio, quando le emissioni sono basse: questo spinge le imprese a produrre meno, sapendo che se l'output aumenta il sussidio si riduce. Questo dimostra che l'economia industriale fornire basi teoriche solide all'applicazione di politiche per l'innovazione verde, che siano time consistent e che permettano di massimizzare il benessere sociale. La forma di tali politiche è solitamente l'imposizione di un prezzo sulle emissioni, in varie forme, che vanno indirettamente o indirettamente, a stimolare l'innovazione verde. Lo stato può far pagare un prezzo unitario sullo stock di
  • 63. emissioni prodotto, o eccedente un prestabilito tetto; può fornire incentivi ai consumatori affnché scelgano i beni a qualità ambientale maggiore o incentivi alle imprese stesse affnché investano in ricerca e sviluppo, sia autonomamente che cooperando tra loro. Come suggerito da Poyago-Theotoky (2007), poiché il cartello in ricerca e sviluppo è effciente solo in alcuni casi, lo stato dovrebbe anche promuovere la condivisione delle informazioni da parte delle imprese che decidono di massimizzare proftti congiunti ed evitare l'imposizione di brevetti che creano ulteriori distorsioni del sistema. Quello che invece dimostra Lombardini-Riipinen (2005) è che non basta un solo strumento per correggere tutti i fallimenti del mercato, che nella specifcità dei modelli analizzati sono ben tre: anche se un solo strumento permette di migliorare il benessere sociale rispetto a nessuno strumento, questo non permette di massimizzarlo. Questo spiega perché la maggior parte dei piani per la riduzione delle emissioni a lungo termine, come lo schema europeo EU ETS (ma anche lo schema britannico e quello australiano) prevedano l'applicazione di una molteplicità di strumenti, tra cui la tassazione e lo scambio di crediti per le emissioni e incentivi sia alle famiglie che alle imprese. Sono inoltre importanti le politiche di coordinamento tra i diversi governi in modo che lo sforzo per la mitigazione sia il più possibile uniforme (come sancito anche dalle linee guida dell'IPCC). Oltre al benessere sociale i governi devono anche perseguire la crescita economica quando decidono dell'applicazione di qualunque tipo di politiche, ed è tanto più vero quando si parla di politiche di innovazione verde che sono state a lungo viste come investimenti poco profttevoli e poco necessari, in quanto sono solo pochi anni che il cambiamento climatico è entrato uffcialmente a fare parte delle agende governative, senza considerare che ultimamente l'urgenza della crisi economica sembra aver messo in secondo piano ogni altra tematica. Eppure il rinnovamento del sistema produttivo e lo spostamento delle preferenze dei consumatori in direzione di una maggiore qualità ambientale nel lungo periodo, tali da
  • 64. migliorare il benessere sociale, sembrano intuitivamente una possibile soluzione ad entrambi i problemi. Tuttavia, per parlare di accumulazione di capitale e di crescita economica, è necessario affancare agli strumenti teorici fnora analizzati anche teorie che prevedano accumulazione di capitale per la crescita del sistema economico, in particolare, il modello di crescita endogena di Ramsey-Cass-Koopmans.