Saggi - relazione conclusiva del gruppo economico-sociale
Innovazione Verde e Crescita Sostenibile
1. Alma Mater Studiorum – Università di Bologna
FACOLTA’ DI SCIENZE POLITICHE
Corso di laurea magistrale in
Economia, Industria e Istituzioni Finanziarie
Tesi di Laurea in
Economia Industriale Avanzata
INNOVAZIONE VERDE E CRESCITA SOSTENIBILE:
UNA PROSPETTIVA TEORICA
Candidato Relatore
Chiar.mo Prof.
Nico Scagliarini Luca Lambertini
Sessione III
Anno Accademico 2010/2011
2. “Sell the kids for food
weather changes moods
spring is here again
reproductive glands.
He's the one who like all the pretty songs
and he likes to sing along
and he likes to shoot his gun
but knows not what it means.
We can have some more
nature is a whore
bruises on the fruit
tender age in bloom.”
NIRVANA
3.
4. Introduzione
“Ridurre le emissioni a livelli tali da impedire interferenze umane dannose per
il sistema climatico, considerando la crescita economica e demografca,
richiederà cambiamenti sostanziali nell'utilizzo dell'energia, che includano
innovazione tecnologica e miglioramento dell'effcienza, della conservazione
e delle fonti di energia alternative … ma i paesi non hanno tutti lo stesso
interesse nel ridurre le emissioni, né la loro infuenza è egualmente
signifcativa.” (Baumert et al., 2005, pag.2, traduzione).
Alla fne del 2011 a Durban si svolgeva la Conferenza sul Clima delle Nazioni Unite. Questa
si è conclusa con l'adozione di una piattaforma programmatica per il raggiungimento di un
accordo globale che entro il 2015 subentri alla scadenza al Protocollo di Kyōto, e di un
progetto per l'istituzione di un Fondo Verde, volto a fnanziare politiche per la riduzione delle
emissioni nei paesi in via di sviluppo. Per quanto la crisi economica abbia avuto nell'ultimo
periodo una risonanza mediatica decisamente maggiore rispetto ai problemi ambientali, le
due questioni non sono affatto scollegate: gli effetti di un generalizzato incremento delle
temperature sul sistema economico-produttivo possono sembrare marginali, o comunque
molto dilazionati nel tempo, ma basta una rapida occhiata ai dati su cause e conseguenze
del global warming per convincersi del contrario. L'intento di questa tesi è quello di chiarire
questa relazione, dimostrando che le emissioni antropogeniche di gas serra e i loro effetti
5. sul clima del pianeta sono a tutti gli effetti un problema economico: sono esternalità
negative e, come afferma Nicholas Stern, sono “il più grande fallimento del mercato che il
mondo abbia mai visto” (Stern, 2009, p.11, traduzione). Poiché introdurre misure di
mitigazione delle emissioni, attraverso l'investimento in ricerca e sviluppo, la riduzione della
produzione o il versamento di tasse compensative dell'inquinamento ha un costo, il
problema della loro riduzione delle emissioni prende la forma di un dilemma del prigioniero:
esiste la possibilità di equilibrio effciente in senso paretiano ma in mancanza di una
regolamentazione questo non verrà mai raggiunto dall'interazione spontanea degli agenti
sul mercato. Senza l'intervento di un pianifcatore sociale benevolo che consideri la qualità
ambientale (o l'esternalità negativa dovuta alle emissioni) nella sua funzione obiettivo, né i
consumatori né i produttori avranno un incentivo suffciente per autotassarsi in modo da
conseguire autonomamente l'ottimo sociale.
L'idea di fondo è che senza tenere conto del cambiamento climatico è impossibile pensare
di programmare crescita economica, né per i paesi in via di sviluppo né tantomeno per
quelli già sviluppati o le economie emergenti. Non solo le variabili climatiche ambientali
hanno un effetto diretto sulla produzione, ma entrambe interagiscono necessariamente
anche con la componente demografca: più persone nel mondo signifca più consumo,
quindi più fabbisogno energetico e alimentare da soddisfare, il che porta a sua volta ad una
maggiore pressione sulle risorse naturali, con conseguenti implicazioni geopolitiche
potenzialmente confittuali. É quindi in concomitanza con una crisi economica
generalizzata e un'uffcializzata recessione in Europa, come dichiarato il 23 febbraio 2012
dalla Commissione Europea, che diventa ancora più importante pianifcare la crescita in
modo da minimizzare sia il rischio che l'incertezza derivanti dalle variabili climatiche,
demografche ed energetiche.
Il Capitolo I spiega il cambiamento climatico come fenomeno: il susseguirsi di ricerche
6. scientifche che ha condotto alla sua scoperta e come è diventato oggetto di interessi
politici ed economici, a partire dai trattati internazionali al riguardo, come il Protocollo di
Kyōto e quello di Montreal.
Illustra quali sostanze ne siano responsabili, le loro caratteristiche e la loro concentrazione
atmosferica e quali siano i paesi e settori produttivi che hanno rilasciato, rilascano e
probabilmente rilasceranno, la maggior quantità di queste sostanze nell'atmosfera. Dopo le
cause, vengono descritti gli effetti, e i diversi possibili scenari per il futuro, a seconda
dell'applicazione o meno di misure di mitigazione, secondo le diverse tempistiche di
intervento, e le possibili forme di questo intervento, come la sostituzione dei combustibili
fossili con fonti di energia rinnovabili e l'incremento dell'effcienza energetica. Infne, viene
introdotto il concetto dal punto di vista economico attraverso le possibili implicazioni per la
crescita.
Il Capitolo II analizza le politiche di mitigazione attraverso gli strumenti teorici dell'Economia
Industriale: dopo una breve introduzione delle teorie necessarie alla comprensione dei
modelli analizzati nei Capitolo II e III. Vengono poi illustrati dettagliatamente due modelli (e
in breve un terzo) che dimostrano come le politiche governative possano migliorare il
benessere sociale correggendo le imperfezioni del mercato. Nel primo modello (Lombardini-
Riipinen, 2005) queste imperfezioni sono dovute alle emissioni, dall'asimmetria del prodotto
(i due beni sono ordinati in base alla qualità ambientale) e al fatto di trovarsi in una
condizione di duopolio. Si illustra come senza l'intervento dello stato si raggiunga
l'allocazione ottimale dei consumi ma non il massimo benessere sociale. Affinché ciò
avvenga è necessario che il pianificatore sociale applichi una tassa ad valorem uniforme
sull'output e una tassa sulle emissioni/sussidio per l'acquisto del bene a qualità ambientale
maggiore. Nel caso sia possibile applicare solo una delle due politiche il benessere sociale
aumenta rispetto al caso di duopolio non regolato ma non è massimizzato, e si dimostra che
l'equilibrio di second-best è possibile solo quando le emissioni hanno un'influenza solo
marginale sul benessere sociale. Questo introduce lo spazio per altre politiche, come quelle
7. a favore della ricerca e sviluppo, delle quali si occupa il secondo modello (Poyago-Theotoky,
2007). Anche in questo caso esistono due imprese con potere di mercato, che producono
emissioni che vanno a danneggiare in benessere sociale e possono investire in ricerca e
sviluppo, ma poiché c'è spillover informativo, l'investimento sarà subottimale. Vieni
dimostrato che quando le imprese collaborano in materia di ricerca e sviluppo, formando un
cartello, il benessere aumenta, e aumenta quanto più l'informazione è condivisa.
Alla fine del capitolo vengono introdotti i limiti dell'approccio dell'economia industriale rispetto
ai problemi che le politiche di mitigazione devono affrontare nella realtà: la credibilità del
governo, gli orizzonti temporali prolungati e la crescita economica.
Il Capitolo III presenta innanzi tutto il modello di crescita endogena di Ramsey-Cass-
Koopmans, e poi analizza modelli che combinano la dinamica di accumulazione del capitale
con l'interazione tra i produttori e il pianificatore sociale che impone una tassa. Il primo
modello (Dragone et al., 2008) vede N imprese oligopolistiche che non internalizzano le
proprie emissioni, e quindi il governo impone una tassa per massimizzare il benessere
sociale: quanto l'esternalità dipende dal consumo è possibile raggiungere l'ottimo livello
sociale, quando invece l'esternalità dipende dalla produzione questo non è possibile. Il
modello successivo (Xie, 1997) non solo affronta la questione della time consistency, ma
risolve anche la questione della provenienza delle emissioni poiché i produttori sono anche
consumatori, e questi interagiscono con il governo che massimizza il benessere sociale
imponendo una tassa sull'output che viene reinvestita in un generico bene pubblico, che è in
questo caso interpretato come la qualità ambientale. Viene dimostrato che, in alcuni casi
parametrici, è possibile individuare un livello di tassazione che sia time consistent che
efficiente in senso paretiano, in quanto indipendente dall'output.
Il quarto e ultimo capitolo analizza invece come tali strumenti teorici siano stati applicati nella
realtà, sia a livello di elaborazione di politiche più complesse e strutturate come gli schemi di
cap&trade nei paesi industrializzati, sia a livello di iniziative locali sia nei paesi industrializzati
(in particolare all'interno della Comunità Europea) sia a livello di progetti avviati nei paesi in
via di sviluppo e meno sviluppati, con la collaborazione delle organizzazioni internazionali.
8. Capitolo I
Guida Rapida al Global Warming
“Enjoy yourself, is later than you think”
THE SPECIALS
1.1 Il cambiamento mediatico
Quando ci si avvicina allo studio delle tematiche ambientali, sia dal punto di vista scientifco
che da un punto di vista politico-economico, risulta evidente una cosa: diffcilmente coloro
nati a cavallo tra la fne degli anni '80 e l'inizio degli anni '90 del secolo scorso erano ne
erano a conoscenza o si erano mai veramente interrogati al riguardo, prima dell'uscita di
flm come il documentario An Inconvenient Truth (Davis Guggenheim, 2006), o del
catastrofco The Day After Tomorrow (Roland Emmerich, 2004). Quello che io e miei
coetanei sapevamo sull'ambiente era che bisognava riciclare plastica, carta e vetro, fermare
la deforestazione e proteggere le specie in via di estinzione. Sapevamo che alcune
macchine hanno un carburante diverso dalle altre, che bisogna chiudere il rubinetto mentre
ci si lava i denti e mangiare sempre tutto pensando ai bambini che pativano le carestie in
Africa. Quando siamo diventati un po' più grandi abbiamo sentito parlare di guerre
combattute per il petrolio e dell'esistenza di fonti di energia rinnovabili: abbiamo sempre
avuto cognizione di cosa fosse più giusto o tendenzialmente sbagliato, ma diffcilmente ci
siamo interrogati sul perché. O se tutti questi fenomeni fossero tra di loro collegati.
9. Delle due pellicole citate, la seconda è sicuramente meno informativa ed allarmante
(essendo uno strumento di intrattenimento, e non di informazione) ma decisamente più
d'impatto, almeno per il numero di spettatori che è stata in grado di raggiungere. Inoltre le
premesse su cui si basa la trama sono del tutto verosimili: è vero che lo studio del clima si
basa su modelli computerizzati, e che, come detto nel paragrafo precedente, parte dallo
studio delle cause delle glaciazioni. Ed è vero che clima della regione Nord Atlantica
dipende dalle correnti oceaniche. L'acqua più calda e ricca di sale si sposta dalle zone
equatoriali a quelle polari dove a causa dello stagionale scioglimento dei ghiacci l'acqua è
più fredda e meno salina; qui l'acqua si raffredda e sprofonda per poi tornare verso sud: in
questo modo le aree più fredde si riscaldano e quelle più calde si rinfrescano. Perciò, quello
che potenzialmente può rallentare o fermare la corrente è l'aumento della quantità di acqua
dolce e fredda dovuto ad un maggiore scioglimento dei ghiacciai a causa dell'innalzamento
delle temperature. Questo comporterebbe sostanzialmente meno redistribuzione del calore
attraverso l'emisfero, con inverni più rigidi nel nord e estati più calde e con maggiori
precipitazioni più a sud. É evidente che un tale cambiamento non può avvenire da un giorno
all'altro come nel flm, e che nonostante l'innalzamento della temperatura media mondiale
non è previsto in tempi imminenti nessuno scioglimento dei ghiacci suffcientemente ampio
da fermare la corrente del Golfo (Smith, 2010, pagg. 288-231), nonostante il fenomeno in
questione (e il direttamente correlato di innalzamento del livello del mare) resti la maggiore
fonte di incertezza riguardo alle previsioni sui futuri effetti del surriscaldamento globale
(Climate Change 2007: Synthesis Report, IPCC, p.73).
Il cinema non è stato l'unico media a portare l'attenzione sui potenziali rischi del global
warming: da qualche anno a questa parte i fenomeni atmosferici e naturali sono diventati
più assidui e intensi, tanto che è diventato impossibile non notare l'interconnessione tra
essi e l'innalzamento delle temperature. Ad inaugurare la lunga serie di prime pagine,
l'uragano Katrina nel 2005, anno che ha registrato record sia per quanto riguarda la
temperatura media, sia per quanto riguarda la frequenza e l'intensità dei cicloni tropicali. A
10. seguire l'uragano Ike che ha colpito gli Stati Uniti e Cuba, le violente alluvioni anche che
hanno colpito la costa orientale dell'Australia nel 2011 e nel 2012 (prima in Queensland poi
in il New South Wales) e, ad inizio 2012, la Thailandia. Il cambiamento climatico tuttavia non
è uniforme: se da un lato aumentano le piogge, altrove diminuiscono. In California, in
Australia e in Grecia nell'estate del 2009, si sono verifcati numerosi incendi, senza contare
la prolungata siccità nel Corno D'Africa e nel nord ancora dell'Australia.
Gli scienziati hanno impiegato secoli ha mettere in relazione tutti questi fenomeni, su quali
esistono ancora margini di incertezza, e solo in tempi recentissimi sono riusciti a convincere
anche buona parte dei politici e dell'opinione pubblica che il prendere provvedimenti per
mitigare gli effetti del cambiamento climatico non è più un'opzione, ma una necessità.
1.2 Breve storia della scoperta del cambiamento climatico
Quando si parla fenomeni atmosferici è necessario innanzitutto distinguere tra meteorologia
e climatologia: la prima si riferisce allo studio degli stati localizzati e temporanei
dell'atmosfera e al tentativo di prevederli nel breve periodo. La seconda studia l'andamento
delle temperature e dei fenomeni atmosferici nel lungo periodo, e riguarda sia le previsioni
per il futuro che la ricostruzione di quanto avvenuto in passato. Il cambiamento climatico è
infatti un fenomeno integrante del nostro ecosistema e sin dall'inizio dei tempi si sono
alternati periodi in cui il pianeta era molto più caldo, come all'epoca dei dinosauri, o molto
più freddo, come durante le era glaciali. Fu proprio nel tentativo di spiegare come
quest'ultime avessero potuto verifcarsi che nel XIX secolo videro la luce i primi studi sul
clima.
11. All'inizio del'800 il francese Joseph Fourier, chiedendosi come la luce solare potesse
scaldare la superfcie terrestre ma non incenerirla portandola a temperature pari a quella del
sole stesso, scoprì una radiazione proveniente dalla superfcie del nostro pianeta capace di
convogliare questo calore verso lo spazio. Fourier intuì anche che l'atmosfera terrestre era
in grado di intrappolare parte di questo calore, ma furono i successivi studi del britannico
John Tyndall a spiegare più dettagliatamente questo fenomeno, che conosciamo con il
nome di effetto serra.
In pratica, la terra assorbe le radiazioni solari ed emette delle radiazioni infrarosse della
stessa intensità per bilanciare la temperatura, ma parte di queste radiazioni viene trattenuta
dai cosiddetti gas serra che si trovano nella troposfera e mantengono la superfcie terrestre
più calda di quanto sarebbe se tutta l'energia irradiata dalla terra venisse dispersa nello
spazio. I principali gas serra esistenti in natura, indipendentemente dalle attività umane,
sono il vapore acqueo (H2O) e l'anidride carbonica (CO2), seguiti in quantità assai minori da
metano (CH3) e protossido di azoto (N2O). Un altro gas importante è l'ozono (O3), una forma
allotropica dell'ossigeno la cui presenza della stratosfera forma una sorta di strato protettivo
che fltra il passaggio dei raggi solari, quindi, contrariamente a quanto avviene per gli altri
gas appena elencati, la temperatura aumenta quando se ne trova di meno.
Oggi sappiamo che variazioni delle quantità di queste sostanze contenute nell'atmosfera
hanno effetti a catena sul clima: un aumento della concentrazione di CO2 comporta un
aumento delle temperature, e un'atmosfera più calda trattiene più umidità, e quindi l'effetto
serra si intensifca. Sappiamo inoltre che alcune sostanze utilizzate dall'uomo liberano
nell'atmosfera molecole che decomponendosi distruggono quelle di ozono. Allora invece la
convinzione generale era che l'effetto serra stesse già esprimendo il suo massimo
potenziale e quindi le futtuazioni delle quantità di anidride carbonica nell'atmosfera non
avrebbero avuto nessun effetto sulle temperature, mentre gli oceani avrebbero assorbito
qualunque ammontare di CO2 in eccesso. Il potenziale riscaldamento globale sarebbe
quindi stato attribuito esclusivamente ad un aumento dell'umidità dell'atmosfera. Tutte
12. queste ragioni, in aggiunta alle diffcoltà di misurazione e all'ancora contenuto livello di
emissioni inquinanti, ne resero lo studio una disciplina marginale e poco approfondita per
molti decenni.
A partire dai primi anni della Guerra Fredda la ricerca scientifca assunse una nuova
dimensione strategica: la necessità di aggiudicarsi un primato sulla potenza rivale spinse
entrambi i blocchi a promuovere e fnanziare la ricerca scientifca non solo nel campo degli
armamenti e quello aerospaziale, ma anche in materia di meteorologia, fsica, geochimica e
oceanografa. Fenomeni come il clima e le correnti sono però intrinsecamente internazionali
e interdisciplinari e una loro conoscenza approfondita non può prescindere dalla
collaborazione sia tra governi che tra individui. Fu proprio grazie all'idea di alcuni scienziati
che tra il 1957 e il 1958 gli studi sulle emissioni di CO2 si intensifcarono sotto la bandiera
dell'Anno Internazionale della Geofsica, tramite il quale era stato possibile raccogliere fondi
e avviare un processo di cooperazione, almeno in campo scientifco, tra le due potenze.
Gli studi combinati del chimico Hans Seuss e dell'oceanografo Roger Revelle illustrarono
che anche se parte dell'anidride carbonica viene effettivamente assorbita dagli oceani,
questo processo richiede migliaia di anni (molto di più di quanto si pensasse in precedenza)
e che comunque la maggior parte di queste particelle, concentrata in superfcie, viene
nuovamente rilasciata nell'atmosfera attraverso l'evaporazione. Furono però le misurazioni
effettuate dal geochimico Dave Keeling grazie ai nuovi strumenti piazzati alle Hawaii e in
Antartide a confermare che la quantità di anidride carbonica nell'atmosfera stava
aumentando di anno in anno, e il collegamento tra l'aumento delle temperature e l'aumento
delle emissioni iniziò fnalmente ad essere considerato come una possibilità
scientifcamente fondata e non più solo una remota ipotesi (Weart, 2003, pagg. 40-60).
Parallelamente proseguivano le indagini sulle cause delle ere glaciali: dallo studio dei
cambiamenti climatici del passato attraverso i pollini e il radiocarbonio contenuti nel suolo
si passò a domandarsi se il clima potesse nuovamente cambiare e con che rapidità, visto
13. che in passato il processo aveva richiesto millenni. Mentre alcuni scienziati si chiedevano se
e quando sarebbe fnito il periodo interglaciale, altri analizzavano la relazione fra la
temperatura terrestre e la presenza o meno dei ghiacci polari, delle correnti oceaniche e dei
gas nell'atmosfera. Nessuna delle tre parti del quesito aveva ancora una risposta
scientifcamente fondata ma almeno l'ultima era sotto gli occhi di tutti: l'inquinamento era
visibile ad occhio nudo e la presenza di sostanze oscuranti nell'atmosfera aveva sia un
effetto distorsivo sulla luce solare che giungeva sulla terra, sia sull'ambiente sottostante.
Ancora però non si sapeva di preciso quali fossero questi effetti, tanto che a metà degli anni
'70 una nuova imminente era glaciale era ritenuta possibile tanto quanto l'innalzamento
delle temperature.
Proprio in quegli anni le preoccupazioni riguardo l'inquinamento atmosferico e
l'approvvigionamento energetico (in particolare a partire dalla crisi petrolifera del 1973)
avevano rimpiazzato l'entusiasmo per l'industrializzazione e il boom economico (nonché la
fobia per l'apocalisse nucleare) che avevano dominato le agende politiche e turbato il
sonno dell'opinione pubblica per il ventennio precedente. Questo nuovo interesse per
l'argomento permise agli scienziati di creare gruppi di pressione e di ottenere fnanziamenti
dai rispettivi governi. La disponibilità di fondi permise di dimostrare il collegamento fra la
deforestazione e la maggiore quantità di CO2 nell'aria, in quanto la vegetazione abbattuta
non solo cessa di assorbire anidride carbonica, ma decomponendosi ne produce altra.
Venne via via allontanata anche l'ipotesi di un possibile abbassamento delle temperature,
mentre appariva sempre più probabile il suo innalzamento (Weart, 2003, pagg. 109-115).
Questa crescente consapevolezza dei rischi legati all'inquinamento atmosferico portò nel
1988 all'istituzione, in sede alle Nazioni Unite, del Intergovernmental Panel on Climate
Change (IPCC). Organo di collaborazione tra a United Nations Environment Programme
(UNEP, fondata nel 1972) e la World Metheorological Organization (WMO, fondata nel 1950),
il suo scopo era, ed è tuttora, la raccolta di informazioni scientifche sul cambiamento
climatico inteso come “un cambiamento climatico nello stato del clima che possa essere
14. identifcato attraverso variazioni nella media e/o nella variabilità delle sue proprietà e che
persista per un esteso periodo di tempo” (Climate Change 2007: Synthesis Report, IPCC,
p.30, traduzione). All'IPCC possono partecipare tutti i paesi membri dell'Onu, anche quelli
non aderenti alla UNFCCC e al Protocollo di Kyōto, con l'unico limite di attenersi alle
tecniche e alle unità di misurazione stabilite dalle Conferenze delle Parti e di riportare
annualmente i dati, in modo che essi siano comparabili e il più possibile aggiornati. I suoi
periodici rapporti sono probabilmente la più completa e precisa fonte di informazioni sullo
stato del clima mondiale.
1.2 Il cambiamento climatico nella diplomazia internazionale
Dopo la pubblicazione del primo rapporto dell'IPCC, nel 1990, iniziarono i negoziati per la
United Nations Framework Convention on Climate Change (UNFCCC), che si propone
come obiettivo “la stabilizzazione delle emissioni di gas serra nell'atmosfera ad un livello che
permetterà di prevenire pericolose interferenze antropiche con il sistema climatico”
(UNFCCC, pag. 9, traduzione). La defnizione di cambiamento climatico adottata in questa
sede è diversa dalla precedente: “cambiamento climatico ... è attribuito direttamente o
indirettamente all'attività umana e che altera la composizione dell'atmosfera globale e che si
aggiunge alla naturale variabilità del clima osservata su periodi di tempo comparabili”
(UNFCCC, pag. 7, traduzione). Veniva così uffcialmente introdotta la separazione fra
emissioni e cambiamento climatico come fenomeni naturali ed emissioni e cambiamento
climatico dovuti alle attività umane.
Secondo l'IPCC (Climate Change 2007: Synthesis Report, p.72), infatti:
15. ”Il riscaldamento del sistema climatico è inequivocabile, ed è oramai evidente dalle
osservazioni degli incrementi nella temperatura media dell'aria e degli oceani, dal
diffuso scioglimento della neve e dei ghiacci e nell'innalzamento medio globale del
livello del mare.”
Dall'approvazione del trattato UNFCCC, nel 1994, si sono tenute 17 Conferenze delle Parti
(l'ultima a Durban nel Novembre 2011), la terza delle quali ha visto, nel 1997, l'approvazione
formale del Protocollo di Kyōto, con il quale gli stati frmatari si impegnarono a limitare le
emissioni con l'obiettivo di “promuovere lo sviluppo sostenibile”. Per farlo devono:
• implementare e/o elaborare politiche e misure in accordo con le circostanze
nazionali, come ad esempio:
◦ il miglioramento dell'effcienza energetica nei settori rilevanti dell'economia
nazionale;
◦ la protezione e il miglioramento del decadimento e delle riserve dei gas serra
non controllati dal Protocollo di Montreal1
, tenendo in considerazione gli obblighi
derivanti da accordi internazionali sull'ambiente, promozione delle pratiche di
gestione sostenibile delle foreste, forestazione e riforestazione;
◦ promozione di forme di agricoltura sostenibile alla luce delle considerazioni sul
cambiamento climatico;
◦ ricerca su, promozione, sviluppo e maggior utilizzo delle fonti di energia nuove e
rinnovabili, delle tecnologie di cattura dell'anidride carbonica e delle nuove e
innovative tecnologie sicure per l'ambiente;
◦ progressiva riduzione o eliminazione delle imperfezioni di mercato, incentivi
fscali, tasse ed esenzioni e sussidi in tutti i settori ad alto livello di emissioni che
1Il Protocollo di Montreal sulle Sostanze che impoveriscono lo strato di Ozono fu concluso nel 1987 ed insieme alla Convenzione di Vienna per la
Protezione dello Strato di Ozono del 1985 è uno dei primi documenti internazionali ad affrontare la questione dei gas serra e del riscaldamento
globale. Prevedeva l'elaborazione di uno schema per la totale rimozione dei gas clorofuorocarburi (in breve CFC: quelli delle bombolette spray,
per intenderci) entro il 2030, i quali pertanto non fgurano nell'Annesso A del Protocollo di Kyōto.
16. ostacolano gli obiettivi della Convenzione [UNFCCC n.d.a.] e l'applicazione degli
strumenti di mercato;
◦ incoraggiamento e appropriate riforme nei settori rilevanti, volte a promuovere
politiche e misure che limitano o riducono le emissioni di gas serra non
controllate dal Protocollo di Montreal;
◦ limitazione e/o riduzione delle emissioni di metano attraverso il recupero e l'uso
nella gestione dei rifuti, ma anche nella produzione, nei trasporti e nella
distribuzione di energia;
• l'effcacia delle politiche e delle misure … A questo fne le Parti devono condividere
le proprie esperienze e scambiarsi informazioni su tali misure e politiche, nonché
sviluppare metodi per il miglioramento della loro confrontabilità, trasparenza ed
effcacia (Protocollo di Kyōto, art. 2, traduzione).
L'obiettivo era la stabilizzazione delle emissioni ad un livello globale considerato sicuro, il
che implicava grosse riduzioni per alcuni paesi (dell'8% come nel caso dell'Unione
Europea) o anche incrementi per altri (del 10% per l'Islanda), nel periodo tra il 2008 e il
2012, con riferimento ai livelli di emissioni registrati nel 1990 (Baumert et al., 2005, p.3). Gli
strumenti da utilizzarsi a questo scopo sono i cosiddetti meccanismi di Kyōto:
• il commercio delle emissioni, che prevede che i paesi che non raggiungono il tetto
massimo di emissioni previste possano “vendere” a paesi che invece la superano la
loro quota di emissioni non utilizzate;
• il meccanismo di sviluppo pulito, che prevede che i paesi frmatari possano
promuovere progetti di sviluppo sostenibile in paesi in via di sviluppo;
• l'implementazione congiunta, che prevede la collaborazione su progetti di sviluppo
sostenibile tra paesi considerati avanzati.
17. Dall'articolo 2 del si evincono alcuni concetti importanti e alcune debolezze dell'approccio.
Innanzi tutto il le “misure in accordo con le circostanze nazionali” prevedono la distinzione
tra i paesi avanzati dell'Annesso I, tra quali però risultano alcuni paesi in “transizione verso
un'economia di mercato” (EIT), per i quali i target di riduzione delle emissioni sono
ridimensionati. I paesi non-Annesso I sono invece i paesi defniti in via di sviluppo, e
comprendono anche 49 paesi meno sviluppati (LDC): essi sono monitorati ed aderiscono al
Protocollo, ma non sono legalmente vincolati alla riduzione delle emissioni. Tra questi anche
Cina e l'India, che sono tra i primi 25 paesi per livello assoluto di emissioni di gas serra.
Nello specifco i paesi EIT sono quelli che erano membri dell'ex Unione Sovietica e
sarebbero quindi liberi di inquinare di più, o comunque ridurre meno le proprie emissioni.
Tale misura è comprensibile, considerando la necessità di creare un livello di benessere
adeguato nei paesi in questione e che le energie rinnovabili e le innovazioni citate
nell'articolo richiedono costi di ricerca e sviluppo che diffcilmente paesi reduci dallo
smembramento dell'URSS sarebbero stati in grado di affrontare. Inoltre dove c'è poca
produzione ci sono anche poche emissioni. Pertanto, in confronto agli altri frmatari, i paesi
“in transizione” inquinavano di meno. Tuttavia, l'arretratezza di queste economie poteva
anche essere interpretata come un'opportunità di sviluppo sostenibile ex-novo: se per i
paesi con economie di mercato già avviate si parla di “riforme nei settori rilevanti”, dove
questi settori non erano ancora sviluppati, non sarebbe stato forse più semplice seguire da
subito un modello di produzione eco sostenibile, invece che replicare il modello esistente e
poi riformarlo? Lo stesso si può affermare riguardo ai paesi non-Annesso I, a maggior
ragione se si considerano nazioni in rapidissima crescita sia economica che demografca
come appunto Cina e India. Questo tema è stato oggetto di un working paper del World
Resource Institute pubblicato nel dicembre 2011 (Levin e Finnegan, “Assessing Non-Annex
I Pledges: Building a Case for Clarifcation”) dove si sostiene la necessità di imporre vincoli
precisi anche a questi paesi, oltre che ad adottare criteri di misurazione delle emissioni
specifci, poiché, come verrà spiegato più avanti, la composizione delle emissioni è diversa
18. a seconda del tipo e di livello di sviluppo dell'economia. Rilevante anche il caso degli Stati
Uniti, che non hanno mai ratifcato il trattato pur essendo il paese che produce più
emissioni al livello assoluto e che ne ha prodotte di più tra il 1850 e il 2002 (Baumert et al.,
2005, pagg. 12 e 32).
Di fatto, nonostante la partecipazione quasi universale al Protocollo e alle relative
contrattazioni, è molto diffcile garantirne e verifcarne l'effettiva applicazione, tanto più che
si è giunti alla scadenza del periodo di impegno previsto. Durante la conferenza di Durban,
oltre a ribadirsi la necessità di un nuovo protocollo per garantire la continuità degli impegni:
“[si è] ... notato con grande preoccupazione il gap tra l'effetto aggregato delle
forme di mitigazione applicate dalla Parti in termini di emissioni annuali dei gas
serra entro il 2020 e le previsioni sulle emissioni consistenti con la possibilità di
mantenere l'innalzamento delle temperature globali medie rispetto all'era pre-
industriale al di sotto di 1,5° o 2°...”
(Establishment of an Ad Hoc Working Group on the Durban
Platform for Enhanced Action, p.1, UNFCC COP-17)
Quindi non solo bisogno continuare ad applicare le misure di mitigazione, ma è
necessario incrementarne l'effcacia e la diffusione con lo scopo di ridurre anche fno al
40% le emissioni di gas serra rispetto all'anno di riferimento (il caso della Norvegia,
secondo le proposte di emendamento al Protocollo di Kyōto elaborate a Durban), oltre
all'auspicio della futura partecipazione degli Stati Uniti.
Tra le altre novità introdotte a Durban c'è anche l'introduzione tra i gas serra
riconosciuti del triafuoruro di azoto (NF3), il quale però non si trova nelle statistiche
sulle emissioni né sulle proiezioni in quanto non rientra ancora uffcialmente fra le
sostanze considerate pericolose (nonostante un GWP pari a 17200 sull'orizzonte di 100
19. anni2
), in quanto è il suo utilizzo è stato introdotto solo di recente in sostituzione di altri
gas serra e nella costruzione di parti elettroniche come gli schermi a cristalli liquidi
(Morgan, 2008).
Vale infne la pena di menzionare che dal 2004 anche la Comunità Europea si è dotata
di un meccanismo di monitoraggio delle emissioni e di implementazione del Protocollo
di Kyōto (che segue le linee guida dell'IPCC) e nel 2010 è stato istituito il Direttorato
Generale per l'Azione sul Clima (DG CLIMA), con lo scopo di guidare le trattative
internazionali sul clima, perseguire gli obiettivi di riduzione delle emissioni oltre che
sviluppare ed implementare lo schema di Trading Europeo delle emissioni (EU ETS).
1.3 I colpevoli
L'Annesso A del Protocollo di Kyōto identifca i seguenti gas antropici:
• anidride carbonica (CO2);
• metano (CH4);
• protossido di azoto (N2O);
• esafuoruro di zolfo (SF6);
• i gas perfuorocarburi (PFC) e idrofuorocarburi HFC).
Gli ultimi tre tipi di gas sono anche detti gas fuorinati e a differenza degli altri la loro
presenza nell'atmosfera non interferisce sul calore in uscita da pianeta, bloccandolo
nell'atmosfera, ma vanno bensì a corrodere lo strato di ozono presente nella stratosfera,
2 Per l'interpretazione di questi valori, vedere il paragrafo 1.3)
20. che rallenta il passaggio delle radiazioni solari. I gas clorofuorocarburi (CFC), oggetto del
Protocollo di Montreal non fgurano nell'Annesso A (che elenca i gas serra per i quali è
necessario ridurre le emissioni), sebbene secondo il DG CLIMA la loro concentrazione
atmosferica contribuisca, insieme a quella degli altri gas che impoveriscono l'ozono, per il
12% all'effetto complessivo di riscaldamento globale. Secondo la stessa fonte il primo
responsabile del Global Warming è l'anidride carbonica (alla cui presenza è attribuito il 63%
dell'effetto totale), seguita dal metano (19%), mentre il protossido di azoto è in fondo alla
classifca con il 6%.
Questo non signifca che l'anidride sia più dannosa degli altri gas in termini assoluti, ma che
essendo presente nell'atmosfera in quantità maggiori abbia un effetto predominante: ogni
gas serra non ha solo specifche fonti di emissione, modalità e tempi di smaltimento
dall'atmosfera, ma anche diverso Global Warming Potential (GWP). Questo valore indica la
quantità di calore assorbita da un determinato gas (o mix di gas) in determinato arco di
tempo. La misura di riferimento è l'equivalente CO2 (MtCO2eq), per cui il GWP dell'anidride
carbonica è 1. ll GWP del metano su 100 anni è 21: questo signifca che le emissioni
di un milione di tonnellate cube di metano ha lo stesso effetto di 21 milioni di
tonnellate cube di anidride carbonica (OECD, Glossario dei Termini Statistici). Questo
signifca che il metano, seppur presente in quantità assai minore nell'atmosfera è
potenzialmente molto più dannoso, e lo stesso vale per i gas fuorinati.
La seguente tabella riassume tutti i gas serra dell'Annesso A, il loro periodo di permanenza
nell'atmosfera, ovvero il periodo di tempo necessario perché essi siano smaltiti e quindi
cessi il loro effetto, e il GWP per gli orizzonti temporali di 20, 100 e 500 anni. Esso è riferito
ai periodi di decadimento calcolati secondo il modello di ciclo dell'anidride carbonica di
Berna3
, e considerando emissioni di CO2 costanti nel tempo rispetto ai livelli registrati al
3 Tale modello studia la relazione tra le emissioni antropiche di CO2, lo stock già presente nell'atmosfera e la loro interazione con gli oceani, la
superficie terrestre e l'atmosfera (F. Joos and M. Bruno, A SHORT DESCRIPTION OF THE BERN MODEL, University of Bern, 1996)
21. periodo di elaborazione dei dati (1995).
Tipo Formula
Chimica
Permanenza (anni) Potenziale Global Warming (orizzonte temporale)
20 anni 100 anni 500 anni
CO2 CO2 variabile § 1 1 1
Metano* CH4 12±3 56 21 6,5
Protossido
di Azoto
N2O 120 280 310 170
HFC-23 CHF3 264 9100 11700 9800
HFC-32 CH2F2 5,6 2100 650 200
HFC-41 CH3F 3,7 490 150 45
HFC-43-
10mee
C5H2F10 17,1 3000 1300 400
HFC-125 C2HF5 32,6 4600 2800 920
HFC-134 C2H2F4 10,6 2900 1000 310
HFC-134a C2H2F2 14,6 3400 1300 420
HFC-152a C2H4F2 1,5 460 140 42
HFC-143 C2H3F3 3,8 1000 300 94
HFC-143a C2H2F4 48,3 5000 3800 1400
HFC-227ea C3HF7 36,5 4300 2900 950
HFC-236fa C3H2F46 209 5100 6300 4700
22. HFC-245ca C3H3F5 6,6 1800 560 170
Esafuoruro
di Zolfo
SF6 3200 16300 23900 349000
Perfuorome
tano
CF4 50000 4400 6500 10000
Perluoroeta
no
C2F6 10000 6200 9200 14000
Perfuoropro
pano
C3F8 2600 4800 7000 10100
Perfuorobut
ano
C4F10 2600 4800 7000 10100
Perfuorocicl
obutano
c-C4F8 3200 6000 8700 12700
Perfuorope
ntano
C5F12 4100 5100 7500 11000
Perfuoroesa
no
C6F14 3200 5000 7400 10700
§ derivato dal Modello di Berna sul ciclo dell'anidride carbonica
* Il GWP per il metano include gli effetti dell'ozono nella troposfera e la produzione di vapore acqueo nella stratosfera
Climate Change 1995, The Science of Climate Change: Summary for Policymakers and Technical Summary of the Working
Group I Report, pag. 22
L'eterogeneità dei gas serra ha diverse implicazioni: in primo luogo, anche in caso di
immediata riduzione o eliminazione delle emissioni correnti, le concentrazioni nell'atmosfera
continuerebbero ad esercitare un forcing radiativo positivo a causa dei tempi di
smaltimento, e quindi la temperatura continuerebbe ad aumentare per effetto delle
emissioni antropiche del passato almeno per un periodo (come sta avvenendo nel caso dei
CFC). In secondo luogo, i processi di smaltimento sono strettamente collegati alla presenza
di vegetazione, fauna marina, concentrazioni di ozono e precipitazioni. Tutti elementi
vulnerabili all'innalzamento delle temperature, che potrebbe quindi anche interferire con
l'effcacia dei processi di smaltimento stesso.
Queste considerazioni sono utili a sottolineare un altro aspetto importante: l'incertezza della
23. misurazione non è del tutto risolta, e questa deriva soprattutto dall'interazione dei cicli
naturali dell'anidride carbonica con le emissioni antropiche della stessa, per questo, nella
maggior parte delle statistiche e dei grafci (quando non specifcato diversamente) non
vengono considerate le emissioni dovute a “diverso uso dei terreni e foreste” (Land Use
Change and Forestry, in breve LUCF, pari al 18,3% del totale delle emissioni). È bene tenere
a mente questa esclusione poiché la deforestazione e le attività agricole (che producono
prevalentemente emissioni di metano e protossido di azoto) sono la maggior fonte di gas
serra nei paesi in via di sviluppo, ma queste noon risultano nei dati che mostrano solo le
emissioni di CO2 dovute all'utilizzo dei combustibili fossili. Queste ultime rappresentano
l'81% delle emissioni nei paesi avanzati, ma solo il 41% nei paesi in via di sviluppo e il 5%
in quelli meno sviluppati, mentre in questi ultimi due le emissioni di CO2 derivanti dalla
LUCF stimate sono rispettivamente il 33% e il 62% del totale (Baumert et al., 2005, pagg.
3-7 e 12-14).
L'ultimo bollettino sui gas serra della WMO stima che tra il 1750 e il 1958 solo il 45% delle
emissioni di CO2 sia stato eliminato dall'atmosfera, mentre il restante 55% è rimasto ad
accumularsi sopra le nostre teste. Per quanto riguarda gli altri principali gas serra la stima è
che il 40% delle particelle di metano e protossido di azoto attualmente presenti
nell'atmosfera siano di origine naturale, attribuendo il resto alle attività umane. Nello stesso
bollettino è riportata la seguente tabella, che mostra la quantità e le variazioni dei tre gas tra
il 1750 e il 2009, ipotizzando che le concentrazioni nell'atmosfera nel periodo pre-industriale
fossero di 280ppm (parti per milione) per l'anidride carbonica, 700ppb (parti per miliardo)
per il metano e 270ppb per il protossido di azoto.
24. CO2
(ppm)
CH4
(ppb)
N2O
(ppb)
Quantità totale nel 2009 386,8 1803 322,5
Incremento dal 1750 38% 158% 19%
Incremento assoluto 2008-
2009 absloute increase
1.6 5 0.6
Incremento relativo 2008-
2009 relative increase
0.42% 0.28% 0.19%
Incremento assoluto medio
nel periodo 1999-2009
1.88 2.2 0.77
(WMO Greenhouse Gases Bullettin, 2009, Tabella 1, pag. 2 )
Grafcamente, ecco l'andamento delle concentrazioni di CO2 nell'atmosfera tra il 1750 e il
2004
(Baumert e. al., fg 1.1, pag. 3)
25. L'innalzamento delle temperature registrato rispecchia quasi perfettamente l'aumento della
concentrazione di CO2 nell'atmosfera, come si osserva tramite la seguente mappa, che
confronta l'andamento osservato delle temperature (indicato dalla linea nera), a livello sia
globale che regionale, confrontato con le variazioni simulate da modelli che includono le
emissioni sia naturali che antropiche (in rosa) e da modelli che considerano solo quelle
naturali, dovute principalmente all'attività solare e alle eruzioni vulcaniche (in azzurro).
(Climate Change 2007: Synthesis Report, pag. 40)
26. Ritornando all'eterogeneità dei gas serra, nei tre grafci seguenti è possibile osservare quali
siano i
(a) le emissioni annuali globali di gas serra antropici tra il 1970 e il 2004;
(b) la quantità dei diversi gas serra antropici sul totale delle emissioni in termini di
equivalente CO2 nel 2004;
(c) la quantità di emissioni antropiche per settore in termini di equivalente CO2 nel 2004;
(Climate Change 2007: Synthesis Report, p.36)
Come detto in precedenza l'anidride carbonica è responsabile per il 63% dell'effetto di
riscaldamento globale, ma le sue emissioni sono il 76,6% del totale; il metano contribuisce
al global warming per il 19% e alle emissioni per il 14,3%; il protossido di azoto
contribuisce ad entrambi in misura simile: 6% del surriscaldamento e 7,9% delle emissioni.
I gas fuorinati infne, pur essendo solo l'1,1% delle emissioni totali causano il 12%
dell'innalzamento delle temperature (insieme ai CFC). Queste cifre rendono più evidente
quanto detto in precedenza sulla dannosità dei gas serra: la CO2 è quello largamente più
27. abbondante, ma non il più dannoso in assoluto.
Ora che il quadro sui diversi tipi di gas serra e i loro effetti sulle temperature medie è
completo, possiamo analizzare le emissioni a livello geografco.
1.4 I responsabili
Stando ai dati del 2000, ecco i 25 paesi che producono più emissioni a livello assoluto e
con l'esclusione dei dati riguardanti la LUCF.
Paese Mt in equivalente CO2 % dei gas serra a livello mondiale
1. Stati Uniti 6928 20,6
2. Cina 4938 14,7
3. EU-25 4725 14,0
4. Russia 1915 5,7
5. India 1884 5,6
6. Giappone 1317 3,9
7. Germania 1009 3,0
8. Brasile 851 2,5
9. Canada 680 2,0
10. Gran Bretagna 654 1,9
11. Italia 531 1,6
12. Corea del Sud 521 1,5
13. Francia 513 1,5
14. Messico 512 1,5
15. Indonesia 503 1,5
16. Australia 491 1,5
17. Ucraina 482 1,4
18. Iran 480 1,4
19. Sud Africa 417 1,2
20. Spagna 381 1,1
21. Polonia 381 1,1
22. Turchia 355 1,1
28. 23. Arabia Saudita 341 1,0
24. Argentina 289 0,9
25. Pakistan 285 0,8
Totale 25 27915 83
Resto del Mondo 5751 17
Paesi Avanzati 17355 52
Paesi in Via di Sviluppo 16310 48
(Baumert et al., 2005, fg. 2.1, pag. 12)
Attribuire la responsabilità del surriscaldamento globale, e quindi della sua eventuale
mitigazione, non è tuttavia così immediato: i paesi che per primi si sono industrializzati sono
quelli che hanno prodotto storicamente più emissioni, e sono anche quelli che secondo il
Protocollo di Kyōto tenuti ridurle in maniera maggiore. I paesi cosiddetti in via di transizione
(nella fattispecie: Bulgaria, Croazia, Repubblica Ceca, Estonia, Ungheria, Lettonia, Lituania,
Polonia, Russia, Romania, Slovacchia, Slovenia e Ucraina) hanno vincoli meno stringenti,
mentre i paesi in via di sviluppo non ne hanno ancora. Eppure alcuni paesi che hanno
inquinato poco in passato stanno inquinando, e probabilmente inquineranno, molto di più in
futuro: osservando i dati relativi alle emissioni di anidride carbonica cumulate tra il 1850 e il
2002 (Baumert et al., 2005, pag. 32) nelle prime 10 posizioni troviamo, oltre ai paesi di
prima industrializzazione come Stati Uniti, Regno Unito, Francia e Germania, anche Cina,
India e Ucraina, che risultano quindi aver “recuperato” molto in fretta in termini di
inquinamento. Infatti, per il periodo in questione i paesi in via di sviluppo risultano
responsabili del 24% delle emissioni totali, ma se si considera il periodo 1990-2002 viene
loro attribuito il 39%. I fattori che hanno maggiormente contributo alla crescita delle
emissioni di anidride carbonica sono stati il PIL pro capite, la popolazione, l'intensità
energetica (quantità di energia utilizzata per unità di reddito) e fuel mix (quantità di emissioni
di CO2 nell'energia utilizzata), con Cina, Stati Uniti e India nei primi tre posti.
29. Il livello assoluto di emissioni non tiene pertanto in conto fattori rilevanti come le emissioni
pro capite, che generalmente risultano maggiori quanto maggiore è il reddito pro capite,
poiché questo comporta un maggior consumo energetico (il gap aumenta ulteriormente
quando si considerano solo le emissioni di CO2 relative all'energia); anche la dotazione di
risorse naturali volte alla produzione di energia, la densità della popolazione e la
conformazione geografca sono fattori rilevanti. Non a caso infatti nella top 5 si trovano
Qatar, Emirati Arabi Uniti, Kuwait, Australia e Bahrain: tutti paesi a bassa densità di
popolazione e dotati di grandi riserve di combustibili fossili, mentre tra i primi 25 si trovano
ben 11 paesi che non sono tra i primi 25 per livello assoluto di emissioni (nell'ordine:
Lussemburgo, Nuova Zelanda, Antigua e Barbuda, Repubblica Ceca, Singapore,
Turkmenistan, Olanda, Finlandia, Palau, Nauru e Danimarca). Gli Stati Uniti si trovano al 6°
posto e l'Europa a 25 al 37°; Cina e India si trovano rispettivamente al 99° e 140°; l'Italia al
48°.
Ogni tipo di intervento a favore della riduzione delle emissioni deve quindi tenere in conto
una molteplicità di fattori, caratterizzati da orizzonti temporali molto lunghi ed elevati livelli
di incertezza. La crescita economica e demografca in corso in paesi come Brasile, Russia,
India e Cina (i cosiddetti BRIC), senza sottovalutare altri paesi in via di sviluppo, ha elevata
probabilità di continuare e quindi di esercitare ulteriore pressione sulle risorse, aumentando
la domanda di energia, beni, cibo e quindi le emissioni. Lo sviluppo economico e sociale, la
crescente globalizzazione e l'integrazione di tali paesi nelle relazioni diplomatiche con il
resto del mondo potrebbe avere diversi risvolti sia per quanto riguarda l'adesione alle linee
guida dell'IPCC sia per quanto riguarda la nascita di rivalità e tensioni sia politiche che
legate all'utilizzo delle risorse. La cooperazione internazionale in materia ambientale
potrebbe portare ad un più rapido sviluppo dell'effcienza energetica delle tecnologie
esistenti o all'innovazione in materia di energie rinnovabili. O forse no. A fronte di tutte
queste incognite, l'IPCC ha elaborato una serie di possibili scenari sul futuro livello di
emissioni e sul conseguente innalzamento delle temperature, che verranno analizzati nel
30. paragrafo 1.6. Intanto cercheremo di capire quali siano, in pratica, le conseguenza del
cambiamento climatico e come queste si rifettano sull'economia.
1.5 Gli effetti
L'aumento delle temperature dall'epoca pre-industriale, ad oggi, è ancora inferiore al grado
ma ha già effetti sensibili sulle condizioni ambientali e su tutte le attività umane ad esso
correlate. Le stagioni “tiepide” arrivano sempre prima, e si estendono sempre più verso
nord, le ondate di caldo sono sempre più frequenti così come le forti precipitazioni e il livello
del mare si è alzato in modo generalizzato. Per capire l'entità di queste variazioni possiamo,
come dice Smith (2010, p. 5) immaginare che il nostro “cortile si sposti verso nord alla
velocità 1,67m ogni giorno”. Pensando a paesi come la Russia, il Canada e quelli
Scandinavi, questi potrebbero probabilmente giovare di temperature più miti, grazie alla
maggiore disponibilità di terra coltivabile e acqua dolce, maggiore possibilità di navigazione
nei mari artici grazie al prolungato periodo di disgelo, minore fabbisogno energetico per il
riscaldamento. Se gli inverni più brevi permettono di navigare di più, essi però impediscono
di guidare: nelle aree artiche alcune aree estremamente remote sono raggiungibili su ruote
solo grazie alle winter roads, ovvero vere e proprie autostrade costruite nel ghiaccio e nella
neve limitatamente ai periodi più freddi dell'anno. In tali aree la costruzione di vere strade è
impossibile sia per i costi, troppo alti relativamente all'utilizzo, sia perché il terreno è
tendenzialmente paludoso e quindi poco stabile. Un altro problmea che riguarda il
riscaldamento delle aree nordiche è lo scioglimento del permafrost, il terreno perennemente
congelato: in alcune aree esso sorregge intere città e le infrastrutture da cui esse
dipendono, nonché laghi che tendono a sprofondare nel terreno quando questo si scioglie.
31. Il permafrost contiene anche materiale organico, in particolare piante, le quali
decomponendosi rilasciano anidride carbonica e metano: se si sciogliesse completamente
verrebbero rilasciate nell'atmosfera 1.672 miliardi di tonnellate (Gt) di emissioni, che
andrebbero a sommarsi alle 730Gt attualmente nell'atmosfera, innescando ulteriore
surriscaldamento (Smith, 2010, pagg. 164-170 e pagg. 234-235).
Tralasciando il caso specifco dei paesi nordici, livello globale le principali conseguente del
cambiamento climatico sono:
• scioglimento dei ghiacciai, del permafrost e, nel caso estremo, dei ghiacci
continentali dell'Antartide e della Groenlandia, con conseguenti
• innalzamento del livello del mare, che mette a rischio ogni attività umana costiera e
ne aumenta i costi di messa in sicure; e
• variazione nella distribuzione della disponibilità di acqua, con generale tendenza alla
diminuzione nelle aree dove è già scarsa;
• incremento dei fenomeni meteorologici estremi: in particolare le tempeste tropicali
diventano più violente all'aumentare della temperatura superfciale del mare;
• acidifcazione degli oceani, che altera la fauna marina compromettendo la
biodiversità e le riserve ittiche, tanto che è considerata probabile una
• estinzione del 15-40% delle specie esistenti per un incremento della temperatura di
2°;
• improvvisi e radicali cambiamenti nei processi meteorologici periodici, come i
monsoni, El Niño o la corrente nord atlantica.
Oltre all'immediata minaccia alla sicurezza delle persone e delle infrastrutture che questi
eventi portano con loro, esistono gravi implicazioni per la crescita economica. In particolare
“i paesi in via di sviluppo sono molto sensibili al cambiamento climatico data la loro grande
dipendenza dall'agricoltura e dall'ecosistema, la rapida crescita della popolazione e la
32. concentrazione di milioni di persone in condizioni abitative precarie, e alle carenti condizioni
igieniche”, senza contare la minore disponibilità di risorse economiche per l'adattamento
(Stern, 2007, Parte I, pagg. 92 -97). Del resto nemmeno i paesi avanzati sono immuni da
questi rischi: il 5% della popolazione mondiale vive in aree costiere così le tempeste, le
inondazioni (ma anche la siccità) aumentano i costi di sicurezza e anche quelli assicurativi,
con inevitabili ripercussioni sul mercato fnanziario e sul costo del capitale (Stern, 2007,
Parte II, pag. 14). Le catastrof naturali porteranno la popolazione a migrare quando non
sarà possibile o conveniente sostenere i costi di adattamento, con probabili esiti confittuali.
Anche la produzione di energia risente del cambiamento climatico: l'acqua più calda rende
più diffcoltoso il raffreddamento dei generatori di elettricità, le alluvioni e le siccità riducono
la disponibilità delle biomasse necessarie per alcuni tipi di energie rinnovabili, oltre che
danneggiare infrastrutture come oleodotti, gasdotti, miniere, piattaforme petrolifere e
centrali elettriche.
Infne, l'incapacità dei paesi in via di sviluppo di produrre quanto necessario per sostenere
la propria crescita demografca comporterà un incremento del gap del reddito e nuovi fussi
migratori.
Dare una misura precisa di questi fenomeni è diffcile, per questo l'IPCC nel fare le sue
previsioni non ha elaborato uno scenario futuro, ma una serie, senza valori di probabilità
associati.
1.6 Le previsioni
Il Climate Change 2007: Synstesis Report IPCC presenta un range di scenari possibili.
Facendo riferimento alla sola CO2, vengono presentati diversi livelli di stabilizzazione delle
33. emissioni, ad ognuno dei quali è associato un probabile intervallo di aumento della
temperatura media globale e un relativo di innalzamento del livello del mare. Quest'ultimo
dato è ampiamente incerto poiché, anche nel caso di stabilizzazione delle emissioni, le
temperature continuerebbero ad aumentare per un certo periodo, con effetti diffcilmente
prevedibili sullo scioglimento dei ghiacci in quanto l'innalzamento della temperatura media
a livello globale non comporta un aumento uniforme della temperatura ovunque.
Nel grafco di sinistra la linea rappresenta i livelli di CO2 osservati fno al 2000, mentre tra il
2000 e il 2100 vengono rappresentati i diversi livelli di stabilizzazione. La linea tratteggiata
(post-SRES range) rappresenta il livello minimo e massimo di emissioni che si potrebbe
raggiungere nel lungo periodo lasciando invariate le politiche di mitigazione. Raggiungere la
stabilizzazione delle emissioni signifca fondamentalmente diminuirle fno a portarle in pari
con il tasso di assorbimento dell'ecosistema, comprensivo di vegetazione e oceani: tale
processo è però indebolito dalla temperature più calde (Stern, 2007, Parte III, pag. 197).
Nel grafco di destra ad ogni livello di stabilizzazione (identifcato con lo stesso colore) viene
associato un possibile incremento di temperatura.
(Climate Change 2007: Synthesis Report, p.66)
Per capire meglio l'entità di queste variazioni basta analizzare lo scenario più roseo ad oggi
34. plausibile, ovvero il III (in arancione): tale livello di stabilizzazione richiederebbe che il picco
massimo delle emissioni di CO2 si verifcasse tra il 2010 e il 2030, per poi scendere,
arrivando nel 2050 a valori compresi fra il 30% in meno e il 5% in più rispetto a quelli
registrati nel 2000. Questo comporterebbe un incremento della temperatura media intorno
ai 3° rispetto all'epoca pre-industriale, con un innalzamento del livello del mare compreso
tra 0.6 e 1.9 metri (senza includere il contributo dello scioglimento dei ghiacci) (Climate
Change 2007: Synthesis Report, p.67).
L'impossibilità che si verifchino gli scenari I o II dipende dal fatto il picco di emissioni da
essi previsto dovrebbe già essersi verifcato, o verifcarsi in tempi troppo brevi perché
questo sia verosimile, e anche per lo scenario III i tempi sono già maturi. Più si attende
nell'attuare le misure necessarie alla mitigazione del cambiamento climatico più queste
misure saranno invasive e diffcili da attuare, oltre che a richiedere più tempo per rivelarsi
effcaci. Già da tempo scienziati come Smith e economisti come Stern e qualche politico
come Al Gore, cercano di fare capire a chi comanda che queste misure non sono una delle
cose da inserire nelle agende politiche, ma la priorità, non solo a livello umanitario o
ambientalista, ma anche e soprattutto economico.
1.7 Le alternative
Le energie rinnovabili riconosciute dalla International Energy Agency (Renewables in Global
Energy Supply, IEA, 2007) sono ordinate secondo un criterio temporale. Le tecnologie di
prima generazione sono conosciute dalla rivoluzione industriale e sono già competitive
laddove le risorse naturali necessarie sono abbondanti e l'incremento nel loro utilizzo
35. dipenderà dallo sviluppo delle tecnologie conosciute e dall'introduzione nei paesi in via di
sviluppo: in particolare l'energia idroelettrica ha un enorme potenziale in quanto solo una
piccola parte delle riserve idriche è fornita di impianti per la produzione di energia. Esistono
inoltre le biomasse combustibili e l'energia geotermica che vengono utilizzate sia per
generare riscaldamento che elettricità.
Le tecnologie di seconda generazione sono state sviluppate a partire dagli anni '80 e
comprendono l'energia solare, fotovoltaica ed eolica: l'ultima in particolare ha buone
possibilità di diventare competitiva con le forme di energie tradizionali grande ai sempre
minori costi di realizzazione degli impianti e di stoccaggio dell'energia prodotta.
Le tecnologie di terza generazione sono ancora in fase di sviluppo e a causa degli elevati
costi e della limitata conoscenza al riguardo non sono ancora ampiamente
commercializzate, e il loro futuro utilizzo dipende dalla fase di ricerca e sviluppo. Esse
comprendono l'energia solare concentrata, quella oceanica, la geotermica migliorata e i
sistemi di bioenergie integrate.
Attualmente le energie rinnovabili contribuiscono per il 13.1% alla produzione totale di
energia primaria mondiale e nonostante ne sia previsto un crescente utilizzo, la completa
sostituzione alle forme di energia tradizionale non è possibile in tempi brevi. Lo scenario di
riduzione delle emissioni entro il 2050 prevede una combinazione di energie rinnovabili,
nucleare e tradizionali ad aumentata effcienza per soddisfare la domanda globale (Energy
Technology Perspectives, IEA, 2010). I limiti delle energie rinnovabili sono principalmente,
ma non unicamente, tecnologici. I candidati favoriti alla sostituzione dei carburanti liquidi
sono l'idrogeno e le biomasse: il primo, innanzi tutto, non è una fonte di energia ma una
sostanza che può essere usata per produrla. Tale processo è molto complesso e richiede
ancora enormi quantità di energia. Inoltre l'idrogeno è esplosivo e un suo diffuso utilizzo
nell'alimentazione dei mezzi di trasporto richiederebbe la soluzione dei problemi di
sicurezza implicati, nonché la creazione delle infrastrutture necessarie a supportarlo. Le
biomasse sono più facilmente reperibili, ma dovendo essere coltivate producono esse
36. stesse una parte di gas serra, che è almeno pari al risparmio di emissioni dovuto al non
utilizzo del combustibile fossile, senza contare la competizione con le colture alimentari, di
cui c'è crescente domanda.
Per quanto riguarda la produzione di elettricità, il settore più avanzato è quello idroelettrico,
ma a causa delle gravi implicazioni ambientali delle grandi dighe, diffcilmente grandi
progetti saranno intrapresi in futuro (anche se i progetti che non richiedono dighe hanno un
buon potenziale). Le energie solare, fotovoltaica ed eolica, pur avendo fonti gratuite e
virtualmente illimitate anche ancora problemi per quanto riguarda l'immagazzinamento e la
distribuzione, soprattutto in aree remote (Smith, 2009, pagg. 63 – 77).
Prima dell'incidente di Fukushima, nel marzo 2011, il mondo sembrava pronto anche a
riconsiderare un ingente utilizzo del nucleare, grazie all'assenza di emissioni e ai bassi costi
di produzione e nonostante gli elevati costi di costruzione e manutenzione degli impianti e il
problema della limitatezza delle riserve di uranio. L'idea di sfruttare il più possibile l'energia
nucleare anche per un limitato periodo, in modo da creare un “cuscinetto” tra i combustibili
fossili e le energie rinnovabili, non è affatto insensata, ma i problemi di sicurezza degli
impianti recentemente emersi, con conseguenti proteste da parte delle popolazioni
interessate, hanno almeno momentaneamente tagliato le gambe al progetto.
A fronte di queste considerazioni, emerge tutta la rilevanza delle politiche a favore della
ricerca e sviluppo sia nel campo delle energie rinnovabili sia nell'incremento dell'effcienza
energetica delle forme di energia tradizionali.
1.8 Dalla scienza alla politica
L'accordo sui dati relativi al cambiamento climatico, e il riconoscimento dell'imminente
37. necessità di intervenire per mitigarlo e adattare la società e il sistema produttivo può dirsi
ormai unanime.
Nonostante le innumerevoli dichiarazioni, protocolli e piattaforme programmatiche
elaborate, frmate e (quasi sempre) ratifcate dagli stati membri delle organizzazioni
intergovernative, i metodi di attuazione di queste misure sono ancora piuttosto deboli e
molto spesso le politiche di sostenibilità sono interpretate come uno spreco di risorse, o,
più recentemente uno sforzo economico che paesi in recessione o sull'orlo della quale,
magari nel pieno dell'attuazione di politiche di austerità, non possono permettersi (anche
dal punto di vista del confitto sociale).
Il punto di partenza per la realizzazione di politiche puntuali è il riconoscimento, del resto
già avvenuto con l'art. 2 del Protocollo di Kyōto, del cambiamento climatico come
fallimento del mercato. Le emissioni che lo causano sono esternalità negative, il cui costo
non viene pagato totalmente ed esclusivamente da chi le produce, mentre il clima è un
bene pubblico per la sua caratteristica di non escludibilità. Defnito il benessere come
insieme di consumo, educazione, salute e qualità ambientale, anche per le generazioni
future, è necessario imporre un prezzo sulle emissioni e promuovere la Ricerca & Sviluppo,
affnché questo possa aumentare (Stern, 2007, Parte I, pagg. 24-34). Nessuno si auspica
un'economia futura totalmente controllata dai governi, ma il loro intervento è necessario
affnché sia poi il settore privato a trainare il cambiamento: la possibilità per il settore
produttivo di sviluppare maggiore effcienza energetica ed utilizzare più intensamente forme
di energia rinnovabili ne abbasserebbe via via i costi, rendendo i beni prodotti in maniera
eco-sostenibile più competitivi. Similmente, rendere più costoso il consumo dei beni
prodotti con alte concentrazioni di gas serra permetterebbe di spostare le preferenze dei
consumatori.
A livello teorico i principali strumenti per l'eliminazione delle esternalità sono:
• le tasse pigouviane, ovvero il pagamento da parte di chi inquina di una tassa pari al
38. costo marginale del danno causato;
• l'imposizione di soglie massime;
• l'allocazione di diritti di proprietà sulle emissioni, sia per chi le emette che per chi ne
subisce il effetti negativi, in moda che se ne possa creare un mercato.
Tali politiche devono essere caratterizzate da un'attenta pianifcazione e da elevati livelli di
credibilità affnché gli investitori decidano di intraprendere i progetti necessari, e devono
tenere conto di altre imperfezioni del mercato come i vincoli nell'accesso al credito, la
scarsa informazione e regolazioni ineffcienti che ostacolino l'innovazione attraverso costi
nascosti o brevetti troppo rigidi.
A livello pratico, le politiche più diffuse sono gli schemi di Cap&Trade delle emissioni:
queste prevedono i soggetti producono emissioni possano raggiungere un tetto massimo
prestabilito, oltre il quale vengono multati. Al di sotto di tale soglia guadagnano dei crediti
che possono vendere agli altri soggetti, che in tal modo potranno sforare la soglia senza
essere multati. Schemi di questo tipo esistono in Europa (EU ETS) e in Australia, la quale,
come anche la Gran Bretagna ha anche elaborato un piano di lungo periodo per la
riduzione delle emissioni di tutto il sistema produttivo che include aiuti fnanziari alle
imprese e alle famiglie.
Infatti, l'altro pilastro fondamentale delle politiche di mitigazione è l'innovazione: per un
mondo a basso contenuto di CO2 il grosso del cambiamento dovrà avvenire nella
produzione di energia attraverso l'aumento dell'effcienza energetica dei combustibili fossili
(in modo che sia possibile produrre sempre di più usandone sempre di meno) e la diffusione
delle fonti di energia rinnovabili. Tuttavia il processo innovativo è rallentato a causa di
alcune sue caratteristiche strutturali. In primo luogo, gli spillover della conoscenza acquisita
fanno sì che la scoperta di un'impresa abbia effetti positivi anche sulle altre che non hanno
investito in R&S, e per questo l'investimento complessivo sarà inferiore a quello ottimale. É
possibile elaborare un sistema di brevetti ad hoc, ma il rischio è quello di renderlo troppo
poco fessibile, ostacolando ulteriormente l'innovazione. Altri elementi che disincentivano
39. questo tipo di investimento sono l'incertezza sia riguardo il futuro costo delle emissioni sia
riguardo l'entità e le tempistiche dei rendimenti derivanti dall'innovazione, senza contare la
diffcoltà di inserire in un sistema produttivo già funzionante nuove tecniche, per quanto
economicamente vantaggiose.
É quindi necessario che i governi promuovano lo sviluppo di interi “pacchetti” di
innovazioni, contemporaneamente all'imposizione del prezzo sulle emissioni inquinanti, in
modo da ottenere una transizione armoniosa (e trainata dal settore privato) verso la
stabilizzazione (Stern, 2007, Parte IV, pagg. 310 – 400).
Oltre alle politiche di mitigazione, sono necessarie le politiche di adattamento al
cambiamento climatico, che non sono volte alla soluzione del problema, ma possono
ridurne l'impatto sulla popolazione. Secondo l'IPCC è “l'aggiustamento nei sistemi umani o
naturali in risposta a stimoli climatici o ai loro effetti, sia attesi che già avvenuti, che ne
riduce i danni o ne sfrutta le opportunità di benefcio. Possono essere identifcati vari tipi di
adattamento, inclusi l'adattamento anticipato o di reazione, privato e pubblico, autonomo o
pianifcato” (IPCC, 2001, TAR). I settori che più ne avranno bisogno sono l'agricoltura e le
aree costiere, mentre le asimmetrie informative, l'assenza di mercati adeguati (o il loro non
allineamento) e i vincoli di credito, soprattutto per quanto riguarda le aree povere,
potrebbero ostacolare l'effcienze della misure di adattamento, che quindi come le politiche
di mitigazione dovranno essere promosse dai governi. Non va tuttavia dimenticato che
l'adattamento è un'opzione limitata, ed attuabile esclusivamente in presenza di una
mitigazione effciente, effcacie e attuata in tempi brevi.
Nei paesi avanzati l'adattamento può essere promosso attraverso la pianifcazione per
l'utilizzo dei beni pubblici ambientali e l'imposizione di standard di prestazione, oltre che al
miglioramento del sistema informativo (ad esempio attraverso previsioni affdabili sui futuri
livelli di precipitazioni) e la creazione di un mercato assicurativo che tenga in considerazione
i nuovi rischi ambientali e di un sistema che permetta di proteggere anche chi non può
40. assicurarsi.
Le linee guida per i paesi di sviluppo sono grosso modo le stesse, ma le politiche dovranno
superare ostacoli maggiori per quanto riguarda la maggior diffcoltà di far circolare le
informazioni a causa degli elevati livelli di analfabetismo, la ridotta diffusione della rete
informativa e la presenza di zone remote e diffcili da raggiungere anche a livello
infrastrutturale. Esistono inoltre i problemi relativi alla limitatezza delle risorse e alla minore
credibilità dei governi, che potrebbe disincentivare gli investimenti (Stern, 2007, Parte V
pagg. 404 - 438) É però vero anche che l'arretratezza dei sistemi economici e produttivi è
un'occasione per inserire i piani di adattamento e mitigazione nei più generici piani di
sviluppo a tutto tondo, in modo da inglobare l'eco-sostenibilità nella crescita, invece di
doverla inserire in un sistema già avviato e funzionante. Infatti, come riporta la IEA il 49%
dell'energia in Africa, il 28.9% in America Latina e il 31.8% in Asia (ad esclusione della Cina,
dove la percentuale è 15.4%) è prodotta attraverso fonti rinnovabili, contro il 5.7% dei paesi
OECD (Renewables in Global Energy Supply, IEA, 2007).
Gli elevati livelli di incertezza legati al cambiamento climatico richiedono che le politiche
destinate a mitigarlo abbiano solide basi teoriche, che tengano conto dell'interazione fra
domanda e offerta, delle imperfezioni del mercato, dell'affdabilità delle istituzioni e di
orizzonti temporali di molti decenni, del benessere delle generazioni attuali e future. Per
questo nei prossimi capitoli andremo ad analizzare una serie di modelli economici che
tengono in considerazione tutti questi fattori, prima dal solo lato della produzione, poi
coinvolgendo anche i consumatori e la crescita economica.
41.
42. Capitolo II
Fondamenti Teorici e Politiche Ottimali:
l'approccio dell'Economia Industriale
“I said, maybe, you're gonna be the one that saves me.”
OASIS
2.1 Giochi e Strategie
L'economia industriale è quella branca dell'economia che si occupa di studiare il
comportamento delle imprese in concorrenza perfetta, in condizioni di monopolio e in tutte
le situazioni intermedie. Tali imprese generalmente perseguono fni individuali di
massimizzazione dei proftti senza considerare il benessere comune quindi per
incrementarlo è necessario che il pianifcatore sociale conosca le dinamiche di interazione
dei soggetti (quindi imprese, ma anche consumatori) in modo da poterle correggere
attraverso le politiche necessarie. Una delle discipline che meglio si presta alla
formalizzazione dell'interazione dei soggetti con interessi confittuali è la teoria
dell'interazione strategica, conosciuta anche come teoria dei giochi. Essa analizza le
situazioni di confittualità a partire dal gioco in forma normale, che consiste in un numero
fnito N di giocatori, ciascuno dei quali ha a sua disposizione un insieme non vuoto e un
numero fnito di strategie
43. Si ={si1 ,si2 ,... , sik },∀i ∈N .
Il loro ordinamento è irrilevante, come indicato dalle parentesi graffe. L'insieme dei risultati
s=(s1, s2, ... , sN )
dipende dalle strategie effettivamente adottate, e il payoff πi (s) del giocatore i associa ad
ogni risultato un numero reale.
I giochi in forma normale possono essere:
• cooperativi, quando i soggetti collaborano al fne di massimizzare un payoff
collettivo, o non cooperativi;
• a somma fssa, quando la somma dei payoff a disposizione dei giocatori è sempre lo
stesso, o a somma variabile;
• statici, cioè giocati una volta sola, o ripetuti.
• l'informazione ha tre aspetti rilevanti: è perfetta quando ogni giocatore conosce tutte
le strategie adottate dai rivali, imperfetta quando ne conosce solo una parte; è
completa quando tutti i giocatori conoscono la struttura del gioco altrimenti è
incompleta; è simmetrica quando tutti i giocatori hanno a disposizione le stesse
informazioni.
Il primo metodo di soluzione dei giochi è il metodo di massiminimo (o minimassimo) di Von
Neumann (1928), secondo il quale
44. dato un gioco <N ,Si ,πi (s)> a somma costante , la strategia ˙si ∈Si
è una strategia di massiminimo per il giocatore i se
min
s−i ∈S−i
πi ( ˙si ,S−i)⩾ min
s−i ∈S−i
πi (si , S−i)
∀si≠ ˙si e con si ∈Si
ovvero, date le strategie giocate da tutti gli altri giocatori, ˙si è una strategia di equilibrio
quando garantisce un payoff non minore di quello che ricaverebbe giocando un'altra
strategia qualsiasi.
Il principio di massiminimo però non si applica ai giochi a somma variabile, ed è stato
generalizzato nel concetto di equilibrio di Nash (1950):
dato un gioco <N ,Si ,πi (s)>, il risultato ̂s=( ̂s1 , ̂s2 ,... , ̂sN ) con ̂si ∈Si
è un equilibrio di Nash se
πi ( ̂si , ̂s−i)⩾πi (si , ̂s−i) ∀si∈Si e ∀si∉ ̂si
ovvero se, ex post, nessun giocatore ha un incentivo unilaterale a deviare dalla propria
strategia, o ancora, se posto che tutti gli altri giocatori mantengono la strategia iniziale,
nessuno vorrà cambiare la propria.
Dalla defnizione di Equilibrio di Nash, deriva il Teorema di Nash (1951), secondo il quale
.
ogni gioco <N , Si ,πi(s)>, finito possiede almeno un
Equilibrio di Nash in strategie miste
.
L'espressione “almeno un” individua immediatamente uno dei problemi dell'approccio, che
è quello della molteplicità degli equilibri di Nash e che apre la strada ai perfezionamenti del
Teorema e dell'Equilibrio. Uno di questi è il Criterio di Dominanza delle strategie, secondo il
45. quale una strategia è dominante quando massimizza il payoff qualunque sia il vettore si
strategie scelto dagli altri: quando il payoff è strettamente maggiore di quello che si avrebbe
con un'altra strategia di parla di strategia strettamente dominanti, quando il payoff è
maggiore o uguale si parla di strategie debolmente dominanti. Secondo questo criterio tutti
gli equilibri in strategie dominanti sono equilibri di Nash, ma non tutti gli equilibri di Nash
sono in strategie dominanti (Garella, Lambertini, 2005, pagg. 217 – 231).
2.2 Il dilemma delle emissioni
I concetti introdotti nel paragrafo precedente permettono di inquadrare le emissioni
inquinanti, o meglio il problema della loro riduzione tramite investimenti in ricerca e sviluppo
verde, attraverso la Teoria dei Giochi e in particolare attraverso il Dilemma del Prigioniero.
Questo gioco mostra come un equilibrio in strategie strettamente dominanti possa
comportare un risultato non effciente dal punto di vista paretiano, dove i giocatori, lasciati
liberi di scegliere le proprie strategie, non sceglieranno il punto di equilibrio che massimizza
il benessere di entrambi, ma uno dove entrambi avranno lo stesso payoff anche se questo è
inferiore a quello paretoeffciente.
L'ipotesi sottostante alla versione originale del gioco è che due criminali complici vengano
arrestati ed interrogati separatamente e senza possibilità di comunicare tra di loro.
Possono decidere di confessare o non confessare: se entrambi confessano verranno
entrambi incarcerati per un anno, se nessuno dei due confessa la pena è di 5 anni, mentre
se uno confessa e l'altro no, il primo verrà rilasciato immediatamente mentre l'altro sconterà
10 anni.
In forma matriciale, il gioco è il seguente:
46. (Garella, Lambertini, 2005, pag. 230)
Dove NC è la strategia “non confessare” e C è la strategia “confessare”. L'equilibrio in
strategie dominanti è quello della casella in basso a destra (con payoff -5,5), mentre quello
pareto effciente è nella casella in altro a sinistra (con payoff -1,-1). Il primo è l'unico
equilibrio di Nash esistente nel gioco poiché nell'equilibrio paretiano esiste per entrambi i
giocatori l'incentivo a deviare, in quanto scaricando la colpa sull'altro verrebbero rilasciati,
se questi invece non confessa. Ognuno dei giocatori però sa che l'altro tenterà anch'esso
di scaricare la colpa e sicuramente confesserà, per cui la combinazione C,C di strategie è
strettamente dominante.
Ai fni della nostra analisi, possiamo sostituire i prigionieri con due imprese, e le strategie
non confessare e confessare rispettivamente con mitigare e non mitigare. Le due imprese
concorrenti infatti devono sostenere dei costi per le misure di mitigazione e/o la ricerca e
sviluppo verde, ma se una delle due non prende queste misure o non investe, le emissioni
47. prodotte continuano ad incidere negativamente anche su chi ha investito. Pertanto, invece
che scaricare la colpa le imprese cercano di scaricare il peso sulle emissioni ed in assenza
di una regolamentazione nessuna delle due investirà nelle politiche necessarie. Questo
ragionamento si applica anche ai consumatori che debbano scegliere se acquistare beni e
servizi a minore intensità di emissioni o continuare ad acquistare quelli tradizionali, ma
anche tra governi possano scegliere se incentivare la ricerca e sviluppo verde o meno sul
territorio nazionale. In tutti i casi, l'equilibrio raggiunto non è quello che garantisce il
massimo benessere per tutti, e pertanto esiste una possibilità di intervento da parte del
pianifcatore sociale o, nel caso dei governi, delle organizzazioni sovranazionali e
intergovernative.
2.3 Oligopolio e giochi sequenziali
Come accennato nel paragrafo 2.1, oltre alle due condizioni estreme di monopolio e
concorrenza perfetta, esistono forme intermedie dell'equilibrio di mercato dove ciascuna
impresa ha un limitato potere di mercato che gli permette di avere proftti positivi, anche se
non ne ha il controllo completo. Questa forma prende il nome di oligopolio, ma per
semplicità di analisi, viene più spesso analizzato il caso in cui sul mercato si trovino solo
due imprese, che prende il nome di duopolio. Tali imprese hanno la stessa tecnologia e
operano su un mercato omogeneo, e possono competere sulle quantità ottimale secondo il
modello di Cournot (1838), lasciando che sia la domanda di mercato stabilire il prezzo del
bene, oppure, seguendo lo schema di Bertrand (1883), esse decideranno il prezzo che
48. considerano ottimale e la domanda stabilirà le quantità da produrre. Tutti i modelli che
verranno analizzati nel resto del capitolo e in quello successivo considerano imprese (o
imprese e governi) che competono à-la-Cournot, pertanto vale la pena soffermasi sulla
descrizione di questo modello.
Nel modello di Cournot le due imprese, che abbiamo detto essere identiche per tecnologia,
massimizzano, secondo la quantità da produrre qi data la quantità qj prodotta
dall'avversario, la seguente funzione di proftto:
πi ( p ,Ci)qI=(a−qi−qJ −c)qi
con i , j=1,2 e i≠ j
Il risultato è un equilibrio di Nash in cui la quantità ottimale è detta funzione di reazione o di
risposta ottima, tale che
qi
¿∗¿
=Ri(qj )=
a−qi−c
2
Tale funzione è il luogo dei punti di tangenza fra il sistema di curve lungo le quali il proftto
dell'impresa è sempre lo stesso (curve di isoproftto) e il fascio di rette che identifca i livelli
di output scelti dall'altra impresa. In equilibrio è necessario che le condizioni di ottimo siano
compatibili, quindi eguagliando le funzioni di isoproftto otteniamo la quantità prodotta nel
sistema in condizione di equilibrio di Nash
πi
CN
=π j
CN
→ qCN
=
a−c
3
49. dove l'apice CN sta per Cournot – Nash (Garella, Lambertini, 2005, pagg. 246-249).
L'equilibrio dipende dunque dalle strategie intraprese dal concorrente e nel modello base
appena descritto le due imprese stabiliscono le proprie quantità simultaneamente, ma
poiché tratteremo soprattutto di interazione fra governi ed imprese, è utile pensare alla
dinamica del sistema in modo sequenziale. In particolare, avremo un governo leader di
mercato, che stabilisce ad esempio di imporre una tassa sulla produzione, e un'impresa
follower che stabilisce massimizzaz i proftti stabilendo la quantità da produrre di
conseguenza. Il modello di duopolio con leadership di mercato è descritto da Stackelberg
(1934) e viene risolto per induzione a ritroso, secondo il criterio di perfezione nei
sottogiochi. L'induzione a ritroso prevede semplicemente che, nel caso di un gioco ripetuto,
si proceda risolvendo il problema dall'ultimo periodo e risalendo al primo. Il criterio di
perfezione nei sottogiochi implica invece che in ogni sottogioco originale, ovvero in ogni
periodo, la soluzione sia un equilibrio di Nash (Selten, 1965, 1975).
I giochi non cooperativi ad informazione completa e perfetta di Cournot - Stackelberg
prevedono che il leader massimizzi il proprio proftto rispetto alla quantità da produrre, sotto
il vincolo della funzione di reazione del follower
max
qi
πi=(a−qi−sq j−c)qi
s.v. qj
¿∗¿
=
a−sqi−c
2
.
Sostituendo la funzione di reazione q*
j nella funzione obiettivo e massimizzando rispetto a qi
si ottiene
50. qCL
=
(a−c)(2−s)
2(2−s)
dove l'apice CL indica la quantità prodotta dal leader in un gioco di Cournot, e s
rappresenta la quota di mercato di ciascuna imprese. S è compreso tra 0 e 1: s=0 implica
concorrenza perfetta, s=1 implica monopolio. La quantità prodotta dal follower è
qCF
=
(a−c)(2−s)
4(2−s)
.
I proftti di equilibrio, infne sono
πCL
=
(a−c)2
(2−s)2
8(2−s
2
)
;
π
CF
=
(a−c)
2
(4−2−s
2
)
2
16(2−s2
)2
.
Questo implica che per ogni valore di s compreso fra 0 e 1 vale che
qCL
⩾qCN
⩾qCF
; πCL
⩾πCN
⩾πCF
perciò l'impresa leader ha maggiore potere di mercato ed espande l'output rispetto
all'equilibrio di Cournot – Nash, e lo fa in misura maggiore rispetto a quanto il follower lo
51. contrae. Questo comporta un prezzo di equilibrio inferiore e quindi un aumento del surplus
del consumatore (Garella, Lambertini, 2005, pagg. 235-237 e pagg. 269-270).
Tra le strategie a cui le imprese possono ricorrere per incrementare i proftti ci sono la
differenziazione del prodotto e la collusione. La prima può essere orizzontale quando, a
parità di prezzo, esistono almeno due individui che ordinano i prodotti in modo differente;
oppure può essere verticale se, a parità di prezzo, tutti gli individui ordinano nello stesso
modo. La collusione consiste nella massimizzazione congiunta dei proftti da parte di più
imprese e può avvenire sia erodendo il surplus del consumatore, sia attraverso la fssazione
di un investimento in ricerca e sviluppo che permetta alle imprese di internalizzare gli
spillover tecnologici e di ridurre i costi di investimento complessivi. Infatti l'innovazione è
caratterizzata dal fatto che, una volta resa pubblica, permette anche a chi non ha contributo
all'investimento di fruire della nuova tecnologia, il che incentiva il free-ride da parte delle
imprese e causa generalmente sotto-investimento. Una possibile soluzione a questo
problema sono le patenti e i brevetti, che vincolano l'utilizzo dell'innovazione a chi l'ha
prodotta, almeno per un determinato periodo. Tuttavia quando il sistema dei brevetti è
troppo rigido il livello risulta comunque ineffciente, spesso perché le imprese si troveranno
tutte costrette ad investire per giungere ad innovazioni simili, non potendole condividere, e
nel sistema si avrà una cosiddetta moltiplicazione degli sforzi. Quando si analizzano le
politiche a favore della riduzione delle emissioni e della promozione della ricerca e sviluppo,
ci si trova quindi ad dover correggere diversi fallimenti del mercato.
Nel campo delle politiche a favore della riduzione delle emissioni la letteratura ha cercato di
dimostrare che attraverso determinati livelli di tassazione, è possibile aumentare il
benessere sociale sia stimolando la competitività delle imprese in materia di qualità
ambientale (Cremer e Thisse, 1999 e poi Lombardini-Riipinen, 2005) sia spingendole a
collaborare in materia di ricerca e sviluppo (Poyago-Theotoky, 2007). L'intervento del
governo come pianifcatore sociale è infatti giustifcato a livello economico dalla presenza di
52. condizioni di equilibrio subottimali. In particolare Lombardini-Riipinen dimostra che in
presenza di un duopolio con competizione sulla qualità ambientale, anche se l'allocazione
del consumo fra i due tipi di beni è ottimale, il benessere sociale in assenza di
regolamentazione è inferiore a quello ottimale. Per raggiungerlo è necessaria l'applicazione
di una tassa ad valorem uniforme sul prodotto, abbinata o a una tassa sulle emissioni o ad
un sussidio per l'acquisto del bene di qualità ambientale superiore.
2.4 Qualità ambientale, politiche ottimali e second-best
Il modello di Lombardini-Riipinen (2005) è composto da due giochi sequenziali di
Stackelberg: nel primo il governo sceglie le politiche ottimali per massimizzare il benessere
sociale, date le funzioni di reazione delle imprese; nel secondo le imprese in un primo stadio
stabiliscono di quanto ridurre le proprie emissioni date le politiche del governo, nel secondo
competono per la determinazione dei prezzi dei prodotti.
Partendo dal secondo stadio del secondo gioco, poiché si risolve per induzione a ritroso,
otteniamo le equazioni del prezzi dei due beni, mentre nel primo stadio vediamo che le
imprese massimizzano i propri proftti rispetto allo sforzo per la riduzione delle emissioni,
che è maggiore per l'impresa che produce il bene di più elevata qualità ambientale H,
mentre il bene di qualità ambientale inferiore, L, viene prodotto con una maggiore intensità
di emissioni. Tutti i consumatori acquistano una unità di uno dei due beni, il base alla
propria propensione a pagare per la qualità ambientale, che è indicata dal parametro θ
uniformemente distribuito tra [θ ,θ] e con θ−θ=1 .
53. Il danno aggregato causato dalle emissioni inquinanti incide su tutti i consumatori allo
stesso modo, indipendentemente dal loro θi , e pertanto tale danno non entra nel
problema di massimizzazione individuale (quindi non incide sull'equilibrio di duopolio), ma
infuenza il benessere sociale complessivo. Esso è defnito da γ E , dove γ⩾0 è il
valore sociale delle emissioni, mentre le emissioni totali sono
E=e−eH (θ−θH )−eL (θH −θ+1)
oppure E=e−ea , dove ea è la qualità ambientale media. Vedremo anche nei modelli
successivi che è tipico del comportamento delle imprese non considerare le emissioni
inquinanti nel processo di massimizzazione, il che richiede l'intervento del pianifcatore
sociale affnché queste vengano internalizzate.
Le politiche governative sono di tre tipi: ta è una tassa ad valorem uniforme sui prodotti, te è
una tassa sulle emissioni non abbattute e b è il sussidio ai consumatori per l'acquisto del
bene H.
La funzione di proftto delle imprese è
πi=[(1−ta) pi −MCi] xi
dove pi è il prezzo del bene, xi è l'output e MCi sono i costi marginali, pari a
MCi=[cei
2
+te (e−ei )] .
54. Il costo per l'impresa di produrre un'unità del bene aumenta all'aumentare dell'intensità di
emissioni, sia attraverso la funzione dei costi variabili (c), sia attraverso la tassa sulle
emissioni (te)
L'utilità indiretta del consumatore è invece determinata da
U i=θei− pi +dB−γ E
dove B=b(eH −eL) è il sussidio, mentre d=0 se il consumatore acquista il bene di tipo L
e d=1 se il consumatore acquista il bene di tipo H.
Come anticipato, la soluzione del gioco dei duopolisti comporta una distribuzione ottimale
dei consumi tra le due varianti del prodotto, e la combinazione di valori del livello di
emissioni che massimizza il proftto delle due imprese è
eH
N
=
(1−ta)(4Θ+4b+1)+4te
8c
;
eL
N
=
(1−ta)(4Θ+4b−5)+4te
8c
.
Tenendo presente che il benessere sociale è la somma dei surplus di consumatore e
produttore meno il danno ambientale delle emissioni, ponendo ta te e b pari a zero è
possibile ottenere il livello di benessere relativo al duopolio non regolato, che risulta pari a
W UN
=
16Θ
2
−16Θ+1+21Θ γ−17 γ
64c
−γ e .
55. Il massimo livello di benessere sociale viene scelto dal pianifcatore tramite la soluzione del
primo gioco del modello ed è determinato da
˙W =
16[θ(θ−1)+γ(2θ+γ−1)]+5
64c
−γe .
La differenza tra i due diversi livelli di benessere sociale è negativa e pari a
W
UN
− ˙W=
−1+4γ2
16c
<0
perciò l'intervento del governo tramite politiche che regolamentino il duopolio è giustifcato
dal possibile aumento del benessere. Infatti il duopolio è caratterizzato da un doppio
fallimento del mercato, dovuto al fatto che entrambe le imprese abbiano potere di mercato
(e quindi non c'è concorrenza perfetta) e alla differenziazione del prodotto (che quindi non è
omogeneo): entrambe vanno ad aggiungersi alla presenza delle emissioni inquinanti come
esternalità negativa.
Lombardini – Riipinen dimostra che, quando non ci sono costi amministrativi, l'ottimo
sociale può essere raggiunto attraverso la combinazione di una tassa ad valorem uniforme
e una tassa sulle emissioni, oppure da una tassa ad valorem uniforme e un sussidio per
l'acquisto del bene di qualità ambientale maggiore. Analiticamente, le due possibili soluzioni
al problema sono
56. [ta
¿∗¿
,te
¿∗¿
]=[2
3
, γ+
2
3
(Θ−
1
2
)] ;
[ta
¿∗¿
,b¿∗¿
]=[2
3
,3 γ+2(Θ−
1
2
)]
.
Uno dei limiti del modello dipende dal fatto che nel caso il governo possa applicare
solamente una politica alla volta, e non una combinazione delle tre che ha a disposizione,
non è possibile raggiungere il massimo livello di benessere sociale, anche se è comunque
possibile aumentarlo rispetto alla condizione di duopolio non regolamentato (sempre in
assenza di costi amministrativi) In particolare, sia la tassa sulle emissioni che il sussidio di
cosiddetta scelta second – best, per incrementare il benessere, devono essere posti uguali
al valore attribuito alle emissioni inquinanti, ovvero γ . Per quanto riguarda la tassa ad
valorem, questa aumenta il benessere sociale solo se il valore di γ non è troppo elevato,
ovvero se
γ<
3
4(2Θ−1)
.
Tale risultato, intuitivamente, dipende dal fatto che una tassa di questo tipo aumenta il
benessere sociale in quanto riduce il gap tra H e L ed incrementa la competitività, ma
abbassa anche il livello ottimale di qualità ambientale incrementando l'intensità delle
emissioni. Pertanto quando queste hanno un forte peso nell'utilità dei consumatori il solo
utilizzo di ta come strumento non permette di aumentare il benessere rispetto al livello
garantito dal duopolio non regolato.
Questo modello, pur basandosi su ipotesi molto restrittive come quella sulla completezza
del mercato (ogni consumatore acquista un'unità di uno dei due beni prodotto) o quella
57. sull'output fsso, e senza prendere in considerazione l'orizzonte temporale, permette di
formalizzare alcuni concetti importanti nella gestione delle politiche verdi: esistono prodotti
simili, che differiscono solo per la qualità ambientale e che potrebbero avere prezzi diversi,
ed esistono consumatori disposti ad acquistarli. Esiste anche la possibilità di organizzare la
produzione in base ad un livello ottimale di emissioni, o meglio ad un livello di sforzo
necessario per il loro abbattimento, il che, in presenza di un'opportuna combinazione di
politiche, permette di massimizzare il benessere sociale.
Sapendo che il consumatore è indifferente tra acquistare il bene H o il bene L quando
θH =
pH − pL
eH −eL
−b
notiamo immediatamente che questo valore aumenta all'aumentare di ph, e quindi diminuirà
al suo diminuire: se il bene ad alta qualità ambientale costa di meno, ci saranno più
consumatori disposti ad acquistarlo, e questo prezzo, in presenza di una tassa sulle
emissioni, è minore quando l'intensità di emissioni della produzione è minore.
Intuitivamente, per ridurre tale intensità, senza ridurre l'output e mantenendo i proftti è
necessario che le imprese investano in R&S in modo da garantirsi nuovi e/o più effcienti
metodi produttivi, in modo da aumentare la competitività del proprio prodotto grazie ai
ridotti costi di produzione e non attraverso l'abbassamento della qualità ambientale.
58. 2.5 Ricerca, Sviluppo e fallimenti del mercato
Quali sono dunque le politiche necessarie ad incrementare R&S? Come già anticipato,
l'informazione è un bene pubblico e questo porta a dei fallimenti del mercato: se gli
spillover vengono eliminati tramite i brevetti, tutte le imprese dovranno raggiungere lo
stesso obiettivo autonomamente e si troveranno a sovra-investire in modo strategico. In
presenza di spillover sotto-investiranno perché non vorranno rendere disponibile ai
concorrenti il risultato ottenuto. Anche nel modello di Poyago-Theotoky (2007) che stiamo
per analizzare siamo in presenza di un triplo fallimento del mercato: emissioni, livello di
investimento non ottimale, spillover informativi. E nuovamente ci troviamo davanti a due
giochi di Stackelberg: nel primo stadio del primo gioco le imprese conducono R&S
autonomamente mentre nel secondo gioco tale scelta è cooperativa; in entrambi i casi nel
secondo stadio il governo impone una tassa sulle emissioni, mentre nel terzo le due
imprese competono sul prezzo scegliendo le quantità.
L'importanza dei costi della ricerca e sviluppo per il imprese entra immediatamente
nell'analisi attraverso la funzione di costo delle imprese
c(qi , zi)=cqi+(
γ zi
2
2
) ,
dove zi è il costo della ricerca e sviluppo e γ>0 è il parametro che ne indica l'effcienza.
Le emissioni totali vengono ridotte sia dalla R&S che dagli spillover, e si presentano nella
funzione
59. ei (qi , zi )=qi −zi−β z j
dove 0≤β≤1 indica quanto la ricerca ricerca e sviluppo del concorrente incida sulle
emissioni.
Esiste infne una funzione quadratica di danno dovuto alle emissioni complessive defnita
come
D=
1
2
d E2
dove d>1/2 indica l'entità del danno, mentre E=ei + ej.
Tramite i tre stadi sopra descritti si ottengono la spesa per R&S, la tassa e l'output di
equilibrio, oltre che i proftti e il livello di benessere sociale, sia nel caso di R&S autonoma
(nc) che nel caso di cooperazione, o cartello in ricerca e sviluppo (erc).
La spesa per ricerca e sviluppo nei due casi è rispettivamente
znc=
[(1+d)(2d−1)+d (1+β)] A
2γ(1+d)
2
+d (1+β)[3(3+β)+d (7+β)]
;
zerc=
[(1+d)(2d−1)+d (1+β)] A
2γ(1+d)2
+4d(3+2d)(1+β)2
,
dove il parametro A coincide con (a – c), dove a indica il potere di mercato dell'impresa e c
il costo unitario di produzione. Per quanto riguarda gli altri valori di equilibrio
60. tnc=
d (2d−3)(1+β)2
+2 γ(2d2
+d−1)
2d(1+β)[3(3+β)+d (7+β)]+4 γ(1+d)
2
A;
terc=
[d (2d−3)(1+β)
2
+γ(2d
2
+d−1)] A
2(1+d)2
γ+4d(3+2d)(1+β)2
sono i livelli di tassazione, mentre l'output nei due casi è pari a
qnc=
2(1+d)γ+d (1+β)(7+4d+3β)
2d(1+β)[3(3+β)+d(7+β)]+4γ(1+d)2
A;
qerc=
[ d(5+2d)(1+β)2
+γ(1+d)]A
2(1+d)2
γ+4d(3+2d)(1+β)2
.
I proftti delle imprese corrispondono a
πnc=qnc
2
+tnc(1+β)znc−
1
2
γ znc
2
;
πerc=qerc
2
+terc (1+β)zerc−
1
2
γ zerc
2
;
infne il benessere sociale complessivo realizzato nei due casi è
SW nc=2Aqnc−2qnc
2
−2d(qnc−(1+β)znc)2
−γ znc
2
;
SW erc=2Aqerc−2qerc
2
−2d(qerc−(1+β) zerc)
2
−γ zerc
2
.
61. Confrontando questi valori, emergono diversi elementi interessanti: considerando, come da
ipotesi, un valore positivo di gamma (ovvero R&S relativamente effciente) e un valore d > ½,
nel caso di cooperazione in materia di R&S si avrà una spesa z maggiore e un minore livello
di tassazione, per ogni livello di danno. La R&S indipendente risulta migliore solo nel caso
di una bassa effcienza della ricerca e di danni ambientali molto elevati. A livello di proftti,
alle imprese conviene sempre istituire in cartello di R&S, mentre non è così la punto di vista
del benessere sociale. La collusione lo incrementa, ma non quando la R&S è effciente e i
danni ambientali ingenti: questo crea disallineamento fra interesse pubblico e privato,
giustifcando l'applicazione di politiche. Come osservato da Poyago – Theotoky (2007),
quando il valore di ß tende a 1, ovvero quando l'informazione è maggiormente condivisa
(nel caso di ß=1 si parla di joint venture e non più di cartello) tutte le condizioni sono più
favorevoli, incluso il benessere sociale, e per ogni livello di danno ambientale causato
dall'inquinamento: sarebbe quindi opportuno stimolare organizzazioni di questi tipo
piuttosto che cartelli, e quando ciò non è possibile, stimolare la competitività delle imprese
per incrementarne l'effcienza in materia di R&S.
Anche questo modello però, non è immune da difetti: innanzi tutto, e come il modello di
Lombardini-Riipinen (2005), non considera la dimensione temporale. Inoltre si assume che il
governo non sia in grado di garantire credibilità riguardo all'applicazione della tassa sulle
emissioni, che è peraltro l'unico strumento preso in considerazione.
Non è ovviamente possibile includere in un solo modello tutti le possibili politiche applicabili
nella realtà, e i due qui analizzati riescono comunque a dimostrare che, in alcuni casi,
attraverso le politiche è possibile migliorare il benessere della società e simultaneamente
abbattere le emissioni inquinanti. Quello che non viene fatto è prendere in considerazione
due aspetti fondamentali, che non possono non essere ignorati nel perseguimento degli
obiettivi riguardanti il cambiamento climatico: il perseguimento della crescita del sistema
economico nel suo complesso (e non solo della massimizzazione di proftti delle imprese e
62. benessere sociale) e la capacità dei regolatori di implementare in modo credibile e nel lungo
periodo le politiche necessarie, che è requisito fondamentale affnché gli agenti del mercato
possano pianifcare consumi e produzione futuri in maniera eco-sostenibile.
2.6 Oltre l'economia industriale
La presenza di un orizzonte temporale infnito nelle decisioni di produzione di imprese
oligopolistiche soggette a tassazione delle emissioni è preso in considerazione da
Benchekroun e van Long (1998). Essi propongono un numero n di imprese identiche che
possono massimizzare i proftti per tutto l'orizzonte temporale in base a quelli scelti dalle
altre creando un equilibrio di Nash che è, per sua stessa defnizione, time consistent (ovvero
non varia nel tempo): questo implica anche che le imprese conoscano perfettamente le
scelte di tutte le altre. Essi dimostrano che sia nel caso di un equilibrio di Nash di tipo
open-loop che nel caso di un equilibrio di Nash di Markov, dove l'output è anche funzione
dello stock di emissioni osservato in quel periodo, l'introduzione di una tassa da parte del
pianifcatore benevolo permette di massimizzare il benessere sociale. La tassazione può
anche assumere valore negativo, ovvero diventare un sussidio, quando le emissioni sono
basse: questo spinge le imprese a produrre meno, sapendo che se l'output aumenta il
sussidio si riduce.
Questo dimostra che l'economia industriale fornire basi teoriche solide all'applicazione di
politiche per l'innovazione verde, che siano time consistent e che permettano di
massimizzare il benessere sociale. La forma di tali politiche è solitamente l'imposizione di
un prezzo sulle emissioni, in varie forme, che vanno indirettamente o indirettamente, a
stimolare l'innovazione verde. Lo stato può far pagare un prezzo unitario sullo stock di
63. emissioni prodotto, o eccedente un prestabilito tetto; può fornire incentivi ai consumatori
affnché scelgano i beni a qualità ambientale maggiore o incentivi alle imprese stesse
affnché investano in ricerca e sviluppo, sia autonomamente che cooperando tra loro. Come
suggerito da Poyago-Theotoky (2007), poiché il cartello in ricerca e sviluppo è effciente
solo in alcuni casi, lo stato dovrebbe anche promuovere la condivisione delle informazioni
da parte delle imprese che decidono di massimizzare proftti congiunti ed evitare
l'imposizione di brevetti che creano ulteriori distorsioni del sistema. Quello che invece
dimostra Lombardini-Riipinen (2005) è che non basta un solo strumento per correggere tutti
i fallimenti del mercato, che nella specifcità dei modelli analizzati sono ben tre: anche se un
solo strumento permette di migliorare il benessere sociale rispetto a nessuno strumento,
questo non permette di massimizzarlo.
Questo spiega perché la maggior parte dei piani per la riduzione delle emissioni a lungo
termine, come lo schema europeo EU ETS (ma anche lo schema britannico e quello
australiano) prevedano l'applicazione di una molteplicità di strumenti, tra cui la tassazione e
lo scambio di crediti per le emissioni e incentivi sia alle famiglie che alle imprese. Sono
inoltre importanti le politiche di coordinamento tra i diversi governi in modo che lo sforzo
per la mitigazione sia il più possibile uniforme (come sancito anche dalle linee guida
dell'IPCC).
Oltre al benessere sociale i governi devono anche perseguire la crescita economica quando
decidono dell'applicazione di qualunque tipo di politiche, ed è tanto più vero quando si
parla di politiche di innovazione verde che sono state a lungo viste come investimenti poco
profttevoli e poco necessari, in quanto sono solo pochi anni che il cambiamento climatico è
entrato uffcialmente a fare parte delle agende governative, senza considerare che
ultimamente l'urgenza della crisi economica sembra aver messo in secondo piano ogni altra
tematica. Eppure il rinnovamento del sistema produttivo e lo spostamento delle preferenze
dei consumatori in direzione di una maggiore qualità ambientale nel lungo periodo, tali da
64. migliorare il benessere sociale, sembrano intuitivamente una possibile soluzione ad
entrambi i problemi. Tuttavia, per parlare di accumulazione di capitale e di crescita
economica, è necessario affancare agli strumenti teorici fnora analizzati anche teorie che
prevedano accumulazione di capitale per la crescita del sistema economico, in particolare,
il modello di crescita endogena di Ramsey-Cass-Koopmans.