Sie sind auf Seite 1von 7

Wie historische Ereignisse wirtschaftspolitisch relevante Erkenntnisse für die Gegenwart liefern

können Wer den Begriff "Wirtschaftsgeschichte" hört, denkt dabei wahrscheinlich zuerst an Analysen
der langfristigen wirtschaftlichen Entwicklung. Dass Wirtschaftsgeschichte aus der Sicht eines
Ökonomen auch zukunftsorientierte sowie wirtschaftspolitisch relevante Impulse zu aktuellen
Debatten in den Sozial- und Wirtschaftswissenschaften leisten kann, benötigt mitunter einiges an
Überzeugungsarbeit. Nicht zu Unrecht: Zu vieles hat sich an der wirtschaftlichen, sozialen,
rechtlichen und politischen Struktur über die letzten zwei Jahrhunderte verändert, um den Schluss zu
erlauben, dass beispielsweise die Einführung der Sozialgesetzgebung im 19. Jahrhundert mit heutigen
Reformen verglichen werden könnte. Wirtschaftsgeschichte als Linse Um Missverständnissen
vorzubeugen: Natürlich genügt sich Wirtschaftsgeschichte als Subdisziplin selbst, wenn sie versucht,
bedeutende und komplexe wirtschaftliche Phänomene in der Vergangenheit, wie etwa die
Industrielle Revolution, zu erklären. Wirtschaftsgeschichte bietet aber auch direkte Verbindungen zur
gesellschafts- und wirtschaftspolitischen Gegenwart: sie ist eine mögliche Linse, durch welche die
Gegenwart betrachtet und verstanden werden kann. Einerseits ist dies der Fall, weil historische
Ereignisse wie etwa Kriege, Naturkatastrophen oder einschneidende Politikmaßnahmen teilweise
sehr lange über die Zeit hinweg wirken, das heißt, sogenannte historische Persistenz ausweisen. Etwa
stehen Grenzziehungen in Afrika, die auf dem Schachbrett durch europäische Kolonialmächte
während der Berliner Konferenz 1884-85 sehr beliebig gezogen wurden und somit
zusammengehörende Volksgruppen künstlich trennten, mit der Schwere von ethnisch motivierten
Konflikten zwischen 1970-2005 in direktem Zusammenhang. Andererseits bilden besondere
historische Gegebenheiten in manchen Fällen einen einzigartigen Rahmen, der es erlaubt, ähnlich
einem naturwissenschaftlichen Experiment, durch die Gegenüberstellung von vergleichbaren
Kontroll- und Versuchsgruppen die kausalen Folgen von wirtschaftspolitischen Eingriffen
festzustellen. Das Aufzeigen von solchen Kausalzusammenhängen ist eine der prägendsten
Bestrebungen moderner, angewandter Ökonomie. Wirtschaftsgeschichte kann das nötige
Forschungsdesign liefern, um Schlüsse über sonst nur schwer fassbare Kausalitätsmechanismen zu
erlauben: indem es als eine Art Labor für "real-world-"Experimente – genannt natürliche
Experimente – dient, kann Wirtschaftsgeschichte dazu beitragen, mikro- oder makroökonomische
Theorien zu testen, für deren Falsifizierung modernere Daten keine geeignete Basis bieten. foto:
apa/afp/arif ali Wie soll Geldpolitik auf steigendes systemisches Risiko im Finanzsektor reagieren?
Sollte sich Geldpolitik "gegen den Wind lehnen"? In einem aktuellen Forschungsprojekt greife ich auf
ein solches natürliches Experiment in den Vereinigten Staaten der 1920er-Jahre zurück. Mein Ziel ist
es, eine Frage zu beantworten, die seit der Finanzkrise 2008 von wirtschaftspolitischen
Entscheidungsträgern und in den Wirtschaftswissenschaften heiß diskutiert wird: Soll einem
erhöhten systemischen Risiko am Finanzmarkt mit konventioneller Geldpolitik, die sich "gegen den
Wind lehnt" (das heißt einen höheren Leitzins ansetzt, als aufgrund der reinen Preis-
beziehungsweise realwirtschaftlichen Entwicklung erforderlich) begegnet werden, oder sollte man
mit gezielteren, prudenziellen Maßnahmen (wie etwa bankspezifischen Kapitalerfordernissen)
gegensteuern? Solide empirische Evidenz zu den Effekten dieser Interventionen ist deshalb wichtig,
weil die bisher überwiegend theoretischen Studien sich widersprechende Schlussfolgerungen liefern.
Ein Grund für diese Uneinigkeit in der Literatur sind Zielkonflikte. Einerseits kann eine Erhöhung des
Leitzinses durch die Zentralbank nicht so leicht umgangen werden, wie dies bei gezielten
prudenziellen Instrumenten der Fall ist. Prudenzielle Maßnahmen treffen in erster Linie nur die
problematischen Finanzinstitutionen und bieten somit Raum für Ausweichreaktionen, welche die
effektive Eindämmung von systemischem Risiko verhindern kann. Andererseits kann eine
Hinaufsetzung des Leitzinses mit einem substanziellen wirtschaftlichen Kollateralschaden verbunden
sein: Ein höherer Leitzins senkt gewöhnlich die gesamtwirtschaftliche Nachfrage, während eine
gezielte prudenzielle Intervention genau diese Konsequenzen minimieren soll. Welcher dieser Effekte
dominiert, ist somit eine empirische Frage. Überzeugende empirische Untersuchungen zu dieser
Debatte stehen allerdings vor mehreren Herausforderungen. Da die zwei beschriebenen Maßnahmen
meist als Alternativen und nicht als komplementäre Politiken gesehen werden, ist es kaum möglich,
die beiden zu vergleichen und gleichzeitig Umfeld sowie Zeitrahmen konstant zu halten. Auch gibt es
so gut wie nie vergleichbare Kontrollgruppen. Finanzsektoren, die mit diesen Maßnahmen bedacht
werden (Versuchsgruppe), weisen aus der Sicht der einschreitenden Behörde ein erhöhtes
systemisches Risiko auf. Sie unterscheiden sich dadurch grundsätzlich von Finanzsektoren, die keine
potenziell gefährlichen Tendenzen zeigen (Kontrollgruppe) und somit ohne wirtschaftspolitische
Eingriffe bleiben. Durch die heutige starke internationale Integration von Finanzmärkten ergeben sich
weitere Probleme: beispielsweise könnten grenzüberschreitende Kreditströme selbst die Wirkung
einer Leitzinserhöhung zunichtemachen. Ein natürliches Experiment: dezentrale Geldpolitik in den
USA der 20er-Jahre Mein Projekt ist ein Versuch, genau diese Herausforderungen mithilfe eines
geeigneten Forschungsdesigns zu überwinden. Mein natürliches Experiment stützt sich dabei auf
regionale geldpolitische Unterschiede innerhalb der USA. Zwischen 1914 und 1935 war Geldpolitik in
den USA dezentral organisiert und die zwölf (noch heute bestehenden) Federal-Reserve-Distrikte
konnten somit unterschiedliche geldpolitische Kurse verfolgen. Im Mai 1920 trafen vier dieser
Distrikte die Entscheidung, ihren Leitzins zu erhöhen, um einer starken Expansion der Kreditvergabe
durch lokale Banken entgegenzuwirken. Vier weitere Distrikte griffen auf eine prudenzielle
Maßnahme zurück, welche insbesondere darauf abzielte, die Kreditvergabe von Banken mit hoher
Fremdverschuldungsquote (leverage ratio) zu bremsen. Die verbleibenden vier Distrikte ergriffen
keine besondere Maßnahme. Diese Rahmenbedingungen (siehe Karte) erlauben mir, die Effekte der
beiden Politiken (relativ zu dem Szenario ohne Maßnahme) auf die Bankkreditvergabe und in weitere
Folge auf die Finanzmarktstabilität zu ermitteln und sie auch direkt innerhalb eines gemeinsamen
Umfelds sowie Zeitrahmens gegenüberzustellen. foto: rieder Die zwölf Federal-Reserve-Distrike der
USA und ihre Geldpolitik 1920-1921. Um wirklich vergleichbare Versuchs- und Kontrollgruppen von
Banken zu bilden, ziehe ich ausschließlich Bankentypen heran, die keine Filialen eröffnen durften und
in ganz engen Abständen zu den Grenzen zwischen zwei Distrikten mit unterschiedlichen Politiken
angesiedelt waren. Zusätzlich ermöglicht mir die lokale Segmentierung des damaligen
amerikanischen Bankenmarktes, potenzielle Spill-overs von vornherein weitgehend auszuschließen.
Dieses wirtschaftsgeschichtlich eingebettete Forschungsdesign bietet somit einzigartige
Voraussetzungen, um die kausalen Effekte der beiden Maßnahmen zu identifizieren. Meine
vorläufigen Ergebnisse zeigen, dass sich speziell die gezielte prudenzielle Maßnahme stark
reduzierend auf die Kreditvergabe auswirkte und zur Stabilisierung des Bankensektors beitrug. Was
können wir aus den 1920er-Jahren lernen? Was aber können wir wirklich aus den 1920er-Jahren
lernen? Verzerren nicht beispielsweise die besonderen historischen Gegebenheiten meines
Experiments die Effekte der untersuchten Maßnahmen auf den Finanzsektor im Vergleich zur
Gegenwart? Über welche Kanäle wirkte sich damals Geldpolitik auf den Finanzsektor und die
Realwirtschaft aus und wie unterscheiden sich diese von modernen Transmissionsmechanismen?
Wie genau wurde die prudenzielle Maßnahme in den 1920er-Jahren gestaltet und hatte sie wirklich
Parallelen zu moderner makroprudenzieller Regulierung? Eine Diskussion dieser Punkte ist natürlich
unumgänglich. Externe Validität ist eine Herausforderung, der sich wirtschaftsgeschichtliche
Forschung, aber auch generell angewandte (das heißt empirische) Ökonomie ständig stellen muss
und sollte. Wirklich ausschlaggebend für die Gültigkeit und schließlich auch die Relevanz von
Forschungsergebnissen aus einem bestimmten Kontext für andere zeitliche oder räumliche
Zusammenhänge sind eine korrekte analytische Durchführung (interne Validität) und, vor allem, eine
überzeugende Argumentation zur allgemeineren Anwendbarkeit. Mein Versuch, diesen
Anforderungen gerecht zu werden, kann in meinem aktuellen Arbeitspapier nachvollzogen werden.
(Kilian Rieder, 21.5.2019) –

Zwei Optionen stehen zur Verfügung: eine, die vom Markt entschieden, und eine, die von der Politik
bestimmt wird Nicht erst seit den "Fridays for Future"-Schülerprotesten ist Klimaschutz wieder ein
Thema. Zahlreiche Klimagipfel und nationale Klimapläne oder -strategien vermochten jedoch den
scheinbar unaufhaltsamen Anstieg der Greenhouse-Gas-Emissionen (GHG) nicht zu bremsen. 2018
wurde weltweit so viel Kohlenstoffdioxid wie in keinem Jahr zuvor freigesetzt. Auch Österreich steht
dem um nichts nach und "konnte" den CO2-Ausstoß von 2016 auf 2017 um 3,3 Prozent steigern.
Staaten stehen ganz allgemein zwei Instrumente der Klimapolitik zur Verfügung. Die eine Option, der
administrative Ansatz, versucht den GHG-Ausstoß direkt zu senken, indem die Politik entweder
Alternativen zu gegenwärtigen Technologien direkt fördert (Photovoltaik, Wind oder Biomasse zur
Stromerzeugung, das E-Auto für die Individualmobilität) oder gewisse Technologien verbietet (zum
Beispiel die Ölheizung) oder Emissionsstandards setzt (zum Beispiel bestimmte Grenzwerte für die
Auto-Neuwagenflotte). Die andere Option, der marktbasierte Ansatz, setzt einen "Preis" (zum
Beispiel Europäisches Emissionshandelssystem) oder eine Steuer (zum Beispiel Mineralölsteuer, CO2-
Steuer) für Emissionen fest, um Anreize zu deren Reduktion zu generieren und dann den "Markt",
das heißt die Haushalte und Unternehmen, entscheiden zu lassen, wie das am besten umgesetzt
werden soll. Leider – und dieses Leider werden wir im Folgenden besprechen – verlassen sich die
meisten Staaten auf Option eins. Die möglichen Optionen Option eins führt – wie wir in den letzten
zwei Jahrzehnten gesehen haben – nicht zum gewünschten Erfolg und ist darüber hinaus sehr teuer.
Das Düsseldorfer Dice-Institut schätzt die Kosten für die Dekarbonisierung der deutschen
Elektrizitätserzeugung alleine in den Jahren 2000 bis 2015 auf 133 Milliarden Euro (und steigend).
Deutschland verlässt sich dabei vor allem auf die Direktsubventionierung von Wind und Solarenergie.
Die Schätzungen der Kosten des – administrierten – deutschen Kohleausstiegs liegen jenseits der
100-Milliarden-Euro-Marke. Österreich subventioniert nicht so extrem wie Deutschland Wind und
Photovoltaik, aber auch hierzulande wird jährlich ein knapper Milliardenbetrag dafür ausgegeben.
Warum ist diesen Strategien gemein, dass sie erstens sehr (und unnötig) teuer sind und zweitens
allesamt die CO2-Ziele verfehlen? Die Hauptgründe für diesen negativen Befund liegen darin, dass
der Staat zum einen ein überaus schlechter "Winner Picker" ist und zum anderen diese Strategien
massive Nebeneffekte haben, die das Ursprungsziel – nämlich die Reduktion des CO2-Ausstoßes –
konterkarieren. Der Staat ist ein schlechter Entscheider darüber, welche Technologien in den
nächsten 20 bis 30 Jahren am besten CO2 reduzieren werden, weil er zum einen die nötigen
Informationen nicht hat und zum anderen Lobbying gute Entscheidungen verhindert. Es ist einfach
noch nicht klar, ob es das Elektroauto, der Wasserstoffantrieb, ein Hybridantrieb, ein supereffizienter
Verbrennungsmotor inklusive Carbon Capture, ein gänzlich anderes Antriebssystem oder überhaupt
eine ganz andere Form der Individualmobilität (Stichwort: Sharing) oder eine Kombination dieser
Alternativen sein wird. Vielleicht existiert diese Technologie auch noch gar nicht? Auch ist es nicht
klar, ob es Windenergie, die Photovoltaik oder die Biomasse sind, die die Stromerzeugung
dekarbonisieren. Wenn der Staat entscheidet, es sei der Elektroantrieb, und dann stellt sich heraus,
dass zum Beispiel der Wasserstoffantrieb viel effizienter gewesen wäre, dann kostet das nicht nur
viele Milliarden, sondern auch und vor allem viel Zeit – und die haben wir nicht.
Technologieentscheidungen sind Weichenentscheidungen, die sehr lange nachwirken. Die beste
Technologie stellt sich durch Überlegenheit und Überleben im Markt heraus und nicht durch eine
administrative Entscheidung eines Staates, die eventuell nach intensivem Lobbying und unter
Rücksichtnahme auf spezifische Klientele gefallen ist. foto: apa/afp/gerard julien Photovoltaikanlagen
in Südfrankreich. Nebenwirkungen: Hohe Kosten Überdies zeitigt Option eins massive
Nebenwirkungen. Nicht nur werden mit hoher Wahrscheinlichkeit die "falschen" Technologien zur
Förderung auserwählt – unter anderem weil die "richtigen" Technologien eventuell noch gar nicht
existieren –, es gibt auch massive Rückkopplungseffekte und andere regulatorische Nebeneffekte
dieser meist Angebotssubventionierungen und Vorschriften, die das Ursprungsziel konterkarieren. So
verbilligt sich natürlich der Großhandelsstrom, wenn man massiv die Kapazitäten (Wind, Solar)
ausbaut, was die Anreize zum Stromsparen zerstört. Wenn man massiv Antriebstechniken wie das E-
Auto fördert, fördert man indirekt die Individualmobilität. Negative Anreizeffekte haben auch die
neuen, strikten Grenzwerte der EU für die Neuwagenflotten der Autobauer. Diese sollen bis 2020 im
Durchschnitt nur mehr 95 Gramm CO2 pro Kilometer ausstoßen (gegenwärtiger Ausstoß etwa 127
Gramm), bis 2030 um weitere 37,5 Prozent weniger. Was macht aber Fiat Chrysler, das am wenigsten
in E-Autos und Hybride investiert hat und damit, gegeben die Größe und das Gewicht der Autos, die
CO2-ineffizientesten Autos produziert? Es "poolt" die eigenen Autos mit den E-Autos von Tesla und
umgeht damit die Strafzahlungen an die EU! Ganz generell besteht das Hauptproblem von strikten
Grenzwerten darin, dass Anreize zu investieren nur bis zum Erreichen der Grenze bestehen, dann
jedoch nicht mehr. Zuletzt ist Option eins natürlich nicht gratis, im Gegenteil, es ist die teuerste
Option, auch wenn die wahren Kosten verschleiert sind. Wenn erneuerbare Energien massiv
gefördert werden, steigt der Endkundenstrompreis, weil die Subventionen auf die Konsumenten
überwälzt werden (Schätzungen für Deutschland: 1.500 Euro pro Jahr für eine vierköpfige Familie).
Wenn VW ankündigt, 30 Milliarden Euro in die Elektromobilität zu investieren und 7.000 Mitarbeiter
abzubauen, um die neuen Emissionsstandards zu erfüllen, so verteuert das die Autos (Schätzungen:
etwa 3.000 Euro) beziehungsweise erhöht dies die Arbeitslosigkeit. Maßnahmen der ersten Option
implizieren also sehr wohl einen "Preis" für CO2, dieser ist nur nicht direkt ersichtlich (daher nennt
man ihn "impliziten CO2-Preis"), und zudem ist er nicht gleich über die verschiedenen Mechanismen
der CO2-Reduktion, was ineffizient ist. Ist es effektiver, Biomasseproduzenten mit (nochmaligen) 145
Millionen Euro zu fördern, oder sollten wir lieber (viel) mehr und sicherere Radwege bauen, die
Grenzwerte senken, die Wärmedämmung forcieren, mehr in Windanlagen investieren, oder sollten
wir doch lieber Gas als Brückentechnologie zulassen oder in die Forschung investieren et cetera? Wir
wissen es nicht. Wir kennen nicht einmal die impliziten CO2-Preise dieser Maßnahmen. Wie soll der
Staat also bei so wenig Wissen über die gegenwärtigen und zukünftigen CO2-
Reduktionsmöglichkeiten und deren Kosten effiziente Entscheidungen treffen können? Die Antwort
ist: Er kann es nicht. Ungewisse Zukunft Wir wissen also (noch) nicht, wohin die Reise geht, und
trotzdem müssen wir jetzt Entscheidungen treffen. Wie würde ein Ökonom oder eine Ökonomin mit
diesem Dilemma umgehen? Er oder sie würde Option zwei wählen. Option zwei würde es erlauben,
die richtigen Anreize zu setzen und keine Entscheidungen zu treffen, die ineffizient sind und/oder
langfristig negative Auswirkungen haben. Ein "richtig" gewählter CO2-Preis und/oder eine "richtig"
gesetzte CO2-Steuer würde der Ressource "Atmosphäre" einen Preis zuteilen, das heißt die
Haushalte und Firmen würden in ihren Entscheidungskalkülen den Ausstoß von CO2 nicht mehr als
"gratis" ansehen und ihn dementsprechend reduzieren. Dezentrale Informationen, zum Beispiel über
den kostengünstigsten Weg, CO2 zu reduzieren, würden Anwendung finden, und dezentrale Anreize
würden richtig gesetzt werden. Ökonomen sprechen davon, dass eine negative Externalität (CO2
auszustoßen) internalisiert, das heißt im Preissystem abgebildet wird. CO2 würde kostenminimal
reduziert, weil dort angesetzt werden würde, wo die CO2-Reduktionsmöglichkeiten am höchstens
sind. Die "Tragedy of the Commons" könnte so verhindert werden. Zudem treten sämtliche
Anreizeffekte von Option eins nicht auf. Der Großhandelsstrompreis würde nicht fallen, weil nicht
das Angebot von Strom durch Subventionen von Wind oder Solar erhöht wird, sondern
Kohlekraftwerke nunmehr am teuersten sind und den Preis "at the margin" setzen. Nach und nach
scheiden diese aus dem Markt aus und werden entweder durch Gas oder Erneuerbare ersetzt, die
nunmehr sozusagen natürlicherweise durch den erhöhten Strompreis profitabel und damit
inzentiviert werden. Subventionen könnten sinken. Auch im Verkehrssektor würden die Marktkräfte
wirken. Höhere Preise für Benzin und Diesel würden eine Verdrängung der Verbrennungsmotoren
durch andere Antriebsformen – zum Beispiel Hybride oder E-Autos – wiederum natürlicherweise und
mit weniger Subventionen mit sich bringen. Gleichzeitig würde es nicht zur Förderung des
motorisierten Individualverkehrs kommen und andere Fortbewegungstechnologien (zum Beispiel
Radfahren, der öffentliche Verkehr, car sharing et cetera) könnten technologieneutral bestehen.
Natürlich hätte auch Fiat Chrysler keinen Anreiz, seine schmutzigen Autos mit Teslas E-Autos zu
poolen, um Strafen zu vermeiden, sondern müsste in CO2-Reduktionstechnologien investieren, um
am Markt bestehen zu können. Weiters hätten die Autohersteller auch nach Erreichung ihres
Grenzwerts einen Anreiz, in weitere Dekarbonisierungstechnologien zu investieren. Die Liste ließe
sich beliebig fortsetzen. Welche Einwände gegen einen CO2-Preis beziehungsweise eine CO2-Steuer
gibt es, und sind diese stichhaltig? (1) Ein CO2-Preis beziehungsweise eine CO2-Steuer ist sozial nicht
verträglich. Dieser Einwand ist aus vielen Gründen nicht stichhaltig. Zum einen ist, wie oben
dargelegt, eine Politik des administrierten CO2-Ausstiegs noch viel teurer als eine marktbasierte
Politik, nur sieht man die Kosten nicht sofort. Implizite CO2-Preise sind aber ein Vielfaches von
vernünftigen expliziten Preisen. So kostet laut E-Control zum Beispiel eine Tonne CO2-Reduktion
mithilfe von Biomasse-Subventionen etwa 300 Euro, während der gegenwärtige
Emissionshandelspreis für eine Tonne CO2 bei etwa 20 Euro liegt. Wie oben erwähnt, kostet der
administrierte Kohleausstieg in Deutschland mehr als 100 Milliarden Euro, während es etwa drei
Milliarden Euro kosten würde, die äquivalenten CO2-Rechte an der Börse zu kaufen. Der implizite
CO2-Preis bis zum Erreichen der neuen Grenzwerte für die Neuwagenflotte geht wahrscheinlich in
die tausende Euro (sic!), um danach auf null zu sinken. Zudem generieren CO2-Preise
beziehungsweise CO2-Steuern Einnahmen für den Staat, die dieser sinnvoll einsetzen kann, was bei
Option eins nicht der Fall ist. Man könnte mit diesen Einnahmen die Klimaforschung finanzieren, den
öffentlichen Verkehr ausbauen, Radwege bauen beziehungsweise natürlich auch im Sinne einer
Aufkommensneutralität andere Steuern und Abgaben (zum Beispiel Sozialversicherungsabgaben
oder Umsatzsteuern) senken. Das Ziel von Lenkungssteuern (und das ist eine CO2-Bepreisung, auch
Pigou-Steuer genannt) ist nicht das Erzielen von Einnahmen für den Staat, sondern eben eine Anreiz-
und Verhaltensänderung herbeizuführen. Wenn das Ziel erreicht ist (zum Beispiel vollständige
Dekarbonisierung), sind die Steuereinnahmen gleich null! (2) Die optimale Höhe eines CO2-Preises
beziehungsweise einer CO2-Steuer sind unbekannt. Das ist zwar richtig, aber das optimale Ausmaß
an Subventionierung von Wind, Solar, Elektroautos bzw. die optimale Höhe von Grenzwerten sind
ebenso wenig bekannt. Natürlich ist es ein Prozess von Versuch und Irrtum, aber über die Zeit und
graduell werden die CO2-Preise beziehungsweise CO2-Steuern ein Niveau erreichen können, welches
einem Optimum nahekommt. Außerdem würde das Übel (der CO2-Ausstoß) mit der Bepreisung an
der Wurzel gepackt und nicht nur indirekt über andere Ziele verfolgt (zum Beispiel durch eine Quote
für Erneuerbare). Niemand käme auf die Idee, das Ziel sei erreicht, wenn man ein Fußballspiel 0:3
verloren hat, nur weil man mehr Ballbesitz oder ein besseres Cornerverhältnis gehabt hat! In der
Klimapolitik scheint dies aber anders zu sein. (3) Ein CO2-Preis beziehungsweise eine CO2-Steuer
würde die heimische Industrie beziehungsweise die heimischen Haushalte zu sehr schädigen.
Natürlich ist es in allen Belangen optimal, ein globales Problem auf globaler Ebene zu lösen. Das
heißt, natürlich wären die positiven Effekte einer CO2-Bepreisung (das heißt die CO2-Reduktion)
maximal und die negativen Effekte (zum Beispiel Standortverlagerungen) minimal, wenn die ganze
Weltgemeinschaft oder zumindest die EU eine CO2-Bepreisung einführen würden. Dass aber auch
nationale Alleingänge funktionieren können, auch wenn diese in erster Linie nur als Vorbild dienen,
zeigen unter anderem die Beispiele Schweiz, Schweden und Großbritannien. In einer rezenten Studie
zeige ich gemeinsam mit Adhurim Haxhimusa und Mario Liebensteiner, dass bereits CO2-Preise um
die 20 bis 30 Euro ausreichen, damit ein Umstieg von Kohle auf Gas, welches weniger als die Hälfte
von Kohle in der Stromerzeugung emittiert, stattfindet. Natürlich müsste eine CO2-Bepreisung
graduell, das heißt über einen längeren Zeitraum mit steigenden Preisen beziehungsweise
Steuersätzen erfolgen und vorhersehbar eingeführt werden. Die Unternehmen könnten dann über
Investitionsentscheidungen und die Haushalte über die Anschaffung dauerhafter Güter
beziehungsweise durch Verhaltensänderungen langfristig darauf reagieren. Zudem gilt es natürlich
wieder, obige Argumentation zu wiederholen: Administrierter CO2-Ausstieg ist noch viel teurer. (4)
Ohne einen starken Staat kann es nicht funktionieren. Wie ich oben argumentiert habe, würden
Marktmechanismen unter der Voraussetzung richtiger CO2-Bepreisung den Klimawandel mit
geringstmöglichen Kosten begrenzen. Was ist dann eigentlich noch die Rolle des Staates? Der Staat
behält natürlich eine tragende Rolle. Der Staat würde zum einen beim Setzen der richtigen Preise
und Steuern, beim Monitoring und bei der Durchsetzung beziehungsweise bei der graduellen
Adjustierung der Bepreisung weiterhin eine zentrale Rolle einnehmen. Zum anderen gibt es natürlich
nach wie vor Bedarf an administrativen Regeln. So sind Grenzwerte in allen Belangen sinnvoll, sie
sollten nur nicht als primäres Klimapolitikinstrument eingesetzt werden. Sinnvoll ist zum Beispiel das
Abschneiden von Extrema durch Grenzwerte (kein Auto, Kraftwerk, Kühlschrank soll mehr als eine
bestimmte Menge ausstoßen dürfen), die kontinuierliche Anreizsetzung sollte aber über die
Bepreisung erfolgen. Überall dort, wo Gesundheitsgefährdung besteht, sind zudem strikte
Grenzwerte erforderlich. Auch gibt es Bereiche, wo direkte Eingriffe besser funktionieren als Anreize
durch Bepreisung, nämlich überall dort, wo auch andere Marktversagen vorliegen. So ist Forschung
und Entwicklung, vor allem Grundlagenforschung, durch den Staat mitzufinanzieren beziehungsweise
durchzuführen. Märkte sind auch schlecht darin, Radwege zu bauen oder Bauordnungen zu erlassen,
das heißt überall dort, wo hoheitliche Eingriffe nötig sind. Schlussendlich gibt es auch Hindernisse für
Unternehmen und Haushalte, effizient auf Preissignale zu reagieren, die der Staat aus dem Weg
räumen sollte. So ist es zum Beispiel sinnvoll, bei der Gebäudedämmung neben Anreizen auch
Vorschriften anzuwenden, weil zum Beispiel der Investitionshorizont von Haushalten oder Firmen
anders gelagert ist, als es für eine effiziente Klimapolitik nötig wäre. Gibt es noch keine guten
marktgängigen Alternativen (zum Beispiel öffentlicher Verkehr und Individualverkehr)
beziehungsweise in Industrien, wo Komplementaritäten und Netzwerkeffekte auftreten (zum Beispiel
E-Autos und E-Ladestationen), ist ein Staatseingriff ebenfalls gerechtfertigt. Wenn ein CO2-Preis
beziehungsweise eine CO2-Steuer in allen Belangen die effektivste Form der CO2-Reduktion ist bzw.
unbedingt zum "Klima-Package" gehört (Ökonomen sprechen von einem "first best"), warum sehen
wir diese Mechanismen dann so selten? Warum gelingt mit der gegenwärtigen Steuerreform wieder
keine Ökologisierung des Steuersystems? Warum fangen erst jetzt – nach 20 Jahren Irrweg – die
deutschen Politiker damit an, die CO2-Bepreisung als ernsthafte Alternative in Betracht zu ziehen?
Warum sind Schweden, Schweiz und Frankreich mit ihren CO2-Steuern so lange die Ausnahmen
geblieben? Warum sieht man nicht die herausragenden Erfolge in Großbritannien, das die Kohle mit
einem Mindestpreis für Emissionszertifikate innerhalb von fünf Jahren zu minimalen Kosten de facto
aus dem Stromerzeugungsmix gedrängt hat? Nun, die Antworten auf diese Fragen haben mit
Lobbying, Populismus, Klientel- und Agitationspolitik und internationalem Koordinationsversagen
(Stichworte: Gefangenendilemma, Trittbrettfahrerproblematik) zu tun. Doch das wäre Stoff für
mehrere weitere Blogbeiträge. (Klaus Gugler, 7.5.2019) -

Das könnte Ihnen auch gefallen