MEINUNGSBAROMETER.INFO

DIGITALISIERUNG

DAS FACHDEBATTENPORTAL

Für Entscheider aus Politik, Wirtschaft, Medien & Gesellschaft


schliessen

Bitte hier einloggen:

Login

Passwort vergessen?
 
25.06.2021
Kopieren und anderweitige Vervielfältigungen sind nicht erlaubt.

ALTERNATIVE ZUKUNFTSBILDER FÜR EINE REALISTISCHE ERGEBNISPALETTE

Wie Modelle immer genauer werden und warum ihre Ergebnisse nicht ungefiltert übernommen werden sollten

Dr. Thomas Theobald - Referatsleiter für "Finanzmärkte und Konjunktur" am Institut für Makroökonomie und Konjunkturforschung (IMK) der Hans Böckler Stiftung

Dr. Thomas Theobald - Referatsleiter für "Finanzmärkte und Konjunktur" am Institut für Makroökonomie und Konjunkturforschung (IMK) der Hans Böckler Stiftung [Quelle: IMK]


"Größere Datenmengen erlauben eine größere Abdeckung verschiedener Lebensbereiche und eine größere Genauigkeit bei der Einschätzung komplexer Handlungszusammenhänge", konstatiert Dr. Thomas Theobald vom Institut für Makroökonomie und Konjunkturforschung (IMK) der Hans Böckler Stiftung. Bei den Methoden lerne man am meisten aus Fehlern.


Computergestützte Modelle schaffen es immer besser, Simulationen komplexer künftiger Entwicklungen herzustellen. Wo liegen aus Ihrer Sicht die Chancen datengetriebener Prognostik?
Größere Datenmengen erlauben eine größere Abdeckung verschiedener Lebensbereiche und eine größere Genauigkeit bei der Einschätzung komplexer Handlungszusammenhänge. Das gilt zum Beispiel für Wirtschaftssektoren. Gab es früher bei Daten auf der Monatsebene fast ausschließlich eine gute Datengrundlage für Wirtschaftsaktivitäten in der Industrie, so finden sich inzwischen auch  Indikatoren, die einen besseren Überblick über das monatliche Geschehen im Dienstleistungssektor ermöglichen, weil die zunehmende Digitalisierung aller Informationen neue Datenquellen schafft. Gleichzeitig hat sich die Qualität des Meldewesens nicht in allen Bereichen verbessert, weil Meldeanforderungen an staatliche Stellen unter dem Stichwort Bürokratieabbau zurückgefahren wurden. Es wird noch ein paar Jahre dauern bis auch die amtliche Statistik mit ihren monatlichen Produktionsdaten den Dienstleistungssektor abdeckt, aber dann kann nochmals die Prognosegüte steigen.  

Neben den größeren Datenmengen haben sich Simulations- und Prognosemethoden verbessert bzw. wurden neu entwickelt. Big-Data-Ansätze, wie Machine Learning, können die Qualität der Analyse erheblich steigern, weil sie auf einem breiteren Fundament stehen. Es muss dem Entwickler bzw. Nutzer aber gelingen, die komplexen Modelle so einzusetzen, dass weiterhin transparent und replizierbar bleibt, weswegen die Modelle zu gewissen Resultaten kommen und wo die jeweiligen Schwächen der Methodik liegen. Dieses Wissen bleibt wie schon bei älteren Methoden die Grundlage dafür, den Prognosefehler zu minimieren. Es ist wie im wahren Leben: Man lernt am meisten aus Fehlern.

Größere Datenmengen und neue Methoden der Prognostik oder datengetriebenen Analyse ermöglichen es zudem im Zusammenspiel, viele alternative Zukunftsbilder zu entwerfen, die eine realistische Ergebnispalette abbilden.


Jetzt bestellen!

DIE DOKUMENTATION DIESER FACHDEBATTE

Immer zuverlässigere Prognosen geben den Entscheidern immer genauere Handlungsempfehlungen an die Hand. Wie groß schätzen Sie die Gefahr zunehmender Alternativlosigkeit für Entscheider ein?  
Die Gefahr besteht nur dann, wenn der Pluralismus leidet. Dass nicht zu zulassen, ist eine fortwährende gesellschaftliche Herausforderung, aber ich sehe keinen zwangsläufigen Trend zur Alternativlosigkeit der Handlungsentscheidungen im digitalen Zeitalter. Wenn die Prognosequalität steigt, bedeutet das ja übrigens auch nicht zwangsläufig, dass die daraus abgeleiteten Handlungsempfehlungen immer die richtigen sind. Handlungsentscheidungen sollten immer verschiedene Zielgrößen miteinander abwägen. Dabei können datengetriebene Analysen helfen; ihre Ergebnisse sollten aber nicht automatisch und ungefiltert übernommen werden.

Pandemie, Klimakrise, Kriminalistik – immer häufiger werden Algorithmen-basierte Modelle für Prognosen eingesetzt. Wer sollte aus Ihrer Sicht die Algorithmen kontrollieren?
Im allgemeinen Interesse müssen der Staat bzw. die Staaten länderübergreifend enge und umfassende Regeln setzen, insbesondere was Algorithmen betrifft, die mit sensiblen Daten wie bei der Kriminalistik arbeiten. Aus marktwirtschaftlicher Perspektive lässt sich der Besitz mächtiger Algorithmen, siehe Google, ja schlecht verbieten. Man kann aber bspw. über die Wettbewerbspolitik dafür sorgen, dass die Marktmacht einzelner Firmen nicht so groß wird, wie es geschehen ist. Diesbezüglich gibt es im Tech-Bereich einiges aufzuholen, was in den vergangenen Jahren versäumt wurde. Der Staat kann die Kontrolle von Algorithmen auch nicht allein bewältigen. Einiges muss sich noch im Bewusstsein der Anwender verändern. Öffentliche Diskussion um den Datenschutz oder den falschen bis hin zu betrügerischem Einsatze von Algorithmen helfen dabei.

Seit den Orakeln in der Antike hat die Prognostik eine Tradition – wie sinnvoll sind aus Ihrer Sicht Vorausschauen ganz grundsätzlich, insbesondere wenn sie die weiter entfernte Zukunft betreffen?  
Wenn Prognosen realistisch eingeschätzt werden, sind sie hilfreich. Wenn sie überschätzt werden, nicht immer. Es ist statistische Grundweisheit, dass die Prognosequalität mit zunehmendem Zielhorizont sinkt. Das ist schon bei der Wettervorhersage so und gilt noch vielmehr, wenn es sich um gesellschaftliche Phänomene handelt. Trotzdem würde ich als Wirtschaftswissenschaftler daraus nicht den Schluss ziehen, dass der Staat zukünftig bei seiner Haushaltsplanung Prognosen für die zukünftige Wirtschaftsleistung außen vorlässt. Das ist zum Zeitpunkt der Planung eine wichtige und zu berücksichtigende Größe, auch wenn es im Nachhinein, z.B. durch Corona, ganz anders kommt als prognostiziert.