Lieber Ulf, lieber Philip,
es gab hierzu schon einige andere Kommentare, aber ich möchte die Kritik – und die ist hier aus meiner Sicht wirklich dringend notwendig – noch einmal präzisieren, Quellen angeben und einen Vorschlag machen. Zunächst die Verlinkung der anderen Kommentare, von denen ich mir die m. E. blumigen Worte und teils schwer verständlichen Formulierungen allerdings auch nicht zu eigen machen will:
Ich gebe zunächst ganz kurz den Inhalt eures Beitrags und die fraglichen Stellen kommentierend wieder:
Ab ca. Min. 39:15 – Hier geht es um die Meinungsforschung und Ulf lässt sich dann tatsächlich zu der Aussage hinreißen, dass ein „Umrechnen der Rohdaten in eine Prognose“ (40:26) stattfinde. Das ist falsch, und ich war zugegeben echt geschockt, als ich das gehört habe. Philip reagiert auf den Einwand mit Verweis auf einen Wahlforscher, der 100%-ig richtig liegt, genau das ist der Punkt – Wählerinnen und Wähler reagieren auf Umfragen (s. u. die Studie unten)!
Ab ca. Min. 41: NEIN! Die Sonntagsfrage ist keine Prognose, Ulf! Das ist einfach falsch! Philip hat absolut recht. Ich bin mir nicht mal sicher, nachdem ich das gehört habe, ob ihr eure Quellen, die ihr in den Shownotes angegebt, überhaupt gelesen und zur Kenntnis genommen habt… (o.O)
Prognosen werden von den großen Umfrageinstituten auf Basis von sog. exit polls gemacht, d.h. man bittet die Wähler/innen nach der eigentlichen Wahl, noch einmal abzustimmen. Daraus ergibt sich eine Prognose, die wir alle als „18-Uhr-Prognose“ kennen. Anschließend, auf Basis von realen Abstimmungsdaten, folgt dann eine sog. Hochrechnung, die in der Regel und logischerweise viel genauer ist als eine Prognose.
Den Unterschied von Stichproben (z. B. Zufall vs. Quoten) zu erläutern oder was Modelle und Prognosen sind und welche Aussagekraft sie besitzen, spare ich mir an dieser Stelle.
Leider, und das ist m. E. vor allem ein mediales Phänomen, werden diese Umfragen überschätzt und dermaßen hochgejazzt, dass dabei deren eigentliche Aussagekraft in den Hintergrund rückt. Es sagt überhaupt nichts aus, zumal mehr als drei Monate vor der Wahl, ob die CDU mal wieder 5 Prozentpunkte gewinnt und die Grünen gleichzeitig 3 verlieren usw. Es sagt, wenn überhaupt, etwas über die aktuelle politische Stimmung aus. Dann muss man aber auch auf die genaue Formulierung der Items schauen, die ist nämlich auch oft haarsträubend. Da werden Generalisierungen vorgenommen, die die Umfragedaten eigentlich nicht hergeben. Mit Umfragen wird (auch) Politik gemacht.
Und für Sachsen-Anhalt gilt – und das war in der Analyse ebenfalls sehr unterkomplex bzw. wurde gar nicht genannt (obwohl ihr die Sachen ja verlinkt habt): Aus welchen Lagern konnte die CDU, gehen wir mal von den Daten von infratest dimap aus, denn ihre Wähler/innen vor allem rekrutieren? Genau, aus dem Lager der Nichtwähler, bei der LINKEN immerhin auch ca. 18.000 Stimmen. Und da liegt die Vermutung doch sehr nahe, dass eben auf Umfragen reagiert wurde, wenn in diesen die AfD mehr Stimmen bekommen hat als die CDU (vgl. INSA). Es war also auch eine ‚AfD-Verhinderungswahl‘.
Ich verstehe nicht, warum ihr nicht mal wirklich in die Zahlen und Daten einsteigt, die ja alle vorliegen, da lässt sich so viel damit anfangen, Schlussfolgerungen ziehen etc. Das hat mir auch bei RP und BW gefehlt… Ich finde ihr solltet diese Teile wirklich überdenken, denn die kann man so auch woanders, und dann wirklich differenzierter und besser aufbereitet, nachlesen und nachhören, vor allem, wenn es nur um die Beschreibung der Ergebnisse geht.
Ihr seid keine Wissenschaftsjournalisten, das nehme ich zur Kenntnis, aber diese wirklich elementaren Grundlagen oben zu verstehen, kann man m. E. voraussetzen, wenn man das politische Geschehen sachlich und analytisch einordnen möchte, so wie ihr es tut und es euer Anspruch ist. Wenn Studierende den LdN-Beitrag hören, wundert mich das ehrlich gesagt nicht, warum sie z. T. reihenweise durch Methoden- und Statistik-Klausuren fallen. Das ist jetzt sehr polemisch, soll aber deutlich machen, wie wichtig es ist, präzise zu formulieren, eindeutige Begriffe zu verwenden, die dahinter liegenden Konzepte zu verstehen usw.
Diese, möglicherweise jetzt etwas unspezifisch genannte ‚Reaktivität‘ ist das, was auch bei den Corona-Modellen passiert ist. Und deshalb ist es grober Unfug, wenn dann von „Horrorszenarien“ gesprochen wird, „die ja so nie eingetreten sind“. Mathematische Modelle können, in hoffentlich absehbarer Zeit, die Realität eben nicht überbieten.
In einem der Standardwerke der empirischen Sozialforschung (Schnell, Hill, Esser; hier 9. Aufl. 2011) hießt es schon auf Seite 1 (eigene Hervorhebung):
Von einer extremen Trivialisierung sind insbesondere ‚Umfragen‘ betroffen, die häufig fälschlicherweise als Synonym für empirische Sozialforschung schlechthin gelten [Fn 1]. Die Unkenntnis über Methoden empirischer Sozialforschung führt hier zu den Absurditäten, die sich täglich in den Medien als ‚Ergebnis‘ von ‚Umfragen‘ finden und die das Bild der Sozialforschung in der Öffentlichkeit zunehmend prägen. Mit dem Regelwerk der akademischen empirischen Sozialforschung hat dies nichts zu tun.
Fn 1: Das bekannteste Beispiel hierfür sind Wahlprognosen auf der Basis von Umfrageergebnissen. Obwohl der Nachweis, dass mit dieser Art von Wahlprognosen wissenschaftlich nicht haltbare Ergebnisse erzielt werden, leicht geführt werden kann, beeinträchtigt dies deren Popularität bei Politikern und Journalisten nicht. […] [Hinweis auf die auch heute noch interessante Webseite: http://wahlprognosen-info.de/]
Eine lesenswerte Übersicht gibt es hier (weiteres Material gibt es außerdem bei der Bundeszentrale etc.):
Zitat:
Handelt es sich bei der Sonntagsfrage um eine Wahlprognose?
Nein. Die Meinungsforscher betonen immer deutlich, dass es sich eben nicht um eine Prognose, sondern um eine Momentaufnahme zum Zeitpunkt X handelt. Infratest dimap beispielsweise schreibt auf seiner Webseite: „Die Sonntagsfrage misst aktuelle Wahlneigungen und nicht tatsächliches Wahlverhalten. (…) Rückschlüsse auf den Wahlausgang sind damit nur bedingt möglich.“
Warum liegen die Umfragen manchmal komplett daneben?
Zum einen, weil immer die Schwankungsbreiten mitgedacht werden müssen. Zum anderen, weil es sich eben nicht um eine Prognose, sondern nur um eine Umfrage zum Zeitpunkt X handelt. In den letzten Tagen vor der Wahl können aktuelle Ereignisse die Wahlentscheidung noch einmal beeinflussen. Damit zusammen hängt auch, dass der Anteil der unentschlossenen Wähler, die sich erst kurz vor dem Wahltag oder sogar erst in der Wahlkabine für eine Partei entscheiden, in den letzten Jahren immer größer geworden ist.
Ein wirklich guter Bericht zum Angesprochenen und zur Meinungsforschung insgesamt ist hier zu lesen:
Verweise tue ich darüber hinaus auf folgenden Übersichtsartikel, der das Grundlegende gut zusammenfasst, wo ich mir einige gute Zitate aus Platzgründen jetzt aber spare:
Faas, T. (2017). Demoskopische Befunde – ihre Hintergründe, ihre Verarbeitung, ihre Folgen: einige (ein)leitende Überlegungen. Demokratie und Demoskopie.
Meine Empfehlung läuft darauf hinaus, dass ich euch den tollen Thorsten Faas (mittlerweile FU Berlin, vorher JGU Mainz) ans Herz lege. Wer auf Twitter unterwegs ist, kennt ihn sicherlich auch schon. Er macht zusammen mit Erhard Scherfer zudem einen überaus hörenswerten Podcast. Zusammen mit Sascha Huber hat er die Studie „Haben die Demoskopen die FDP aus dem Bundestag vertrieben? Ergebnisse einer experimentellen Studie“ (2015) veröffentlicht (Spoiler alert: Ja). Kurz: Er ist überaus ausgewiesen, was die Themen Wahl-, Umfrage- und Meinungsforschung, Demoskopie etc. betrifft und sicherlich ein sehr angenehmer Gesprächspartner.
Wenn ihr ihn für ein Interview gewinnen könntet, bspw. im Vorfeld der Bundestagswahl, seien euch eure Fehler verziehen (und bitte entschuldigt, wenn es jetzt hier und da etwas missgünstig oder überspitzt von mir dargestellt wurde).