Aus: Sieglinde Katharina Rosenberger und Gilg Seeber: Kopf an Kopf. Meinungsforschung im Medienwahlkampf. Wien: Czernin Verlag 2003.



III. DIE WISSENSCHAFT VON DER ERFORSCHUNG DER ÖFFENTLICHEN MEINUNG

„Öffentlichkeit“ und „öffentliche Meinung“ spielen eine zentrale Rolle in der Demokratie(theorie), gleichzeitig gibt es für sie in der Wissenschaft keine allgemein akzeptierte Definition. Das Lexikon der Politik schreibt:

Öffentlichkeit, mehrdeutiger Begriff, kann verstanden werden [1] als Sphäre des Politischen bzw. des Staatlichen, [2] als allg. Zugänglichkeit und als Publikum bzw. Publizität; [3] teilweise auch synonym mit Öffentlicher Meinung gebraucht. ...
(Schüttemeyer 1998, 434)

Die Demoskopie basiert weitgehend auf einem Konzept, das öffentliche Meinung als die Summe der individuellen Meinungen sieht; und Umfragen sind das Instrument, mit dem sich die so verstandene öffentliche Meinung erfragen lässt – mit welchen Methoden, wird in diesem Kapitel näher erläutert. Es sind insbesondere statistische Methoden, die die Ergebnisse der Umfrageforschung auf einer wissenschaftlich-methodischen Basis objektiv absichern sollen. Wie sich aus oft kleinen Stichproben allgemein gültige Aussagen ableiten lassen und wie die damit verbundene Unsicherheit abzuschätzen ist, wird in einem eigenen Abschnitt beschrieben.

Insbesondere wenn es um politikwissenschaftliche Analysen geht, greift das demoskopische Konzept der öffentlichen Meinung freilich zu kurz: Es ist rein deskriptiv, missachtet weitgehend Hierarchien, Macht- und Mehrheitsverhältnisse und die Rolle von Interessensgruppen in der Gesellschaft und entspricht zudem einem statischen Verständnis, das die Herstellung oder Formierung öffentlicher Meinung weitgehend ausblendet. Dabei ist es gerade dieser konstruktivistische Aspekt von Öffentlichkeit, der im Zusammenhang mit Wahlkampagnen von Bedeutung ist. (Eine ausführliche und umfassende Darstellung der Wissenschaft von der öffentlichen Meinung findet sich in Glynn et al. 1999.)


III.1 Öffentliche Meinung als Aggregat individueller Meinungen

In demokratisch verfassten Staaten sind allgemeine Wahlen das zentrale Instrument, mit dem politische Verantwortung und damit verbunden Macht verteilt und legitimiert wird. Im Ergebnis einer Wahl manifestiert sich der Wille des „Demos“ – es ist damit Ausdruck der öffentlichen Meinung. Und weil Wahlen diese besondere Bedeutung zukommt, werden die Regeln, nach denen sie durchzuführen sind und nach denen die Macht den Parteien bzw. den Politikern überantwortet wird durch Gesetze präzise und detailliert geregelt. Mit anderen Worten: Wahlen sind nach demokratischen und rechtsstaatlichen Prinzipien organisierte Verfahren zur Feststellung der öffentlichen Meinung.

Wesentlicher Teil der Wahlverfahren ist die Auszählung der Stimmen. Diesem Bild des Zählens der Köpfe entspricht die Vorstellung von öffentlicher Meinung als der Summe der individuellen Meinungen, die durch das in der Wahlordnung vorgesehene Verfahren zusammengefasst oder aggregiert werden.

Dieses der Umfrageforschung zugrunde liegende Verständnis des Begriffes „öffentliche Meinung“ als Aggregat individueller Meinungen findet in der wissenschaftlichen Diskussion – aus guten Gründen, wie wir sehen werden – zwar keine allgemeine Akzeptanz, wird aber dennoch häufig verwendet. Zur Rechtfertigung werden unter anderen folgende Argumente angeführt:

  1. Nach diesem recht pragmatischen Konzept ist ziemlich klar vorgegeben, wie öffentliche Meinung zu beobachten oder zu messen ist: Man muss die Menschen „nur“ befragen, ihre Antworten sammeln – und die Summe der Antworten gibt die öffentliche Meinung wieder. Die Technologie der Meinungsforschung stellt zudem Methoden zur Verfügung, die es nicht nötig erscheinen lassen, alle Mitglieder der Öffentlichkeit zu befragen: Es genügt eine im Vergleich zur Bevölkerung sehr kleine Stichprobe, um die so genannte öffentliche Meinung präzise einschätzen zu können.
  2. Befragungen ähneln in ihrer Struktur demokratischen Wahlen, indem sie Meinungen beziehungsweise Stimmen zählen.
  3. Aus der Sicht der politischen EntscheidungsträgerInnen reduzieren sich komplexe politische Fragestellungen oft auf das „einfache“ Problem, in der Öffentlichkeit eine Mehrheit für das eigene Vorhaben vorzufinden – wobei Mehrheit in diesem Zusammenhang eine Mehrheit von Individuen meint.
  4. Die der Umfrageforschung zugrunde liegende Vorstellung von öffentlicher Meinung erschließt sich relativ leicht einer Analyse mit quantitativen Methoden: Wie sich das Wahlergebnis in Zahlen fassen lässt oder Prozentangaben die Meinungen zu einem politischen Vorhaben spiegeln, lassen sich auch komplexere Zusammenhänge zahlenmäßig ausdrücken und beurteilen.
Das wichtigste Erhebungsinstrument der Meinungsforschung (als Erforschung der öffentlichen Meinung im obigen Sinne) ist – besonders in der medialen Wahrnehmung des „Meinungsklimas“ im Zuge einer Wahlauseinandersetzung – die (meistens telefonische) Befragung einer aus der Wohnbevölkerung gezogenen, repräsentativen Stichprobe. In den folgenden Abschnitten werden wir einen Einblick in die Arbeitsweise der „Pollsters“ und in ihre statistisch-methodischen Grundlagen geben. Angemerkt sei an dieser Stelle bereits, dass sich die Meinungsforschung mit der Rolle der unbeteiligten Beobachterin nicht zufrieden gibt und sehr wohl in die Bildung von Meinungen eingreift (vgl. Kapitel 6).


III.2 Umfragen zur Erforschung der öffentlichen Meinung

Im Bündel der Methoden, derer sich die empirische Sozialforschung bedient, nehmen wie gesagt Befragungen einen nicht unumstrittenen, aber prominenten Platz ein. Diekmann (1995; 371) schreibt: „Ob nun aber «Königsweg» oder «Holzweg», in der Sozialforschung ist die Befragung auf jeden Fall der meistbeschrittene Weg.“ Er stellt aber auch fest, dass zur Erforschung von Einstellungen und Meinungen die Methode der Befragung – bei aller Kritik – sehr wohl unverzichtbar ist. Befragungen werden in dem uns interessierenden Zusammenhang in der Form von telefonischen Interviews oder als persönliche Face-to-Face-Interviews durchgeführt, wobei insbesondere für die Medien arbeitende Institute in aller Regel erstere anwenden – telefonische Befragungen sind kostengünstiger und weniger zeitintensiv.

An den Interviews sind – in aller Regel – zwei Personen beteiligt: InterviewerIn und befragte Person, im Fachjargon als Respondent bzw. Respondentin bezeichnet. Der/die InterviewerIn legt nach einem vorgegebenen, standardisierten Katalog allen Befragten die gleichen Fragen – in vielen Fällen mit vorgegebenen Antwortmöglichkeiten (so genannte geschlossene Fragen) – im Wesentlichen in derselben Reihenfolge vor und notiert die gegebenen Antworten. In den modernen Labors der Meinungsforschungsinstitute erfolgt das Anwählen des im Stichprobenplan ausgewählten Telefonanschlusses, die Interviewführung und das „Ausfüllen“ des Fragebogens computergesteuert am Bildschirm. Die im Interview erhobenen Daten werden in eine Datenbank eingetragen und stehen damit unmittelbar der Bearbeitung zur Verfügung.

Wie die Messvorgänge in den vermeintlich präzisen Naturwissenschaften und in der Technik durch die jeweiligen Messinstrumente in ihrer Genauigkeit eingeschränkt sind und Messfehler aufweisen können, so darf insbesondere auch in den Sozialwissenschaften nicht von der Vorstellung einer absoluten Präzision ausgegangen werden – wo doch die soziale Realität zudem in mancher Hinsicht komplexer als die von den Naturwissenschaften untersuchte Wirklichkeit ist. Es gibt keine Maßstäbe, mit denen die Meinungen und die Einstellungen von Menschen präzise erfaßt werden könnten – und es sind vor allem keine unbeteiligten und in diesem Sinne objektiven BeobachterInnen, die die Messungen durchführen und darüber berichten. Die Formulierung der Fragestellung, die als (sozial) erwünscht oder unerwünscht antizipierten Antwortmöglichkeiten, die Persönlichkeit, ja schon die Stimme des/der InterviewerIn, die augenblickliche persönliche Situation der befragten Person – all das kann sich auf die Auskunftsfreudigkeit und das Antwortverhalten auswirken. (Diekmann 1995 bietet eine gut lesbare Einführung in die empirische Sozialforschung und darin auch eine umfangreiche Abhandlung zum Thema Befragungen.)

Für den hier interessierenden Zusammenhang lässt sich zusammenfassen: Es gibt keine exakte Vermessung der Wahlabsichten der im Interview befragten Personen.


Es ist primär die Sonntagsfrage, die in allen von den Medien in Auftrag gegebenen und dort veröffentlichten Wahlprognosen zur Feststellung der Wahlabsichten eingesetzt wird. In gewissen Abwandlungen lautet die Frage (market nennt sie die „Sonntagsfrage 1“):

Wenn am nächsten Sonntag Nationalratswahlen wären, welcher Partei würden Sie da Ihre Stimme geben?

Bisweilen wird diese Frage ergänzt durch die Nachfrage („Sonntagsfrage 2“ in market-Terminologie) an Unentschlossene und NichtwählerInnen etwa folgenden Wortlauts:

Und welche Partei wäre für Sie am ehesten wählbar?

In der Regel bleiben dann immer noch zweistellige Prozentsätze von Nicht-Antworten übrig. Deshalb wird „zur Sicherheit“ noch einmal an alle die Rückerinnerungsfrage (Recall-Frage) nachgesetzt, etwa des Wortlautes:

Und noch eine letzte Frage: Können Sie mir vielleicht noch sagen, welche Partei Sie bei der letzten Nationalratswahl gewählt haben?

Wie diese letzte Frage rechnerisch zur Prognose des Wahlverhaltens verwendet wird, erläutert der nächste Abschnitt. Zunächst soll die Sonntagsfrage als Messinstrument kritisch betrachtet werden.

Oft wird eingewendet, dass die Sonntagsfrage eher Stimmungen als das potentielle Verhalten in der Wählerschaft erfasse. In der Zeit unmittelbar vor der Wahl trifft diese Kritik aber weniger zu: Denn da der Wahlkampf mit seinen mobilisierenden Elementen das Interesse an der Wahl weckt und sich die Wählerinnen und Wähler durch die mediale Berichterstattung und durch Diskussionen in privatem wie beruflichem Umfeld mit der Entscheidungssituation verstärkt auseinander setzen (siehe dazu etwa Roth 1998), mag zumindest für einen Teil der Befragten tatsächlich die Wahlabsicht und nicht bloß eine Stimmung erhoben werden.

Die Beschäftigung mit der eigenen Entscheidungssituation kann aber auch „Verunsicherung“ bewirken, weil Positionen und Gegenpositionen, Pro- und Contra-Argumente wahrgenommen und eigene, wenig reflektierte Einstellungen hinterfragt werden. Zu dem kommt, dass nach dem Verständnis vieler Menschen eher die Regierung als das Parlament gewählt wird – was bedeutet, dass Regierungskonstellationen und Koalitionsvarianten bei der Entscheidungsfindung eine wesentliche Rolle spielen und die Wahlentscheidung deshalb schwieriger gestalten, weil somit auch taktische Überlegungen anzustellen sind. Neben der schon länger zu beobachtenden Erosion der Parteienbindungen mögen dies im übrigen weitere Gründe für den hohen Anteil an Un- und Spätentschlossenen sein, wie er in den Umfragen bis kurz vor dem Wahltermin verzeichnet wird.

Diese Phänomene stellen die MeinungsforscherInnen jedenfalls bei ihrer Prognose vor das Problem der Zuordnung der Antwortverweigerer und der sich als (noch) unentschieden Deklarierenden zu den wahlwerbenden Parteien und der (oft außer acht gelassenen) „Partei der Nichtwähler“. Für diese Zuordnung werden häufig die Rückerinnerungsfrage, in der Regel nicht bekannt gegebene Gewichtungen und oft auch subjektive, von Befragung zu Befragung variierende Einschätzungen für die „Hochschätzung“ verwendet. Wir vermuten, dass Institute, die für Medien arbeiten, wegen des engeren Kostenrahmens und der Schnelllebigkeit der medialen Welt ihre Prognosen mit geringerem Aufwand erstellen als jene Institute, die im Auftrag politischer Parteien tätig sind. Für letztere spielt die Sonntagsfrage ohnehin keine derart zentrale Rolle, sind doch für Planung und Durchführung der Wahlkampagnen andere Überlegungen von größerer Bedeutung – etwa die Berücksichtung bestimmter, die künftige Wahlentscheidung beeinflussender Faktoren.

Für die RezipientInnen der stark auf die Sonntagsfrage fokussierten Wahlkampfberichterstattung mancher Tageszeitungen und Wochenmagazine ist jedenfalls die Entstehung und wissenschaftliche Absicherung der publizierten Prognosen kaum nachzuvollziehen – was gleichermaßen für die wissenschaftliche Beobachtung gilt und so insgesamt zu einem gehörigen Maß an Skepsis gegenüber dem Wert der veröffentlichten Wahlprognosen führt. Wie auch die Chronologie im Anhang zeigt, wird die veröffentlichte Meinungsforschung laufend von veröffentlichter Kritik an eben dieser Meinungsforschung begleitet; und nach Keller (2001) zieht sich diese Kritisierbarkeit der Meinungsforschung denn auch wie ein alter ego durch deren Geschichte.


III.3 Objektivierung durch Statistik

Der Anfang der modernen Meinungsforschung ist eng mit einem Namen und einer Erfolgsgeschichte verknüpft: George Gallup und seiner Vorhersage des Wahlausgangs der amerikanischen Präsidentschaftswahlen im Jahre 1936. Zu jener Zeit waren Befragungen längst zu einem beliebten Mittel in der politischen Auseinandersetzung und der Produktion von News geworden: Im Wahljahr 1928 verschickte das populäre Magazin Literary Digest nicht weniger als 18 Millionen „Wahlzettel“, also Fragebögen, um die Chancen der Kandidaten um das Präsidentenamt zu eruieren. Vorausgesagt wurde die Wahl von Herbert Hoover mit 68,2 Prozent der Stimmen, und tatsächlich ist dann Hoover mit 58,8 Prozent gewählt geworden – nicht überraschend, würde man heute angesichts des enormen Stichprobenumfangs meinen. Allerdings: vier Jahre später wurde nach Versendung von mehr als zehn Millionen und der Auswertung von 2,3 Millionen Fragebögen der Sieg des Republikaners Alfred Landon mit 57 Prozent der Stimmen prophezeit – gewonnen aber hat Franklin D. Roosevelt, während Landon gerade 38,5 Prozent der Stimmen erreichte.

Den Sieger richtig (wenn auch mit einem Fehler von sieben Prozentpunkten) vorausgesagt hatte damals das von dem jungen Psychologen George Gallup geleitete American Institute of Public Opinion. Aufgrund einer Zufallsstichprobe von wenigen tausend Personen konnte Gallup eine präzisere Prognose als seine Konkurrenten liefern. Und wenn ihm die Zukunft auch Rückschläge bescheren sollte, so war im Jahr 1936 doch ein methodischer Durchbruch erreicht: Mit der Verwendung von Zufallsstichproben wandte er die Methoden der Wahrscheinlichkeitstheorie und der mathematischen Statistik auf die Meinungsforschung an und stellte so einen wesentlichen Teil ihrer Arbeitsweisen auf ein solides methodisches Fundament.

Mathematik hat auch, aber nicht nur mit Rechnen zu tun – sie stellt eine präzise Sprache zur Verfügung und zieht ihre Schlüsse nach den strengen Regeln der Logik. Eines ihrer Teilgebiete, die Wahrscheinlichkeitstheorie, stellt die Mittel zur Verfügung, Gesetzmäßigkeiten zu beschreiben, die dem Zufall unterliegen, und sich diese zunutze zu machen. Ein Beispiel dafür wurde schon erwähnt: die zufällige Auswahl der zu befragenden Personen.

Die Verwendung statistischer Methoden hat in einem hohen Maße zur Objektivierung der Meinungsforschung beigetragen: Subjektive Einflüsse oder Verzerrungen können vermieden werden, aus den erhobenen Daten werden nach bekannten und anerkannten Verfahren Schlussfolgerungen gezogen und die damit verbundenen Unsicherheiten angegeben.

Dieser Abschnitt erläutert und illustriert im folgenden in gebotener Kürze die für das Verständnis und die Einschätzung von Meinungsforschungsergebnissen wichtigsten Begriffe und geht zum Schluss auf mögliche Fehlerquellen ein.

Zufallsstichprobe


In der statistischen Terminologie nennt man die Gesamtheit aller Wahlberechtigten die Grundgesamtheit. Die Wahl selbst ist eine Totalerhebung dieser Grundgesamtheit, der ja auch jene Personen angehören, die von ihrem Wahlrecht nicht Gebrauch machen können oder wollen. In der Meinungsforschung wird nur ein kleiner Teil der Grundgesamtheit befragt. So waren etwa bei den Nationalratswahlen 2002 knapp sechs Millionen Menschen wahlberechtigt, während den von den Medien veröffentlichten Wahlprognosen selten mehr als 500 interviewte Personen zugrunde liegen. Die Gesamtheit der tatsächlich befragten Personen heißt Stichprobe und ihre Anzahl die Stichprobengröße oder der Stichprobenumfang.

Eine entscheidende Bedeutung kommt der Auswahl der zu befragenden Personen aus der Grundgesamtheit zu, also dem Auswahlverfahren. George Gallups große Innovation war es, den Zufall über diese Auswahl entscheiden zu lassen – ein Verfahren, bei dem für jede Person von vorne herein fest zu stehen hat, mit welcher Wahrscheinlichkeit sie in die Stichprobe Aufnahme findet. Dieses Auswahlverfahren wie auch sein Ergebnis nennt man Zufallsstichprobe.

Es gibt viele in der Praxis erprobte Varianten, Zufallsstichproben herzustellen; einen ersten Einblick gibt Diekmann (1995). In den veröffentlichten Meinungsforschungsergebnissen werden allerdings selten Hinweise zu dem verwendeten Stichprobendesign gegeben.

Der für Zufallsstichproben bisweilen notwendige größere Aufwand wird durch folgende Vorteile aufgewogen:
  1. Der Zufall spielt bei der Auswahl der zu befragenden Personen die Rolle eines unparteiischen, objektiven Schiedsrichters.
  2. In aller Regel ist man daran interessiert, aus den erhobenen Stichprobendaten Aussagen über die Grundgesamtheit abzuleiten: Die Informationen über die befragten Personen sollen z.B. Aufschluss geben über das beabsichtigte Wahlverhalten der gesamten wahlberechtigten Bevölkerung. Soll der „Rückschluss“ von der Stichprobe auf die Grundgesamtheit statistisch zuverlässig sein, ist die Erhebung der Daten als Zufallsstichprobe eine Voraussetzung.
  3. Von der Stichprobe auf die Grundgesamtheit zu schließen bedeutet immer, Aussagen über die Grundgesamtheit aufgrund unvollständiger Informationen zu machen. Damit gehen die Schlussfolgerungen zwangsläufig mit einem gewissen Maß an Unsicherheit einher, ist mit Fehlern zu rechnen. Zufallsstichproben erlauben, die Größenordnung dieser möglichen Fehler abzuschätzen.
  4. Bei Zufallsstichproben ist gesichert, dass größere Stichproben auch tatsächlich zusätzliche Informationen und damit geringere Unsicherheiten bzw. kleinere Fehler liefern.
In der Presseberichterstattung finden sich nur selten schlüssige Hinweise darauf, ob die Befunde auf Zufallsstichproben in dem oben angeführten präzisen Sinn beruhen.


Repräsentativität


Meinungsforschungsinstitute legen in ihrer Darstellung Wert auf „Repräsentativität“ ihrer Stichproben. Im allgemeinen Sprachgebrauch meint man damit, dass die Stichproben in kleinem Maßstab ein Abbild der Grundgesamtheit darstellen. In der Statistik ist Repräsentativität allerdings kein präzise definierter Begriff. Pragmatisch betrachtet wäre es wohl auch zu viel verlangt, wenn eine kleine Stichprobe ein detailgerechtes Bild der Grundgesamtheit wiedergeben soll. Wünschenswert ist, dass sich die Stichprobe bezüglich gewisser, meist soziodemografischer Merkmale auf die Grundgesamtheit abbilden lässt. Dazu ist es notwendig, die Verteilung dieser Merkmale in der Grundgesamtheit zu kennen. Für die Wohnbevölkerung ist die Verteilung von Geschlecht, Alter, Schulbildung und Beruf aus amtlichen Erhebungen wie der Volkszählung auch auf örtlicher Ebene relativ gut bekannt. Sind nun in der Stichprobe weniger Frauen vertreten, als dies aufgrund der Geschlechtsverteilung in der Bevölkerung der Fall sein sollte, lässt sich dieser Umstand durch Gewichtung korrigieren.

Um es an einem einfachen Zahlenbeispiel zu demonstrieren: Nehmen wir an, in der interessierenden Bevölkerung leben etwa 52 Prozent Frauen und 48 Prozent Männer, in der Stichprobe finden sich jedoch nur 46 Prozent Frauen. Dann gewichtet man die von Frauen stammenden Beobachtungen mit dem Gewichtungsfaktor 52/46=1,13 und die bei Männern erhobenen Daten mit dem Faktor 48/54=0,89. Bildlich gesprochen heißt dies, dass jede in die Stichprobe aufgenommene Frau für 1,13 Frauen „zählt“.

In etwas salopper Sprechweise wird eine Stichprobe dann als repräsentativ bezeichnet, wenn sie sich hinsichtlich der oben angesprochenen soziodemografischen Merkmale mittels Gewichtung auf die Grundgesamtheit abbilden lässt.

In der Praxis ist die Repräsentativität dann von größerer Bedeutung, wenn es beispielsweise gilt, Anteilswerte oder Durchschnittswerte in der G rundgesamtheit zu schätzen. Für analytische Surveys, die sich eher der Untersuchung von Zusammenhängen, Effekten oder Wirkungen widmen – also qualitative Fragen (nach dem „Wie?“ oder „Warum?“) interessanter sind als quantitative Fragen (nach dem „Wie groß?“ oder „Wie viel?“) – ist die Repräsentativität der Stichprobe von geringerer Bedeutung.

Gewichtung ist eine bei manchen Meinungsforschungsinstituten beliebte Methode zur „Hochschätzung“ der Sonntagsfrage, um auf diese Weise das Problem der Antwortverweigerer oder Nicht-WählerInnen zu umgehen: Ausgehend von der Annahme, dass die Rückerinnerungsverzerrung in Richtung und Stärke der Verzerrung der Sonntagsfrage entspricht, wird der Gewichtungsfaktor als Verhältnis des tatsächlichen letzten Wahlergebnisses mit den Anteilswerten aus der Rückerinnerungsfrage bestimmt ( Diekmann 1995, 367). Diese Vorgangsweise kann eine Summe von 100% der Anteilswerte nicht garantieren. Von den Instituten werden deshalb zusätzlich noch weitere, oft subjektiv zustande gekommene Gewichtungen angewandt.

Tabelle III.1 demonstriert die Berechnungen am Beispiel der letzten Hochrechnung des market-Instituts vom 21.11.2002 und vergleicht das Ergebnis mit der publizierten Prognose.

Tabelle III.1: Gewichtung mit der Rückerinnerungsfrage


SPÖ

ÖVP

FPÖ

Grüne

Wahlergebnis 1999

33,2%

26,9%

26,9%

7,4%

Rückerinnerung

21%

30%

16%

8%

Gewichtungsfaktor

1,58

0,90

1,68

0,93

Stichprobe

26%

38%

7%

10%

gewichtete Stichprobe

41,1

34,1

11,8

9,3%

Prognose vom 21.11.

39%

38%

11%

9%

Quelle: market, telefonische CATI-Interviews, repräsentativ für die österreichische Bevölkerung ab 18 Jahren; Der Standard vom 21.11.2002; eigene Berechnungen



Der induktive Schluss auf die Grundgesamtheit


Durch die Einführung von Zufallsstichproben in die Meinungsforschung konnte George Gallup die Stichprobengrößen ohne Qualitätseinbußen drastisch senken. Auch heute noch erstaunt, wie die Antworten von 400 Personen auf die Sonntagsfrage Auskunft über fast sechs Millionen Wahlberechtigte geben können.

In der Statistik heisst die Ableitung von allgemeinen, d.h. für die Grundgesamtheit gültigen Aussagen aus Stichprobeninformationen ein induktiver Schluss. Weil diese Schlussfolgerungen aufgrund unvollständiger Informationen erfolgen, sind sie auch nur mit beschränkter Präzision möglich und mit einem gewissen Grad an Unsicherheit behaftet. Es ist Aufgabe der Statistik, Verfahren zur Verfügung zu stellen, die unter effizienter Ausnutzung der in den erhobenen Daten enthaltenen Informationen möglichst genaue Aussagen über die Grundgesamtheit ermöglichen und zugleich das Maß an erreichter Präzision angeben können.

Wenn überhaupt, geben Meinungsforschungsinstitute und Medien maximale Schwankungsbreiten als Maßzahlen für die Genauigkeit der von ihnen berichteten Schätzwerte an. Das euphemistische Wort „maximal“ ist in diesem Zusammenhang entweder nicht gerechtfertigt oder würde, wenn ernst genommen, wenig Information bieten. Mit dem Wort „Schwankungsbreite“ ist der statistische Begriff des Konfidenzintervalls gemeint: Diesem liegt die Idee zugrunde, dass jede einzelne Zufallsstichprobe dadurch, dass andere Personen befragt werden, unterschiedliche Ergebnisse liefert. Würden diese Ergebnisse große Unterschiede aufweisen bzw. stark schwanken, wäre das ein Hinweis darauf, dass die aus den Stichproben gezogenen Schlüsse ungenau sind. Kleine Schwankungen hingegen sind ein Indiz für ein hohes Maß an Präzision. Einen Eindruck über die durch die Stichprobenerhebung bedingte Variabilität vermittelt Schaubild III.1, das die Rohdaten der beiden Meinungsforschungsinstitute SORA und market direkt vergleicht. Die Rohdaten unterscheiden sich auch dann, wenn der Erhebungszeitraum in etwa der gleiche ist.

Schaubild III.1


Zu bedenken sind auch die unterschiedlichen Stichprobengrößen. market gibt die Schwankungsbreite mit ±5 Prozenten an, d.h. das Konfidenzintervall ist 10 Prozentpunkte breit. Das bedeutet, dass in den Intervallen, deren Untergrenze der Schätzwert minus 5 Prozentpunkte und deren Obergrenze der Schätzwert plus 5 Prozentpunkte ist, im Fall von 100 hypothetischen Wiederholungen der Stichprobenerhebungen 95 Mal der tatsächliche Anteilswert in der Grundgesamtheit enthalten ist. Für eine Stichprobe vom Umfang N=1.000, wie im Fall der SORA-Erhebungen, liegt die Schwankungsbreite bei etwa ±3 Prozenten.

Das klingt einigermaßen kompliziert und tatsächlich sind Konfidenzintervalle eine komplexe Angelegenheit, zu deren genauerer Erläuterung wir auf einführende Statistiklehrbücher wie z.B. Fahrmeir et al. (2003) oder Gehring/Weins (2002) verweisen.

Intuitiv einfacher ist es, Wahrscheinlichkeitsintervalle für die aus der Stichprobe geschätzten Anteilswerte anzugeben. Tabelle 3.2 enthält für die SORA-Umfragen neben den aus den Rohdaten ermittelten Anteilen auch deren 95%-Wahrscheinlichkeitsintervalle, die leichter zu interpretieren sind: Mit einer Wahrscheinlichkeit von 95 Prozent liegt der tatsächliche Anteil innerhalb der angegebenen Grenzen. Auch dies bedeutet eine Abschätzung der Präzision der Schätzwerte.

Tabelle III.2: Antworten auf die Frage „Welche Partei werden Sie bei den Nationalratswahlen am 24. November wählen?“

Woche

Datum

Wahlabsicht

Anteil

95%-Intervall

37

15.9.

SPÖ

28

25,4–30,7



ÖVP

29

26,4–31,7



FPÖ

7

5,6– 8,6



Grüne

12

10,2–14,0



unentschieden

23

20,6–25,5

39

27.9.

SPÖ

23

20,4–25,7



ÖVP

24

21,4–26,7



FPÖ

6

4,6– 7,6



Grüne

11

9,1–13,0



unentschieden

35

32,1–38,0

41

10.10.

SPÖ

24

21,4–26,7



ÖVP

25

22,4–27,7



FPÖ

6

4,6– 7,6



Grüne

9

7,3–10,8



unentschieden

36

33,1–39,0

42

19.10.

SPÖ

26

23,3–28,8



ÖVP

22

19,5–24,6



FPÖ

6

4,6– 7,6



Grüne

8

6,4– 9,8



unentschieden

37

34,0–40,0

43

27.10.

SPÖ

25

22,4–27,7



ÖVP

23

20,4–25,7



FPÖ

7

5,5– 8,7



Grüne

10

8,2–11,9



unentschieden

35

32,1–38,0

45

10.11.

SPÖ

26

23,3–28,8



ÖVP

27

24,3–29,8



FPÖ

5

3,7– 6,4



Grüne

9

7,3–10,8



unentschieden

33

30,1–35,9

47

20.11.

SPÖ

27

24,3–29,8



ÖVP

31

28,2–33,9



FPÖ

7

5,5– 8,7



Grüne

9

7,3–10,8



unentschieden

25

22,4–27,7

Quelle: SORA (repräsentative Telefonumfrage der Bevölkerung ab 18 Jahren; Stichprobenumfang jeweils N=1.000, in der 37. KW N=1.129; Befragungszeitraum: jeweils ca. drei Tage bis zum angegeben Datum) – siehe auch Hofinger/Ogris/Thalhammer 2003; eigene Berechnungen



Die Schwankungsbreite für die in Tabelle III.2 angegeben Anteilswerte ist ±3 Prozent, d.h. die Schwankungsintervalle sind 6 Prozentpunkte breit. Die Wahrscheinlichkeitsintervalle sind meist etwas schmäler.

Zum Vergleich gibt Tabelle III.3 dieselben Angaben für die market-Umfragen wieder. Die Schwankungsbreite wird dort mit ±5 Prozent angegeben.

Tabelle III.3: Antworten auf die Sonntagsfrage 1 „Wenn am nächsten Sonntag Nationalratswahlen wären, welcher Partei würden Sie da Ihre Stimme geben?“

Woche

Datum

Wahlabsicht

Anteil

95%-Intervall

37

10.9.

SPÖ

26

21,8–30,4



ÖVP

31

26,6–35,6



FPÖ

3

1,6– 4,9



Grüne

12

9,0–15,4



unentschieden

28

23,7–32,5

38

18.9.

SPÖ

29

24,7–33,5



ÖVP

22

18,1–26,2



FPÖ

5

3,1– 7,3



Grüne

11

8,1–14,2



unentschieden

32

27,5–36,6

39

26.9.

SPÖ

15

11,7–18,7



ÖVP

24

19,9–28,3



FPÖ

5

3,1– 7,3



Grüne

14

10,8–17,6



unentschieden

42

37,2–46,9

40

3.10.

SPÖ

18

14,4–21,9



ÖVP

31

26,6–35,6



FPÖ

3

1,5– 4,9



Grüne

10

7,3–13,1



unentschieden

39

34,3–43,8

41

10.10.

SPÖ

16

12,6–19,7



ÖVP

24

19,9–28,3



FPÖ

12

9,0– 15,4



Grüne

12

9,0–15,4



unentschieden

35

30,4–39,7

42

17.10.

SPÖ

23

19,0–27,2



ÖVP

19

15,3–23,0



FPÖ

6

3,9– 8,5



Grüne

9

6,4–12,0



unentschieden

41

36,2–45,9

43

24.10.

SPÖ

21

17,2–25,1



ÖVP

25

20,9–29,4



FPÖ

5

3,1– 7,3



Grüne

10

7,3–13,1



unentschieden

38

33,3–42,8

44

30.10.

SPÖ

21

17,2–25,1



ÖVP

29

24,7–33,5



FPÖ

6

3,9– 8,5



Grüne

8

5,6–10,8



unentschieden

35

30,4–39,7

45

6.11.

SPÖ

21

17,2–25,1



ÖVP

32

27,5–36,6



FPÖ

5

3,1– 7,3



Grüne

10

7,3–13,1



unentschieden

30

25,6–34,6

46

14.11.

SPÖ

23

19,0–27,2



ÖVP

40

35,3–44,8



FPÖ

7

4,7– 9,7



Grüne

8

5,6–10,8



unentschieden

20

16,2–24,1

47

20.11.

SPÖ

23

19,0–27,2



ÖVP

33

28,5–37,7



FPÖ

5

3,1– 7,3



Grüne

6

3,9– 8,5



unentschieden

32

27,5–36,6

Quelle: market (repräsentative CATI-Bevölkerungsumfrage ab 18 Jahren, Stichprobenumfang jeweils N=400, Befragungszeitraum: jeweils ca. drei Tage bis zum angegeben Datum); eigene Berechnungen




Prognose


Es bedeutet, noch einen Schritt weiter zu gehen, aus aktuellen Meinungen und Verhaltensweisen auf zukünftige Handlungen zu schließen. Dazu ist zu sagen, dass es kein empirisch oder theoretisch abgesichertes statistisches Verfahren gibt, das aus der Sonntagsfrage auch nur halbwegs verlässlich das Wahlverhalten am Wahlsonntag voraussagen lässt. Und mag die mediale Vermittlung – vielleicht auch nur unterschwellig – etwas anderes vermitteln: Eine auf der Sonntagsfrage beruhende Prognose ist keine Prognose in jenem präzisen Sinne, wie sie in der Statistik gebraucht wird.

Wir haben uns hier dafür entschieden, das Wort Prognose für die aus der Sonntagsfrage ermittelten Anteilswerte der Parteien zu verwenden und Behelfsbegriffe wie z.B. Hochschätzung nicht zu gebrauchen. An dieser Stelle sei jedoch explizit darauf hingewiesen, dass damit, entgegen dem eigentlichen Wortsinn, keine Projektion auf die zukünftige Wahl erfolgt.


Fehlerquellen


Auch wenn der Titel dieses Abschnittes die Objektivierungsfunktion der Statistik hervorhebt und in diesem Zusammenhang der Quantifizierung der mit statistischen Schlussweisen einhergehenden Unsicherheit und der Abschätzung der Größenordnung solcher möglicher Fehler Beachtung geschenkt wird, soll doch betont werden, dass auf diese Weise lediglich der Zufallsfehler der Stichprobe als nur eine mögliche Fehlerquelle thematisiert wird.

Für eine Gesamtabschätzung sind weiters zu berücksichtigen:
  1. systematische, durch das Auswahlverfahren hervorgerufene Fehler;
  2. Verzerrungen, die nicht direkt durch das Auswahlverfahren bedingt sind;
  3. Fehler, die durch Fragebogendesign, Interviewereffekte o.ä. entstehen.
Erstere Fehler lassen sich in vielen Fällen durch geeignete Gewichtungen korrigieren; die beiden anderen Fehlerquellen sind in ihrem Effekt auf das Gesamtergebnis im konkreten Fall nur aufwendig bis gar nicht abzuschätzen.


III.4 Standards und Verhaltenskodex der Meinungsforschung

Öffentliche Meinungsforschung ist ein Teil des Fachgebietes der Markt- und Sozialforschung und unterliegt damit auch jenen professionellen und ethischen Anforderungen, die von fachlich zuständigen wissenschaftlichen Gesellschaften und Berufsvereinigungen als Standards vereinbart sind. Darüber hinaus stellt public opinion research im Vergleich zur kommerziellen Marktforschung einen besonders sensiblen Bereich dar, weil sie mit Themen breiteren öffentlichen Interesses und Emotionen befasst ist. Zudem müssen ihre Befunde Gegenstand öffentlicher Debatte sein.

Die European Society for Opinion and Market Research, ESOMAR (www.esomar.org), und die World Association for Public Opinion Research, WAPOR (wapor.unl.edu), haben aus diesem Grunde besondere Regelungen für die öffentliche Meinungsforschung verabschiedet. Diesen professionellen Verhaltenskodex erkennt auch der Verband der Marktforscher Österreichs, VMÖ (www.vmoe.at), in seinen Statuten als verbindlich für seine Mitglieder an. Im folgenden fassen wir einige über die kommerzielle Marktforschung hinaus gehende, für die politische Meinungsforschung wesentliche Punkte zusammen. Der vollständige Text kann über den oben angegebenen Link der ESOMAR eingesehen bzw. bezogen werden.

  1. Die Gültigkeit und der Wert einer öffentlichen Meinungsumfrage hängt von drei wesentlichen Überlegungen ab:
    1. die Art der eingesetzten Forschungstechniken und deren Tauglichkeit für die aktuelle Anwendung;
    2. die Aufrichtigkeit und Objektivität der die Studie durchführenden Organisation;
    3. die Art, in der Befunde präsentiert und angewendet werden.
  2. Für die Veröffentlichung von Befunden aus öffentlichen Meinungsumfragen in Printmedien gelten als zusätzliche Anforderungen die deutliche Angabe
    1. des Namens der die Umfrage durchführenden Organisation;
    2. der in der Stichprobe repräsentierten Grundgesamtheit;
    3. der tatsächlich erreichten Stichprobengröße und dem erfassten geografischen Gebiet;
    4. des Zeitraums der Feldarbeit;
    5. der eingesetzten Stichprobenmethode;
    6. der Methode, mit der die Informationen gesammelt wurden (z.B. telefonische oder persönliche Interviews);
    7. der exakten Formulierung der relevanten Fragen.
  3. Generell sollten bei der Veröffentlichung von Meinungsforschungsergebnissen die Anteile jener Personen angegeben werden, die keine Antwort gegeben haben. Bei den Wahlumfragen sind die Anteile jener Personen auszuweisen, die angegeben haben, nicht zur Wahl gehen zu wollen.
  4. In Berichten über Wahlumfragen ist anzuführen, ob die angegebenen Zahlen die Antwortverweigerer und/oder NichtwählerInnen beinhalten oder nicht.



III.5 Öffentliche Meinung ist mehr als das Aggregat individueller Meinungen

Das von der Demoskopie unterstellte Konzept der öffentlichen Meinung versteht diese als Summe individueller Meinungen. Das ist aber nicht die einzige und auch nicht die in der wissenschaftlichen Diskussion allgemein akzeptierte Definition des Begriffes (siehe Glynn et al. 1999).

Das erste Kapitel des vorliegenden Buches hat bereits darauf hingewiesen, dass öffentliche Meinung gemacht wird und dass die Umfrageforschung diese öffentliche Meinung nicht nur schlicht misst oder beobachtet, sondern, zusammen mit anderen Akteuren, selbst massiv in den Meinungsbildungsprozess, also in die Formierung der öffentlichen Meinung eingreift. Diese Rolle des Umfragebusiness – als nur einen Aspekt im Verständnis von öffentlicher Meinung als Konstrukt – aufzuzeigen, ist eines der Hauptanliegen dieses Buches.




Zitierte Literatur

Diekmann, Andreas (1995): Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek bei Hamburg: Rowohlt.

Fahrmeir, Ludwig, Rita Künstler, Iris Pigeot und Gerhard Tutz (2003): Statistik. Der Weg zur Datenanalyse. 4. Auflage. Berlin, Heidelberg, New York: Springer.

Gehring, Ute W. und Cornelia Weins (2002): Grundkurs Statistik für Politologen. 3. Auflage. Wiesbaden: Westdeutscher Verlag.

Glynn, Carol J., Susan Herbst, Garrett J. O'Keefe and Robert Y. Shapiro (1999): Public Opinion. o.O.: Westview Press.

Keller, Felix (2001): Archäologie der Meinungsforschung. Mathematik und die Erzählbarkeit des Politischen. Konstanz: UVK.

Roth, Dieter (1998): Empirische Wahlforschung. Ursprung, Theorien, Instrumente und Methoden. Opladen: Leske + Budrich.

Schüttemeyer, Suzanne S. (1998): Öffentlichkeit. In: Dieter Nohlen, Rainer-Olaf Schultze und Suzanne S. Schüttemeyer (Hrsg.): Lexikon der Politik, Band 7: Politische Begriffe. München: Beck, 433–434.


Zurück zum Inhalt