|
|
|
Aus: Sieglinde Katharina Rosenberger und Gilg Seeber:
Kopf an Kopf. Meinungsforschung im Medienwahlkampf. Wien:
Czernin Verlag
2003.
III. DIE WISSENSCHAFT VON DER ERFORSCHUNG DER ÖFFENTLICHEN MEINUNG
„Öffentlichkeit“ und „öffentliche Meinung“ spielen eine zentrale Rolle in der
Demokratie(theorie), gleichzeitig gibt es für sie in der Wissenschaft keine
allgemein akzeptierte Definition. Das Lexikon der Politik schreibt:
Öffentlichkeit, mehrdeutiger Begriff, kann verstanden werden [1] als Sphäre
des Politischen bzw. des Staatlichen, [2] als allg. Zugänglichkeit und als
Publikum bzw. Publizität; [3] teilweise auch synonym mit Öffentlicher Meinung
gebraucht. ...
(Schüttemeyer 1998, 434)
Die Demoskopie basiert weitgehend auf einem Konzept, das öffentliche Meinung
als die Summe der individuellen Meinungen sieht; und Umfragen sind das
Instrument, mit dem sich die so verstandene öffentliche Meinung erfragen lässt
– mit welchen Methoden, wird in diesem Kapitel näher erläutert. Es sind
insbesondere statistische Methoden, die die Ergebnisse der Umfrageforschung
auf einer wissenschaftlich-methodischen Basis objektiv absichern sollen. Wie
sich aus oft kleinen Stichproben allgemein gültige Aussagen ableiten lassen
und wie die damit verbundene Unsicherheit abzuschätzen ist, wird in einem
eigenen Abschnitt beschrieben.
Insbesondere wenn es um politikwissenschaftliche Analysen geht, greift das
demoskopische Konzept der öffentlichen Meinung freilich zu kurz: Es ist rein
deskriptiv, missachtet weitgehend Hierarchien, Macht- und
Mehrheitsverhältnisse und die Rolle von Interessensgruppen in der Gesellschaft
und entspricht zudem einem statischen Verständnis, das die Herstellung oder
Formierung öffentlicher Meinung weitgehend ausblendet. Dabei ist es gerade
dieser konstruktivistische Aspekt von Öffentlichkeit, der im Zusammenhang mit
Wahlkampagnen von Bedeutung ist. (Eine ausführliche und umfassende Darstellung
der Wissenschaft von der öffentlichen Meinung findet sich in Glynn et
al. 1999.)
III.1 Öffentliche Meinung als Aggregat individueller Meinungen
In demokratisch verfassten Staaten sind allgemeine Wahlen das zentrale
Instrument, mit dem politische Verantwortung und damit verbunden Macht
verteilt und legitimiert wird. Im Ergebnis einer Wahl manifestiert
sich der Wille des „Demos“ – es ist damit Ausdruck der öffentlichen
Meinung. Und weil Wahlen diese besondere Bedeutung zukommt, werden
die Regeln, nach denen sie durchzuführen sind und nach denen die Macht
den Parteien bzw. den Politikern überantwortet wird durch Gesetze
präzise und detailliert geregelt. Mit anderen Worten: Wahlen sind
nach demokratischen und rechtsstaatlichen Prinzipien organisierte
Verfahren zur Feststellung der öffentlichen Meinung.
Wesentlicher Teil der Wahlverfahren ist die Auszählung der Stimmen.
Diesem Bild des Zählens der Köpfe entspricht die Vorstellung von
öffentlicher Meinung als der Summe der individuellen Meinungen,
die durch das in der Wahlordnung vorgesehene Verfahren
zusammengefasst oder aggregiert werden.
Dieses der Umfrageforschung zugrunde liegende Verständnis des
Begriffes „öffentliche Meinung“ als Aggregat individueller Meinungen
findet in der wissenschaftlichen Diskussion – aus guten Gründen, wie
wir sehen werden – zwar keine allgemeine Akzeptanz, wird aber
dennoch häufig verwendet. Zur Rechtfertigung werden unter anderen
folgende Argumente angeführt:
- Nach diesem recht pragmatischen Konzept ist ziemlich klar
vorgegeben, wie öffentliche Meinung zu beobachten oder zu messen ist:
Man muss die Menschen „nur“ befragen, ihre Antworten sammeln – und
die Summe der Antworten gibt die öffentliche Meinung wieder. Die
Technologie der Meinungsforschung stellt zudem Methoden zur Verfügung,
die es nicht nötig erscheinen lassen, alle Mitglieder der
Öffentlichkeit zu befragen: Es genügt eine im Vergleich zur
Bevölkerung sehr kleine Stichprobe, um die so genannte öffentliche
Meinung präzise einschätzen zu können.
- Befragungen ähneln in ihrer Struktur demokratischen Wahlen, indem
sie Meinungen beziehungsweise Stimmen zählen.
- Aus der Sicht der politischen EntscheidungsträgerInnen reduzieren
sich komplexe politische Fragestellungen oft auf das „einfache“ Problem,
in der Öffentlichkeit eine Mehrheit für das eigene Vorhaben
vorzufinden – wobei Mehrheit in diesem Zusammenhang eine Mehrheit
von Individuen meint.
- Die der Umfrageforschung zugrunde liegende Vorstellung von
öffentlicher Meinung erschließt sich relativ leicht einer Analyse
mit quantitativen Methoden: Wie sich das Wahlergebnis in Zahlen
fassen lässt oder Prozentangaben die Meinungen zu einem politischen
Vorhaben spiegeln, lassen sich auch komplexere Zusammenhänge zahlenmäßig
ausdrücken und beurteilen.
Das wichtigste Erhebungsinstrument der Meinungsforschung (als Erforschung
der öffentlichen Meinung im obigen Sinne) ist – besonders in der medialen
Wahrnehmung des „Meinungsklimas“ im Zuge einer Wahlauseinandersetzung – die
(meistens telefonische) Befragung einer aus der Wohnbevölkerung gezogenen,
repräsentativen Stichprobe. In den folgenden Abschnitten werden wir einen
Einblick in die Arbeitsweise der „Pollsters“ und in ihre
statistisch-methodischen Grundlagen geben. Angemerkt sei an dieser Stelle
bereits, dass sich die Meinungsforschung mit der Rolle der unbeteiligten
Beobachterin nicht zufrieden gibt und sehr wohl in die Bildung von
Meinungen eingreift
(vgl. Kapitel 6).
III.2 Umfragen zur Erforschung der öffentlichen Meinung
Im Bündel der Methoden, derer sich die empirische Sozialforschung bedient,
nehmen wie gesagt Befragungen einen nicht unumstrittenen, aber prominenten
Platz ein. Diekmann (1995; 371) schreibt: „Ob nun aber «Königsweg»
oder «Holzweg», in der Sozialforschung ist die Befragung auf jeden Fall
der meistbeschrittene Weg.“ Er stellt aber auch fest, dass zur Erforschung
von Einstellungen und Meinungen die Methode der Befragung – bei aller
Kritik – sehr wohl unverzichtbar ist. Befragungen werden in dem uns
interessierenden Zusammenhang in der Form von telefonischen Interviews
oder als persönliche Face-to-Face-Interviews durchgeführt, wobei
insbesondere für die Medien arbeitende Institute in aller Regel erstere
anwenden – telefonische Befragungen sind kostengünstiger und weniger
zeitintensiv.
An den Interviews sind – in aller Regel – zwei Personen beteiligt:
InterviewerIn und befragte Person, im Fachjargon als Respondent bzw.
Respondentin bezeichnet. Der/die InterviewerIn legt nach einem
vorgegebenen, standardisierten Katalog allen Befragten die gleichen
Fragen – in vielen Fällen mit vorgegebenen Antwortmöglichkeiten (so
genannte geschlossene Fragen) – im Wesentlichen in derselben Reihenfolge
vor und notiert die gegebenen Antworten. In den modernen Labors der
Meinungsforschungsinstitute erfolgt das Anwählen des im Stichprobenplan
ausgewählten Telefonanschlusses, die Interviewführung und das „Ausfüllen“
des Fragebogens computergesteuert am Bildschirm. Die im Interview erhobenen
Daten werden in eine Datenbank eingetragen und stehen damit unmittelbar
der Bearbeitung zur Verfügung.
Wie die Messvorgänge in den vermeintlich präzisen Naturwissenschaften und
in der Technik durch die jeweiligen Messinstrumente in ihrer Genauigkeit
eingeschränkt sind und Messfehler aufweisen können, so darf insbesondere
auch in den Sozialwissenschaften nicht von der Vorstellung einer absoluten
Präzision ausgegangen werden – wo doch die soziale Realität zudem in mancher
Hinsicht komplexer als die von den Naturwissenschaften untersuchte
Wirklichkeit ist. Es gibt keine Maßstäbe, mit denen die Meinungen und die
Einstellungen von Menschen präzise erfaßt werden könnten – und es sind vor
allem keine unbeteiligten und in diesem Sinne objektiven BeobachterInnen,
die die Messungen durchführen und darüber berichten. Die Formulierung der
Fragestellung, die als (sozial) erwünscht oder unerwünscht antizipierten
Antwortmöglichkeiten, die Persönlichkeit, ja schon die Stimme des/der
InterviewerIn, die augenblickliche persönliche Situation der befragten
Person – all das kann sich auf die Auskunftsfreudigkeit und das
Antwortverhalten auswirken. (Diekmann 1995 bietet eine gut lesbare
Einführung in die empirische Sozialforschung und darin auch eine
umfangreiche Abhandlung zum Thema Befragungen.)
Für den hier interessierenden Zusammenhang lässt sich zusammenfassen: Es
gibt keine exakte Vermessung der Wahlabsichten der im Interview befragten
Personen.
Es ist primär die Sonntagsfrage, die in allen von den Medien in Auftrag
gegebenen und dort veröffentlichten Wahlprognosen zur Feststellung der
Wahlabsichten eingesetzt wird. In gewissen Abwandlungen lautet die Frage
(market nennt sie die „Sonntagsfrage 1“):
Wenn am nächsten Sonntag Nationalratswahlen wären, welcher Partei würden
Sie da Ihre Stimme geben?
Bisweilen wird diese Frage ergänzt durch die Nachfrage („Sonntagsfrage 2“
in market-Terminologie) an
Unentschlossene und NichtwählerInnen etwa
folgenden Wortlauts:
Und welche Partei wäre für Sie am ehesten wählbar?
In der Regel bleiben dann immer noch zweistellige Prozentsätze von
Nicht-Antworten übrig. Deshalb wird „zur Sicherheit“ noch einmal an
alle die Rückerinnerungsfrage (Recall-Frage) nachgesetzt, etwa des
Wortlautes:
Und noch eine letzte Frage: Können Sie mir vielleicht noch sagen,
welche Partei Sie bei der letzten Nationalratswahl gewählt haben?
Wie diese letzte Frage rechnerisch zur Prognose des Wahlverhaltens
verwendet wird, erläutert der nächste Abschnitt. Zunächst soll die
Sonntagsfrage als Messinstrument kritisch betrachtet werden.
Oft wird eingewendet, dass die Sonntagsfrage eher Stimmungen als das
potentielle Verhalten in der Wählerschaft erfasse. In der Zeit
unmittelbar vor der Wahl trifft diese Kritik aber weniger zu: Denn
da der Wahlkampf mit seinen mobilisierenden Elementen das Interesse
an der Wahl weckt und sich die Wählerinnen und Wähler durch die mediale
Berichterstattung und durch Diskussionen in privatem wie beruflichem
Umfeld mit der Entscheidungssituation verstärkt auseinander setzen
(siehe dazu etwa Roth 1998), mag zumindest für einen Teil der
Befragten tatsächlich die Wahlabsicht und nicht bloß eine Stimmung erhoben
werden.
Die Beschäftigung mit der eigenen Entscheidungssituation kann aber
auch „Verunsicherung“ bewirken, weil Positionen und Gegenpositionen,
Pro- und Contra-Argumente wahrgenommen und eigene, wenig reflektierte
Einstellungen hinterfragt werden. Zu dem kommt, dass nach dem
Verständnis vieler Menschen eher die Regierung als das Parlament gewählt
wird – was bedeutet, dass Regierungskonstellationen und Koalitionsvarianten
bei der Entscheidungsfindung eine wesentliche Rolle spielen und die
Wahlentscheidung deshalb schwieriger gestalten, weil somit auch taktische
Überlegungen anzustellen sind. Neben der schon länger zu beobachtenden
Erosion der Parteienbindungen mögen dies im übrigen weitere Gründe für den
hohen Anteil an Un- und Spätentschlossenen sein, wie er in den Umfragen bis
kurz vor dem Wahltermin verzeichnet wird.
Diese Phänomene stellen die MeinungsforscherInnen jedenfalls bei ihrer
Prognose vor das Problem der Zuordnung der Antwortverweigerer und der sich
als (noch) unentschieden Deklarierenden zu den wahlwerbenden Parteien und
der (oft außer acht gelassenen) „Partei der Nichtwähler“. Für diese Zuordnung
werden häufig die Rückerinnerungsfrage, in der Regel nicht bekannt gegebene
Gewichtungen und oft auch subjektive, von Befragung zu Befragung variierende
Einschätzungen für die „Hochschätzung“ verwendet. Wir vermuten, dass
Institute,
die für Medien arbeiten, wegen des engeren Kostenrahmens und der
Schnelllebigkeit
der medialen Welt ihre Prognosen mit geringerem Aufwand erstellen als jene
Institute, die im Auftrag politischer Parteien tätig sind. Für letztere
spielt die Sonntagsfrage ohnehin keine derart zentrale Rolle, sind doch für
Planung und Durchführung der Wahlkampagnen andere Überlegungen von größerer
Bedeutung – etwa die Berücksichtung bestimmter, die künftige Wahlentscheidung
beeinflussender Faktoren.
Für die RezipientInnen der stark auf die Sonntagsfrage fokussierten
Wahlkampfberichterstattung mancher Tageszeitungen und Wochenmagazine ist
jedenfalls die Entstehung und wissenschaftliche Absicherung der publizierten
Prognosen kaum nachzuvollziehen – was gleichermaßen für die wissenschaftliche
Beobachtung gilt und so insgesamt zu einem gehörigen Maß an Skepsis gegenüber
dem Wert der veröffentlichten Wahlprognosen führt. Wie auch die Chronologie
im Anhang zeigt, wird die veröffentlichte Meinungsforschung laufend von
veröffentlichter Kritik an eben dieser Meinungsforschung begleitet; und nach
Keller (2001) zieht sich diese Kritisierbarkeit der Meinungsforschung denn
auch wie ein alter ego durch deren Geschichte.
III.3 Objektivierung durch Statistik
Der Anfang der modernen Meinungsforschung ist eng mit einem Namen und einer
Erfolgsgeschichte verknüpft: George Gallup und seiner Vorhersage des
Wahlausgangs der amerikanischen Präsidentschaftswahlen im Jahre 1936. Zu
jener Zeit waren Befragungen längst zu einem beliebten Mittel in der
politischen Auseinandersetzung und der Produktion von News geworden: Im
Wahljahr 1928 verschickte das populäre Magazin Literary Digest nicht weniger
als 18 Millionen „Wahlzettel“, also Fragebögen, um die Chancen der Kandidaten
um das Präsidentenamt zu eruieren. Vorausgesagt wurde die Wahl von Herbert
Hoover mit 68,2 Prozent der Stimmen, und tatsächlich ist dann Hoover mit 58,8
Prozent gewählt geworden – nicht überraschend, würde man heute angesichts des
enormen Stichprobenumfangs meinen. Allerdings: vier Jahre später wurde nach
Versendung von mehr als zehn Millionen und der Auswertung von 2,3 Millionen
Fragebögen der Sieg des Republikaners Alfred Landon mit 57 Prozent der Stimmen
prophezeit – gewonnen aber hat Franklin D. Roosevelt, während Landon gerade
38,5 Prozent der Stimmen erreichte.
Den Sieger richtig (wenn auch mit einem Fehler von sieben Prozentpunkten)
vorausgesagt hatte damals das von dem jungen Psychologen George Gallup
geleitete American Institute of Public Opinion. Aufgrund einer
Zufallsstichprobe von wenigen tausend Personen konnte Gallup eine
präzisere Prognose als seine Konkurrenten liefern. Und wenn ihm die
Zukunft auch Rückschläge bescheren sollte, so war im Jahr 1936 doch ein
methodischer Durchbruch erreicht: Mit der Verwendung von Zufallsstichproben
wandte er die Methoden der Wahrscheinlichkeitstheorie und der mathematischen
Statistik auf die Meinungsforschung an und stellte so einen wesentlichen
Teil ihrer Arbeitsweisen auf ein solides methodisches Fundament.
Mathematik hat auch, aber nicht nur mit Rechnen zu tun – sie stellt eine
präzise Sprache zur Verfügung und zieht ihre Schlüsse nach den strengen
Regeln der Logik. Eines ihrer Teilgebiete, die Wahrscheinlichkeitstheorie,
stellt die Mittel zur Verfügung, Gesetzmäßigkeiten zu beschreiben, die dem
Zufall unterliegen, und sich diese zunutze zu machen. Ein Beispiel dafür
wurde schon erwähnt: die zufällige Auswahl der zu befragenden Personen.
Die Verwendung statistischer Methoden hat in einem hohen Maße zur
Objektivierung der Meinungsforschung beigetragen: Subjektive Einflüsse
oder Verzerrungen können vermieden werden, aus den erhobenen Daten werden
nach bekannten und anerkannten Verfahren Schlussfolgerungen gezogen und
die damit verbundenen Unsicherheiten angegeben.
Dieser Abschnitt erläutert und illustriert im folgenden in gebotener Kürze
die für das Verständnis und die Einschätzung von
Meinungsforschungsergebnissen wichtigsten Begriffe und geht zum Schluss
auf mögliche Fehlerquellen ein.
Zufallsstichprobe
In der statistischen Terminologie nennt man die Gesamtheit aller
Wahlberechtigten die Grundgesamtheit. Die Wahl selbst ist eine
Totalerhebung dieser Grundgesamtheit, der ja auch jene Personen angehören,
die von ihrem Wahlrecht nicht Gebrauch machen können oder wollen. In der
Meinungsforschung wird nur ein kleiner Teil der Grundgesamtheit befragt.
So waren etwa bei den Nationalratswahlen 2002 knapp sechs Millionen
Menschen wahlberechtigt, während den von den Medien veröffentlichten
Wahlprognosen selten mehr als 500 interviewte Personen zugrunde liegen.
Die Gesamtheit der tatsächlich befragten Personen heißt Stichprobe und
ihre Anzahl die Stichprobengröße oder der Stichprobenumfang.
Eine entscheidende Bedeutung kommt der Auswahl der zu befragenden Personen
aus der Grundgesamtheit zu, also dem Auswahlverfahren. George Gallups große
Innovation war es, den Zufall über diese Auswahl entscheiden zu lassen –
ein Verfahren, bei dem für jede Person von vorne herein fest zu stehen hat,
mit welcher Wahrscheinlichkeit sie in die Stichprobe Aufnahme findet.
Dieses Auswahlverfahren wie auch sein Ergebnis nennt man Zufallsstichprobe.
Es gibt viele in der Praxis erprobte Varianten, Zufallsstichproben
herzustellen; einen ersten Einblick gibt Diekmann (1995). In den
veröffentlichten Meinungsforschungsergebnissen werden allerdings selten
Hinweise zu dem verwendeten Stichprobendesign gegeben.
Der für Zufallsstichproben bisweilen notwendige größere Aufwand wird durch
folgende Vorteile aufgewogen:
- Der Zufall spielt bei der Auswahl der zu befragenden Personen die
Rolle eines unparteiischen, objektiven Schiedsrichters.
- In aller Regel ist man daran interessiert, aus den erhobenen
Stichprobendaten Aussagen über die Grundgesamtheit abzuleiten: Die
Informationen über die befragten Personen sollen z.B. Aufschluss
geben über das beabsichtigte Wahlverhalten der gesamten wahlberechtigten
Bevölkerung. Soll der „Rückschluss“ von der Stichprobe auf die
Grundgesamtheit statistisch zuverlässig sein, ist die Erhebung der
Daten als Zufallsstichprobe eine Voraussetzung.
- Von der Stichprobe auf die Grundgesamtheit zu schließen bedeutet
immer, Aussagen über die Grundgesamtheit aufgrund unvollständiger
Informationen zu machen. Damit gehen die Schlussfolgerungen zwangsläufig
mit einem gewissen Maß an Unsicherheit einher, ist mit Fehlern zu rechnen.
Zufallsstichproben erlauben, die Größenordnung dieser möglichen Fehler
abzuschätzen.
- Bei Zufallsstichproben ist gesichert, dass größere Stichproben auch
tatsächlich zusätzliche Informationen und damit geringere Unsicherheiten
bzw. kleinere Fehler liefern.
In der Presseberichterstattung finden sich nur selten schlüssige Hinweise
darauf, ob die Befunde auf Zufallsstichproben in dem oben angeführten präzisen
Sinn beruhen.
Repräsentativität
Meinungsforschungsinstitute legen in ihrer Darstellung Wert auf
„Repräsentativität“ ihrer Stichproben. Im allgemeinen Sprachgebrauch
meint man damit, dass die Stichproben in kleinem Maßstab ein Abbild der
Grundgesamtheit darstellen. In der Statistik ist Repräsentativität
allerdings kein präzise definierter Begriff. Pragmatisch betrachtet wäre
es wohl auch zu viel verlangt, wenn eine kleine Stichprobe ein
detailgerechtes Bild der Grundgesamtheit wiedergeben soll. Wünschenswert
ist, dass sich die Stichprobe bezüglich gewisser, meist soziodemografischer
Merkmale auf die Grundgesamtheit abbilden lässt. Dazu ist es notwendig,
die Verteilung dieser Merkmale in der Grundgesamtheit zu kennen. Für die
Wohnbevölkerung ist die Verteilung von Geschlecht, Alter, Schulbildung und
Beruf aus amtlichen Erhebungen wie der Volkszählung auch auf örtlicher
Ebene relativ gut bekannt. Sind nun in der Stichprobe weniger Frauen
vertreten, als dies aufgrund der Geschlechtsverteilung in der Bevölkerung
der Fall sein sollte, lässt sich dieser Umstand durch Gewichtung korrigieren.
Um es an einem einfachen Zahlenbeispiel zu demonstrieren: Nehmen wir an,
in der interessierenden Bevölkerung leben etwa 52 Prozent Frauen und 48
Prozent Männer, in der Stichprobe finden sich jedoch nur 46 Prozent Frauen.
Dann gewichtet man die von Frauen stammenden Beobachtungen mit dem
Gewichtungsfaktor 52/46=1,13 und die bei Männern erhobenen Daten mit dem
Faktor 48/54=0,89. Bildlich gesprochen heißt dies, dass jede in die
Stichprobe aufgenommene Frau für 1,13 Frauen „zählt“.
In etwas salopper Sprechweise wird eine Stichprobe dann als repräsentativ
bezeichnet, wenn sie sich hinsichtlich der oben angesprochenen
soziodemografischen Merkmale mittels Gewichtung auf die Grundgesamtheit
abbilden lässt.
In der Praxis ist die Repräsentativität dann von größerer Bedeutung, wenn
es beispielsweise gilt, Anteilswerte oder Durchschnittswerte in der G
rundgesamtheit zu schätzen. Für analytische Surveys, die sich eher der
Untersuchung von Zusammenhängen, Effekten oder Wirkungen widmen – also
qualitative Fragen (nach dem „Wie?“ oder „Warum?“) interessanter sind
als quantitative Fragen (nach dem „Wie groß?“ oder „Wie viel?“) – ist die
Repräsentativität der Stichprobe von geringerer Bedeutung.
Gewichtung ist eine bei manchen Meinungsforschungsinstituten beliebte
Methode zur „Hochschätzung“ der Sonntagsfrage, um auf diese Weise das
Problem der Antwortverweigerer oder Nicht-WählerInnen zu umgehen:
Ausgehend von der Annahme, dass die Rückerinnerungsverzerrung in Richtung
und Stärke der Verzerrung der Sonntagsfrage entspricht, wird der
Gewichtungsfaktor als Verhältnis des tatsächlichen letzten Wahlergebnisses
mit den Anteilswerten aus der Rückerinnerungsfrage bestimmt (
Diekmann 1995, 367). Diese Vorgangsweise kann eine Summe von 100% der
Anteilswerte nicht garantieren. Von den Instituten werden deshalb
zusätzlich noch weitere, oft subjektiv zustande gekommene Gewichtungen
angewandt.
Tabelle III.1 demonstriert die Berechnungen am Beispiel der letzten
Hochrechnung des market-Instituts
vom 21.11.2002 und vergleicht das
Ergebnis mit der publizierten Prognose.
Tabelle III.1:
Gewichtung mit der Rückerinnerungsfrage
|
SPÖ
|
ÖVP
|
FPÖ
|
Grüne
|
Wahlergebnis
1999
|
33,2%
|
26,9%
|
26,9%
|
7,4%
|
Rückerinnerung
|
21%
|
30%
|
16%
|
8%
|
Gewichtungsfaktor
|
1,58
|
0,90
|
1,68
|
0,93
|
Stichprobe
|
26%
|
38%
|
7%
|
10%
|
gewichtete
Stichprobe
|
41,1
|
34,1
|
11,8
|
9,3%
|
Prognose
vom 21.11.
|
39%
|
38%
|
11%
|
9%
|
Quelle:
market, telefonische CATI-Interviews,
repräsentativ für die österreichische Bevölkerung ab 18 Jahren;
Der
Standard vom
21.11.2002; eigene Berechnungen
Der induktive Schluss auf die Grundgesamtheit
Durch die Einführung von Zufallsstichproben in die Meinungsforschung konnte
George Gallup die Stichprobengrößen ohne Qualitätseinbußen drastisch senken.
Auch heute noch erstaunt, wie die Antworten von 400 Personen auf die
Sonntagsfrage Auskunft über fast sechs Millionen Wahlberechtigte geben können.
In der Statistik heisst die Ableitung von allgemeinen, d.h. für die
Grundgesamtheit gültigen Aussagen aus Stichprobeninformationen ein induktiver
Schluss. Weil diese Schlussfolgerungen aufgrund unvollständiger Informationen
erfolgen, sind sie auch nur mit beschränkter Präzision möglich und mit einem
gewissen Grad an Unsicherheit behaftet. Es ist Aufgabe der Statistik,
Verfahren zur Verfügung zu stellen, die unter effizienter Ausnutzung der in
den erhobenen Daten enthaltenen Informationen möglichst genaue Aussagen über
die Grundgesamtheit ermöglichen und zugleich das Maß an erreichter Präzision
angeben können.
Wenn überhaupt, geben Meinungsforschungsinstitute und Medien maximale
Schwankungsbreiten als Maßzahlen für die Genauigkeit der von ihnen
berichteten Schätzwerte an. Das euphemistische Wort „maximal“ ist in diesem
Zusammenhang entweder nicht gerechtfertigt oder würde, wenn ernst genommen,
wenig Information bieten. Mit dem Wort „Schwankungsbreite“ ist der
statistische Begriff des Konfidenzintervalls gemeint: Diesem liegt die Idee
zugrunde, dass jede einzelne Zufallsstichprobe dadurch, dass andere Personen
befragt werden, unterschiedliche Ergebnisse liefert. Würden diese Ergebnisse
große Unterschiede aufweisen bzw. stark schwanken, wäre das ein Hinweis
darauf, dass die aus den Stichproben gezogenen Schlüsse ungenau sind. Kleine
Schwankungen hingegen sind ein Indiz für ein hohes Maß an Präzision. Einen
Eindruck über die durch die Stichprobenerhebung bedingte Variabilität
vermittelt Schaubild III.1, das die Rohdaten der beiden
Meinungsforschungsinstitute SORA
und market
direkt vergleicht.
Die Rohdaten unterscheiden sich auch dann, wenn der Erhebungszeitraum in etwa
der gleiche ist.
Zu bedenken sind auch die unterschiedlichen Stichprobengrößen.
market gibt
die Schwankungsbreite mit ±5 Prozenten an, d.h. das Konfidenzintervall ist
10 Prozentpunkte breit. Das bedeutet, dass in den Intervallen, deren
Untergrenze der Schätzwert minus 5 Prozentpunkte und deren Obergrenze der
Schätzwert plus 5 Prozentpunkte ist, im Fall von 100 hypothetischen
Wiederholungen der Stichprobenerhebungen 95 Mal der tatsächliche Anteilswert
in der Grundgesamtheit enthalten ist. Für eine Stichprobe vom Umfang N=1.000,
wie im Fall der SORA-Erhebungen, liegt
die Schwankungsbreite bei etwa ±3
Prozenten.
Das klingt einigermaßen kompliziert und tatsächlich sind Konfidenzintervalle
eine komplexe Angelegenheit, zu deren genauerer Erläuterung wir auf
einführende Statistiklehrbücher wie z.B. Fahrmeir et al. (2003) oder
Gehring/Weins (2002) verweisen.
Intuitiv einfacher ist es, Wahrscheinlichkeitsintervalle für die aus der
Stichprobe geschätzten Anteilswerte anzugeben. Tabelle 3.2 enthält für die
SORA-Umfragen neben den aus den Rohdaten ermittelten Anteilen auch deren
95%-Wahrscheinlichkeitsintervalle, die leichter zu interpretieren sind:
Mit einer Wahrscheinlichkeit von 95 Prozent liegt der tatsächliche Anteil
innerhalb der angegebenen Grenzen. Auch dies bedeutet eine Abschätzung
der Präzision der Schätzwerte.
Tabelle III.2: Antworten auf die Frage „Welche Partei werden Sie bei den
Nationalratswahlen am 24. November wählen?“
Woche
|
Datum
|
Wahlabsicht
|
Anteil
|
95%-Intervall
|
37
|
15.9.
|
SPÖ
|
28
|
25,4–30,7
|
|
|
ÖVP
|
29
|
26,4–31,7
|
|
|
FPÖ
|
7
|
5,6–
8,6
|
|
|
Grüne
|
12
|
10,2–14,0
|
|
|
unentschieden
|
23
|
20,6–25,5
|
39
|
27.9.
|
SPÖ
|
23
|
20,4–25,7
|
|
|
ÖVP
|
24
|
21,4–26,7
|
|
|
FPÖ
|
6
|
4,6–
7,6
|
|
|
Grüne
|
11
|
9,1–13,0
|
|
|
unentschieden
|
35
|
32,1–38,0
|
41
|
10.10.
|
SPÖ
|
24
|
21,4–26,7
|
|
|
ÖVP
|
25
|
22,4–27,7
|
|
|
FPÖ
|
6
|
4,6–
7,6
|
|
|
Grüne
|
9
|
7,3–10,8
|
|
|
unentschieden
|
36
|
33,1–39,0
|
42
|
19.10.
|
SPÖ
|
26
|
23,3–28,8
|
|
|
ÖVP
|
22
|
19,5–24,6
|
|
|
FPÖ
|
6
|
4,6–
7,6
|
|
|
Grüne
|
8
|
6,4–
9,8
|
|
|
unentschieden
|
37
|
34,0–40,0
|
43
|
27.10.
|
SPÖ
|
25
|
22,4–27,7
|
|
|
ÖVP
|
23
|
20,4–25,7
|
|
|
FPÖ
|
7
|
5,5–
8,7
|
|
|
Grüne
|
10
|
8,2–11,9
|
|
|
unentschieden
|
35
|
32,1–38,0
|
45
|
10.11.
|
SPÖ
|
26
|
23,3–28,8
|
|
|
ÖVP
|
27
|
24,3–29,8
|
|
|
FPÖ
|
5
|
3,7–
6,4
|
|
|
Grüne
|
9
|
7,3–10,8
|
|
|
unentschieden
|
33
|
30,1–35,9
|
47
|
20.11.
|
SPÖ
|
27
|
24,3–29,8
|
|
|
ÖVP
|
31
|
28,2–33,9
|
|
|
FPÖ
|
7
|
5,5–
8,7
|
|
|
Grüne
|
9
|
7,3–10,8
|
|
|
unentschieden
|
25
|
22,4–27,7
|
Quelle:
SORA (repräsentative Telefonumfrage der
Bevölkerung ab 18 Jahren; Stichprobenumfang jeweils N=1.000,
in der 37. KW N=1.129; Befragungszeitraum: jeweils ca. drei Tage bis
zum angegeben Datum) – siehe auch Hofinger/Ogris/Thalhammer 2003;
eigene Berechnungen
Die Schwankungsbreite für die in Tabelle III.2 angegeben Anteilswerte
ist ±3 Prozent, d.h. die Schwankungsintervalle sind 6 Prozentpunkte breit.
Die Wahrscheinlichkeitsintervalle sind meist etwas schmäler.
Zum Vergleich gibt Tabelle III.3 dieselben Angaben für die market-Umfragen
wieder. Die Schwankungsbreite wird dort mit ±5 Prozent angegeben.
Tabelle III.3: Antworten auf die
Sonntagsfrage 1 „Wenn am nächsten Sonntag Nationalratswahlen wären, welcher Partei würden
Sie da Ihre Stimme geben?“
Woche
|
Datum
|
Wahlabsicht
|
Anteil
|
95%-Intervall
|
37
|
10.9.
|
SPÖ
|
26
|
21,8–30,4
|
|
|
ÖVP
|
31
|
26,6–35,6
|
|
|
FPÖ
|
3
|
1,6–
4,9
|
|
|
Grüne
|
12
|
9,0–15,4
|
|
|
unentschieden
|
28
|
23,7–32,5
|
38
|
18.9.
|
SPÖ
|
29
|
24,7–33,5
|
|
|
ÖVP
|
22
|
18,1–26,2
|
|
|
FPÖ
|
5
|
3,1–
7,3
|
|
|
Grüne
|
11
|
8,1–14,2
|
|
|
unentschieden
|
32
|
27,5–36,6
|
39
|
26.9.
|
SPÖ
|
15
|
11,7–18,7
|
|
|
ÖVP
|
24
|
19,9–28,3
|
|
|
FPÖ
|
5
|
3,1–
7,3
|
|
|
Grüne
|
14
|
10,8–17,6
|
|
|
unentschieden
|
42
|
37,2–46,9
|
40
|
3.10.
|
SPÖ
|
18
|
14,4–21,9
|
|
|
ÖVP
|
31
|
26,6–35,6
|
|
|
FPÖ
|
3
|
1,5–
4,9
|
|
|
Grüne
|
10
|
7,3–13,1
|
|
|
unentschieden
|
39
|
34,3–43,8
|
41
|
10.10.
|
SPÖ
|
16
|
12,6–19,7
|
|
|
ÖVP
|
24
|
19,9–28,3
|
|
|
FPÖ
|
12
|
9,0–
15,4
|
|
|
Grüne
|
12
|
9,0–15,4
|
|
|
unentschieden
|
35
|
30,4–39,7
|
42
|
17.10.
|
SPÖ
|
23
|
19,0–27,2
|
|
|
ÖVP
|
19
|
15,3–23,0
|
|
|
FPÖ
|
6
|
3,9–
8,5
|
|
|
Grüne
|
9
|
6,4–12,0
|
|
|
unentschieden
|
41
|
36,2–45,9
|
43
|
24.10.
|
SPÖ
|
21
|
17,2–25,1
|
|
|
ÖVP
|
25
|
20,9–29,4
|
|
|
FPÖ
|
5
|
3,1–
7,3
|
|
|
Grüne
|
10
|
7,3–13,1
|
|
|
unentschieden
|
38
|
33,3–42,8
|
44
|
30.10.
|
SPÖ
|
21
|
17,2–25,1
|
|
|
ÖVP
|
29
|
24,7–33,5
|
|
|
FPÖ
|
6
|
3,9–
8,5
|
|
|
Grüne
|
8
|
5,6–10,8
|
|
|
unentschieden
|
35
|
30,4–39,7
|
45
|
6.11.
|
SPÖ
|
21
|
17,2–25,1
|
|
|
ÖVP
|
32
|
27,5–36,6
|
|
|
FPÖ
|
5
|
3,1–
7,3
|
|
|
Grüne
|
10
|
7,3–13,1
|
|
|
unentschieden
|
30
|
25,6–34,6
|
46
|
14.11.
|
SPÖ
|
23
|
19,0–27,2
|
|
|
ÖVP
|
40
|
35,3–44,8
|
|
|
FPÖ
|
7
|
4,7–
9,7
|
|
|
Grüne
|
8
|
5,6–10,8
|
|
|
unentschieden
|
20
|
16,2–24,1
|
47
|
20.11.
|
SPÖ
|
23
|
19,0–27,2
|
|
|
ÖVP
|
33
|
28,5–37,7
|
|
|
FPÖ
|
5
|
3,1–
7,3
|
|
|
Grüne
|
6
|
3,9–
8,5
|
|
|
unentschieden
|
32
|
27,5–36,6
|
Quelle: market (repräsentative
CATI-Bevölkerungsumfrage ab 18 Jahren, Stichprobenumfang jeweils N=400,
Befragungszeitraum: jeweils ca. drei Tage bis zum angegeben Datum);
eigene Berechnungen
Prognose
Es bedeutet, noch einen Schritt weiter zu gehen, aus aktuellen Meinungen
und Verhaltensweisen auf zukünftige Handlungen zu schließen. Dazu ist zu
sagen, dass es kein empirisch oder theoretisch abgesichertes statistisches
Verfahren gibt, das aus der Sonntagsfrage auch nur halbwegs verlässlich das
Wahlverhalten am Wahlsonntag voraussagen lässt. Und mag die mediale
Vermittlung – vielleicht auch nur unterschwellig – etwas anderes vermitteln:
Eine auf der Sonntagsfrage beruhende Prognose ist keine Prognose in jenem
präzisen Sinne, wie sie in der Statistik gebraucht wird.
Wir haben uns hier dafür entschieden, das Wort Prognose für die aus der
Sonntagsfrage ermittelten Anteilswerte der Parteien zu verwenden und
Behelfsbegriffe wie z.B. Hochschätzung nicht zu gebrauchen. An dieser
Stelle sei jedoch explizit darauf hingewiesen, dass damit, entgegen
dem eigentlichen Wortsinn, keine Projektion auf die zukünftige Wahl erfolgt.
Fehlerquellen
Auch wenn der Titel dieses Abschnittes die Objektivierungsfunktion der
Statistik hervorhebt und in diesem Zusammenhang der Quantifizierung der
mit statistischen Schlussweisen einhergehenden Unsicherheit und der
Abschätzung der Größenordnung solcher möglicher Fehler Beachtung geschenkt
wird, soll doch betont werden, dass auf diese Weise lediglich der
Zufallsfehler der Stichprobe als nur eine mögliche Fehlerquelle
thematisiert wird.
Für eine Gesamtabschätzung sind weiters zu berücksichtigen:
- systematische, durch das Auswahlverfahren hervorgerufene Fehler;
- Verzerrungen, die nicht direkt durch das Auswahlverfahren bedingt
sind;
- Fehler, die durch Fragebogendesign, Interviewereffekte o.ä.
entstehen.
Erstere Fehler lassen sich in vielen Fällen durch geeignete Gewichtungen
korrigieren; die beiden anderen Fehlerquellen sind in ihrem Effekt auf
das Gesamtergebnis im konkreten Fall nur aufwendig bis gar nicht
abzuschätzen.
III.4 Standards und Verhaltenskodex der Meinungsforschung
Öffentliche Meinungsforschung ist ein Teil des Fachgebietes der Markt-
und Sozialforschung und unterliegt damit auch jenen professionellen und
ethischen Anforderungen, die von fachlich zuständigen wissenschaftlichen
Gesellschaften und Berufsvereinigungen als Standards vereinbart sind.
Darüber hinaus stellt public opinion research im Vergleich zur
kommerziellen Marktforschung einen besonders sensiblen Bereich dar,
weil sie mit Themen breiteren öffentlichen Interesses und Emotionen
befasst ist. Zudem müssen ihre Befunde Gegenstand öffentlicher Debatte sein.
Die European Society for Opinion and Market Research, ESOMAR
(www.esomar.org),
und die World Association for Public Opinion Research, WAPOR
(wapor.unl.edu),
haben aus diesem Grunde besondere Regelungen für die öffentliche
Meinungsforschung verabschiedet. Diesen professionellen Verhaltenskodex
erkennt auch der Verband der Marktforscher Österreichs,
VMÖ (www.vmoe.at),
in seinen Statuten als verbindlich für seine Mitglieder an. Im
folgenden fassen wir einige über die kommerzielle Marktforschung
hinaus gehende, für die politische Meinungsforschung wesentliche
Punkte zusammen. Der vollständige Text kann über den oben angegebenen
Link der ESOMAR eingesehen bzw. bezogen werden.
- Die Gültigkeit und der Wert einer öffentlichen Meinungsumfrage
hängt von drei wesentlichen Überlegungen ab:
- die Art der eingesetzten Forschungstechniken und deren Tauglichkeit
für die aktuelle Anwendung;
- die Aufrichtigkeit und Objektivität der die Studie durchführenden
Organisation;
- die Art, in der Befunde präsentiert und angewendet werden.
- Für die Veröffentlichung von Befunden aus öffentlichen
Meinungsumfragen in Printmedien gelten als zusätzliche Anforderungen
die deutliche Angabe
- des Namens der die Umfrage durchführenden Organisation;
- der in der Stichprobe repräsentierten Grundgesamtheit;
- der tatsächlich erreichten Stichprobengröße und dem erfassten
geografischen Gebiet;
- des Zeitraums der Feldarbeit;
- der eingesetzten Stichprobenmethode;
- der Methode, mit der die Informationen gesammelt wurden
(z.B. telefonische oder persönliche Interviews);
- der exakten Formulierung der relevanten Fragen.
- Generell sollten bei der Veröffentlichung von
Meinungsforschungsergebnissen die Anteile jener Personen angegeben
werden, die keine Antwort gegeben haben. Bei den Wahlumfragen sind
die Anteile jener Personen auszuweisen, die angegeben haben, nicht
zur Wahl gehen zu wollen.
- In Berichten über Wahlumfragen ist anzuführen, ob die angegebenen
Zahlen die Antwortverweigerer und/oder NichtwählerInnen beinhalten
oder nicht.
III.5 Öffentliche Meinung ist mehr als das Aggregat individueller Meinungen
Das von der Demoskopie unterstellte Konzept der öffentlichen Meinung
versteht diese als Summe individueller Meinungen. Das ist aber nicht
die einzige und auch nicht die in der wissenschaftlichen Diskussion
allgemein akzeptierte Definition des Begriffes
(siehe Glynn et al. 1999).
Das erste Kapitel des
vorliegenden Buches hat bereits darauf hingewiesen, dass öffentliche
Meinung gemacht wird und dass die Umfrageforschung diese öffentliche
Meinung nicht nur schlicht misst oder beobachtet, sondern, zusammen
mit anderen Akteuren, selbst massiv in den Meinungsbildungsprozess,
also in die Formierung der öffentlichen Meinung eingreift. Diese Rolle
des Umfragebusiness – als nur einen Aspekt im Verständnis von
öffentlicher Meinung als Konstrukt – aufzuzeigen, ist eines der Hauptanliegen dieses Buches.
Zitierte Literatur
Diekmann, Andreas (1995): Empirische Sozialforschung. Grundlagen, Methoden,
Anwendungen. Reinbek bei Hamburg: Rowohlt.
Fahrmeir, Ludwig, Rita Künstler, Iris Pigeot und Gerhard Tutz
(2003): Statistik. Der Weg zur Datenanalyse. 4. Auflage.
Berlin, Heidelberg, New York: Springer.
Gehring, Ute W. und Cornelia Weins (2002): Grundkurs
Statistik für Politologen. 3. Auflage.
Wiesbaden: Westdeutscher Verlag.
Glynn, Carol J., Susan Herbst, Garrett J. O'Keefe and Robert Y. Shapiro
(1999): Public Opinion. o.O.: Westview Press.
Keller, Felix (2001): Archäologie der Meinungsforschung.
Mathematik und die Erzählbarkeit des Politischen.
Konstanz: UVK.
Roth, Dieter (1998): Empirische Wahlforschung. Ursprung, Theorien,
Instrumente und Methoden. Opladen: Leske + Budrich.
Schüttemeyer, Suzanne S. (1998): Öffentlichkeit. In: Dieter Nohlen,
Rainer-Olaf Schultze und Suzanne S. Schüttemeyer (Hrsg.): Lexikon der Politik,
Band 7: Politische Begriffe. München: Beck, 433434.
Zurück zum Inhalt
|