Читать книгу Quantitative Methoden kompakt - Nicole Burzan - Страница 9

Оглавление
3Der quantitative Forschungsprozess: Logik und Forschungsschritte

3.1 Die Logik quantitativer Forschung

Was ist das Charakteristische an der quantitativen Forschungstradition, die sich als einer der beiden Hauptstränge »quantitativer« und »qualitativer« Forschung herausgebildet hat und sich von der »anderen« Seite nicht selten strikt abgrenzt (wie auch umgekehrt)? Studienanfänger könnten hier spontan meinen, dass es um Zählen und Rechnen gehe. Wenn jemand mit Zahlen arbeitet, reine Häufigkeiten von etwas betrachtet, forsche er quantitativ, wenn er sich aber dann, in die Tiefe gehend, den Inhalten zuwende, sei er ein qualitativ Forschender. Diese Ansicht ist arg verkürzt, man könnte auch sagen: falsch Im Folgenden sollen demgegenüber die Charakteristika der quantitativen Forschung vorgestellt werden, die sich vor allem durch eine bestimmte Forschungslogik auszeichnen.

 Das Ziel empirischer Forschung besteht ganz allgemein darin, Zusammenhänge zu beschreiben und zu erklären: Sind beispielsweise polnische Migrantinnen besser in den Arbeitsmarkt integriert als türkische? Forschende untersuchen solche Zusammenhänge mit quantitativen Methoden, indem sie herausarbeiten, welche Muster sich in vielen Fällen zeigen, die dann als Hinweis für Ursache-Wirkungs-Zusammenhänge dienen. Wenn etwa in sehr vielen Fällen die Herkunft aus bestimmten Ländern und die Erfahrung von Arbeitslosigkeit miteinander einhergehen, nimmt man an, dass dieses Ergebnis nicht zufällig zustande gekommen ist, sondern dass bestimmte Merkmale (der Migrantinnen, des Arbeitsmarkts, der Personalrekrutierung etc.) für diesen Zusammenhang mitverantwortlich sind, was sich wiederum empirisch überprüfen lässt.

 Die Basis der quantitativen Forschung besteht daher in möglichst vielen Untersuchungsfällen, um solche Muster zu erkennen und um möglichst allgemeine, für große Zielgruppen repräsentative Aussagen treffen zu können. Der Forscher will etwa nicht nur etwas über 300 Befragte aussagen, sondern über seine Zielgruppe, z. B. Migrantinnen in Deutschland, insgesamt (s. dazu Kap. 5).

 Forschende gehen nach der quantitativen Forschungslogik dabei so vor, dass sie sich vor der Datenerhebung überlegen, welche Aspekte und welche Erklärungsfaktoren wichtig sind. Sie präzisieren und strukturieren ihre Forschungsfrage auf der Grundlage des bisherigen Forschungsstands, formulieren konkrete Fragestellungen und Hypothesen und entwickeln aus dieser Systematik heraus ein Erhebungsinstrument wie einen Fragebogen. Die erst dann erhobenen Daten werden im Anschluss so ausgewertet, dass man die Hypothesen überprüfen und daraus Schlussfolgerungen für die Forschungsfragen ziehen kann. Der Schwerpunkt liegt darin, theoretische Annahmen und Erklärungen an konkreten Forschungsgegenständen zu überprüfen, weniger darin, Theorien erst durch die empirische Arbeit im Forschungsfeld zu entwickeln.

 Es ergibt sich ein vergleichsweise linearer Forschungsablauf, in dem bestimmte Schritte nach einem Regelgerüst nacheinander folgen. Dies bedeutet nicht, dass der Forscher keine methodischen Entscheidungen mehr zu treffen hätte, denn die allgemeinen Faustregeln müssen ja jeweils auf das Forschungsthema angewendet werden, wie Beispiele noch genauer zeigen werden.

 Weiterhin sind die Datenerhebungsinstrumente standardisiert, das heißt, in einer Befragung sind die Fragen und ihre Reihenfolge sowie (meist) die Antwortmöglichkeiten vorgegeben; bei einer Beobachtung und Inhaltsanalyse werden die relevanten Informationen in ein vorab ausgearbeitetes Kategoriensystem eingetragen. Eine Interviewerin sollte also z. B. nicht spontan den Fragebogen an die von ihr vermutete Sprache des befragten Jugendlichen anpassen, ein Beobachter keine Kategorien durch andere ersetzen. Die Standardisierung soll die Vergleichbarkeit der Daten erhöhen, zu einer möglichst großen Objektivität des Vorgehens beitragen und schließlich im Fall von Befragungen den Teilnehmenden eine Antwort durch die Vorgabe von Aspekten und Antwortmöglichkeiten erleichtern.

 Die Datenauswertung erfolgt typischerweise mit Hilfe statistischer Verfahren. Tabellen mit Prozentangaben, grafische Darstellungen, Mittelwerte und andere Maßzahlen gehören hierzu. Wichtig ist, dass der Forscher die Ergebnisse systematisch auf die zuvor erarbeiteten Hypothesen bezieht. Andernfalls ist die Gefahr eines ungewollten »Datenfriedhofs« mit vielen Detailinformationen ohne hinreichenden Bezug zur Fragestellung groß.

Dieses hypothesenprüfende Vorgehen folgt wissenschaftstheoretisch – das kann hier nur als kurzer Exkurs angedeutet werden – einer deduktiven Logik und dem damit verbundenen Falsifikationsprinzip des Kritischen Rationalismus. Der Forscher schließt deduktiv vom Allgemeinen, der Hypothese/Theorie, auf das Besondere, die Einzelfälle und nicht induktiv von Einzelfällen auf eine allgemeine Regel. In den Naturwissenschaften ist diese Logik weniger umstritten als in den Sozialwissenschaften, weil Forscher dort oft Gesetze aufstellen können: Äpfel fallen vom Baum auf den Boden aufgrund der Schwerkraft. Dabei kann der Forscher vom Gesetz auf jeden einzelnen Apfel schließen. Bei sozialen Phänomenen und Prozessen sind Zusammenhänge weniger deterministisch. Wenn etwa Frauen in der Regel eine längere Lebenserwartung als Männer haben, bedeutet das nicht, dass jede Frau länger lebt als ihr gleichaltriger Partner. Dennoch gilt die deduktive Logik als Prinzip der quantitativen Methoden: Der Forscher prüft eine allgemeine These an Einzelfällen. Die Empirie kann die These – ein methodisch sauberes Vorgehen vorausgesetzt – bestätigen. Oder sie kann sie widerlegen, »falsifizieren«. In diesem Fall muss der Forscher die Hypothese modifizieren. Wenn die These bestätigt wird, kann er sie unter »härteren« Bedingungen weiter testen, z. B. mit einem größeren Geltungskreis, etwa nicht nur in Bayern, sondern in Deutschland oder weltweit. Nach dem Ansatz des »Kritischen Rationalismus« (vgl. als klassischen Text Popper 2002 [1934]) lassen sich Hypothesen nicht verifizieren, d. h. als wahr beweisen, weil nie alle denkbaren Fälle, Orte und Zeitpunkte untersucht werden können. Für eine Falsifikation ist dagegen grundsätzlich nur ein einziger widersprüchlicher Fall notwendig. Zumindest kann der Forscher festlegen, wann die Hypothese als falsifiziert gilt, etwa wenn die Lebenserwartung von Frauen nicht »statistisch signifikant« höher ist als von Männern. Aus der Falsifikation von Theorien oder andererseits ihrer Bewährung lassen sich aus dieser Sicht eindeutigere Erkenntnisse gewinnen als aus einem Versuch der Verifikation.

Die folgende Tabelle fasst in der linken Spalte die Merkmale der quantitativen Forschungslogik nochmals zusammen. Es wird deutlich, dass diese Merkmale zwar auch den Umgang mit Zahlen beinhalten (z. B. durch die Anwendung statistischer Verfahren, Häufigkeitsverteilungen als Befunde), sich aber keineswegs darin erschöpfen.

Die rechte Spalte zeigt spiegelbildlich die Charakteristika qualitativer Forschungslogik, die in dieser Einführung nicht vertieft werden können (s. dazu z. B. Flick 2007, Przyborski/Wohlrab-Sahr 2013). Typisch dafür sind unter anderem nicht standardisierte Erhebungsinstrumente (offene Interviews in Gesprächsform, unstrukturierte Beobachtungen etc). Ein wichtiger Aspekt besteht darin, dass der Forscher offen an die Fragestellung herangeht. Dies bedeutet nicht, dass er gar nicht erst eine Fragestellung formulieren müsste. Aber er ist offen für Aspekte, die sich erst aus dem Material ergeben, die er nicht durch Vorab-Überlegungen bereits vor der Erhebung festgelegt hat. Entsprechend besteht ein häufiges Ziel qualitativer Verfahren darin, ein theoretisches Konzept zu entwickeln (nicht zu prüfen), das zugleich bereits auf empirische Daten bezogen ist. Damit streben auch qualitative Untersuchungen die Formulierung allgemeinerer theoretischer Aussagen an. Aufgrund der Forschungslogik und des konkreten Vorgehens verallgemeinern sie jedoch auf anderen Wegen als durch statistische Repräsentativität. Qualitative und quantitative Forschung unterscheiden sich nicht allein durch das methodische Vorgehen im engeren Sinne, sondern bereits durch methodologische bzw. erkenntnistheoretische Herangehensweisen, das heißt durch Grundannahmen, die die Methoden beeinflussen (z. B. Annahmen dazu, welche Rolle die Situation und generell der Kontext für Verhaltensweisen einnehmen und wie man sie berücksichtigt).

Tab. 3.1: Die Forschungslogik quantitativer und qualitativer Methoden

Quantitative MethodenQualitative Methoden
Schwerpunkt: Beschreibung oder theoriegeleitete ErklärungSchwerpunkt: Beschreibung oder Theorieentwicklung
Herausarbeitung von Mustern und Regelmäßigkeiten durch die Betrachtung vieler FälleUntersuchung von Zusammenhängen im Kontext jeweils von Einzelfällen bei eher wenigen Fällen
Eher linearer Forschungsablauf nach Regelgerüst; u. a. Klärung vor der Datenerhebung, was man wozu erhebt → Ergebnisse können Hypothesen oder Forschungsfragen zugeordnet werdenEher nicht linearer Forschungsablauf; u. a. Offenheit für Aspekte, die sich während der Forschung ergeben, z. B. Prioritäten der Befragten oder Kontexteffekte
Trennung von Datenerhebung und AuswertungTrennung dieser Schritte nicht unbedingt, auch Hin-und-Her-Bewegung möglich
Standardisierte DatenerhebungNicht standardisierte Datenerhebung
Auswertung oft mit statistischen VerfahrenStatistik untypisch (stattdessen z. B. hermeneutische Verfahren)
Meist statistische Repräsentativität angestrebtKein Anspruch auf Repräsentativität, Verallgemeinerung z. B. durch Typenbildung oder Erkennen einer allgemeinen Struktur am Einzelfall

Oft wird eine Trennlinie nicht zwischen quantitativen und qualitativen Methoden gezogen, sondern präziser zwischen quantitativer/qualitativer Forschung einerseits und interpretativer Forschung andererseits. Letztere zeichnet sich dadurch aus, dass sie fallrekonstruktiv vorgeht, dass sie also Sinnzusammenhänge im Kontext am Einzelfall herausarbeitet und erst dann z. B. im Fallvergleich Typen konstruiert (vgl. z. B. die Beiträge in Mey/ Mruck 2014, insbesondere von Hans-Georg Soeffner und von Ronald Hitzler; Keller 2012).

Es geht dabei nicht darum, sich zu entscheiden, welche Forschungslogik man prinzipiell »besser« findet. Vertreter der Richtungen haben verschiedene Vorwürfe gegen die jeweils andere Richtung vorgetragen. So pauschal stimmen sie jedoch auf beiden Seiten nicht. Weder ist beispielsweise die qualitative bzw. die interpretative Forschung per se »lebensnäher« (bzw. in diesem Ziel erschöpft sich die Forschung nicht), noch ist die quantitative Forschung per se aussagekräftiger auf der Basis von Standardisierung und statistischer Repräsentativität. Somit ist keine Forschungsrichtung einer anderen grundsätzlich überlegen, sie haben zum einen ihre jeweiligen Anwendungsbereiche – je nach der Art der Forschungsfrage –, zum anderen gibt es unter Umständen Verknüpfungsmöglichkeiten verschiedener Vorgehensweisen (vgl. Kap. 4.7). Eine gute Kenntnis quantitativer, qualitativer und interpretativer Forschungslogiken ist daher eine sinnvolle Basis für eine methodologisch reflektierte und methodisch sauber vorgehende empirische Sozialforschung.

3.2 Forschungsschritte und Gütekriterien

In einer Übersicht sieht ein Ablaufschema der quantitativen Forschungsschritte so aus (siehe Tab. 3.2).

Diese Schritte werden in den folgenden Kapiteln näher, auch im Kontext der verschiedenen Erhebungsinstrumente und an Beispielen vorgestellt. Im Überblick lässt sich vorab sagen, dass Forschende in der Präzisierungsphase ausformulieren, was genau sie wissen wollen. Man erfindet dabei das Rad kaum neu, sondern stützt sich auf Fachliteratur zum Thema, um wichtige Dimensionen herauszuarbeiten, Begriffe zu konkretisieren und Hypothesen zu formulieren. In der Operationalisierungsphase hat die Forscherin daraufhin die Aufgabe, festzulegen, wie die präzisierten Sachverhalte gemessen bzw. wie die Forschungsfragen und Hypothesen in empirische Prozeduren übersetzt werden sollen. Eine Herausforderung besteht darin, den klaren roten Faden beizubehalten: Es geht nicht darum, welche Aspekte man zur groben Themenstellung potenziell erheben könnte, sondern wie sich die Hypothesen und konkreten Forschungsfragen ganz genau empirisch umsetzen lassen. Der Forscher reflektiert also im Idealfall seine methodischen Entscheidungen daraufhin, was er eigentlich wissen will und ob die methodischen Entscheidungen dazu beitragen. Am Ende dieses Schritts stehen ein anwendungsbereites Erhebungsinstrument und genaue Planungen dazu, wann, wo, bei wem, in welcher Situation das Instrument einzusetzen ist. Ein Pretest prüft die Praxistauglichkeit des Instruments, bevor es in der Haupterhebung bei einer größeren Zahl von Fällen eingesetzt wird. In der Phase der Auswertung und Interpretation werden die Befunde systematisch auf die Hypothesen, die Forschungsfrage insgesamt zurückbezogen und Schlussfolgerungen für einen Erkenntnisgewinn im Rahmen des bisherigen Forschungsstands gezogen. Eine empirische Untersuchung endet also keineswegs mit der statistischen Auswertung, sondern der Forscher bündelt die Ergebnisse und zieht Schlussfolgerungen, was er in verschiedenen Formen tun kann, etwa durch einen Forschungsbericht, Fachpublikationen, bei anwendungsorientierten Forschungen (z. B. der Evaluation neuer Arbeitszeitregelungen in Betrieben) etwa auch einschließlich praktischer Umsetzungsempfehlungen.

Tab. 3.2: Forschungsschritte der quantitativen Sozialforschung


Diese Linearität des Forschungsablaufs ist ein grundsätzliches Merkmal der quantitativen Forschung. Dennoch handelt es sich um ein idealtypisches Ablaufschema, das in der Praxis im Einzelnen auch durchbrochen wird. So wird ein Forscher schon früh damit beginnen, seinen Zugang zum Feld zu klären, nicht erst nach dem Abschluss des Pretests (erklären sich z. B. Unternehmen dazu bereit, dass man die Mitarbeitenden befragt, will der Betriebsrat den Fragebogen vorab sehen etc.). Und andererseits hindert den Forscher prinzipiell nichts daran, Auswertungen vorzunehmen – und so Hypothesenprüfungen zu ergänzen oder zu differenzieren –, die er nicht bereits vor oder spätestens während der Operationalisierung formuliert hatte. Dies funktioniert allerdings nur dann, wenn er die dafür notwendigen Daten auch erhoben hat.

Ein zentraler Punkt im gesamten Forschungsprozess besteht schließlich in der Beachtung von Gütekriterien. Der Forscher sollte empirisch so arbeiten, dass das methodische Vorgehen und die erzielten Ergebnisse einer kritischen Überprüfung standhalten. Dies wäre beispielweise nicht der Fall, wenn ein Forscher wichtige Dimensionen des Themas außen vor ließe (in der Präzisierungsphase), wenn er willkürlich einige Studierende zur Befragung auswählen, seine Ergebnisse dann aber für alle Studierenden in Deutschland verallgemeinern würde, oder wenn er suggestive Fragen formulieren und damit die späteren Antworten von Befragten beeinflussen würde (in der Operationalisierungsphase). Weiterhin wäre es eine Einschränkung, wenn bei Telefoninterviews nur diejenigen befragt würden, die beim ersten Kontaktversuch erreichbar waren (Erhebungsphase) oder wenn unangemessene statistische Verfahren genutzt oder spekulative Schlussfolgerungen gezogen würden (Auswertungsphase). »Fehler« können also in jeder Forschungsphase auftreten. Zugunsten möglichst »guter« empirischer Ergebnisse sollte der quantitativ vorgehende Forscher3 die folgenden Gütekriterien stets im Blick haben:

1. Gültigkeit (Validität): Gültig sind Ergebnisse dann, wenn man das gemessen hat, was man messen wollte. Dies bedeutet, dass man angemessene Indikatoren verwendet hat und dass das Instrument und die Erhebungssituation (z. B. die Anwesenheit Dritter bei einer Befragung) die Ergebnisse nicht systematisch verfälschen. Was »Indikatoren« sind, wird später (Kap. 4.2) genauer erläutert. Kurz gesagt zeigen sie den Sachverhalt, den man erheben will, direkt an. Beispielsweise könnte der »Schulabschluss« ein Indikator für die Dimension »Bildung« sein. Die Gültigkeit des Indikators »Note in der letzten Mathearbeit« für die Erfassung von »Bildung« wäre dagegen wohl nicht gegeben, weil allein Mathematikkenntnisse, die lediglich im Ergebnis der letzten Klassenarbeit zum Ausdruck kommen (die leicht oder schwer gewesen sein kann und bei der der Schüler einen guten oder schlechten Tag hatte) einen zu kleinen Teil der Dimension »Bildung« messen.

Teilweise werden verschiedene Arten von Gültigkeit (z. B. Inhalts-, Kriteriums- Konstruktvalidität) unterschieden (vgl. z. B. Diekmann 2007), die sich unter diese Grundbedeutung subsummieren lassen. Prüfen lässt sich Gültigkeit kaum durch bestimmte Verfahren, sondern nur durch die Hinterfragung des empirischen Vorgehens vor dem Hintergrund des theoretischen Konzepts der Forschungsfrage.

2. Zuverlässigkeit (Reliabilität): Bei wiederholter Anwendung des Instruments und des Messkonzepts sollte ein Forscher das gleiche Ergebnis erzielen; die Ergebnisse der Messung sind also zuverlässig, wenn sie reproduzierbar sind. Mit anderen Worten sind Befunde (z. B. Antworten bei einer Befragung) stabil unabhängig davon, wer gemessen hat, wann genau er gemessen und prinzipiell auch, mit welchem Instrument er gemessen hat.

So sollte es für die Ergebnisse keinen Unterschied machen, ob der Interviewer braune oder grüne Haare hat, jung oder alt ist, oder ob ein Beobachter eine Situation unter sonst gleichen Bedingungen dienstags oder mittwochs beobachtet hat. Ebenso sollte die gleiche Zahl herauskommen, wenn man jemanden fragt, wie viele Bücher er gerade aus der Universitätsbibliothek ausgeliehen hat oder dies mit seiner Zustimmung im Computersystem der Bibliothek recherchiert. Man will also Einstellungen oder typisches Verhalten und nicht unkontrollierte Situationseinflüsse bei der Erhebung messen.

Die Zuverlässigkeit eines Instruments lässt sich etwa dadurch testen, dass man – beispielsweise bei einer Beobachtung oder Inhaltsanalyse – verschiedene Personen (oder die gleiche Person zu verschiedenen Zeitpunkten) die gleiche Situation oder Quelle in ein Kategoriensystem eintragen lässt. Eine hohe Übereinstimmung spricht für die Zuverlässigkeit, man spricht auch von Inter- bzw. Intracoder-Reliabilität.

Es gibt einen wichtigen Zusammenhang von Zuverlässigkeit und Gültigkeit: Ein Ergebnis, das nicht zuverlässig ist, kann auch nicht gültig sein. Wenn das Ergebnis davon abhängt, dass Befragte einer jungen Frau andere Antworten zum Thema politische Einstellungen gegeben haben, als sie es gegenüber einem älteren Mann getan hätten, hat man eben nicht gemessen, was man messen wollte, und zwar die politischen Einstellungen. Andererseits ist ein zuverlässiges Ergebnis nicht zwingend gültig. Wenn eine Frage im Fragebogen suggestiv gestellt ist, kann man zuverlässig immer wieder verzerrte und damit ungültige Befunde erzielen. Somit ist Zuverlässigkeit eine notwendige, aber nicht hinreichende Bedingung für Gültigkeit.

3. Objektivität/Intersubjektivität: Versteht man Objektivität in diesem Kontext als Unabhängigkeit von subjektiven Eigenschaften und (Wert-)Haltungen des Betrachters bzw. des Forschers, so ist es unmöglich, einen Forschungsgegenstand vollständig objektiv wahrzunehmen und zu untersuchen. Zur Annäherung an dieses Ideal können Forscher jedoch ihr Vorgehen für andere klar dokumentieren, ihre Forscherrolle dabei reflektieren und so ihre Untersuchung für andere intersubjektiv nachvollziehbar, kontrollierbar, damit kritisierbar machen.

Die Güte der Befunde steigt danach, wenn die scientific community die Ergebnisse zustimmend nachvollzieht. Standardisierte Instrumente dienen in der quantitativen Forschung als ein Mittel, diese Intersubjektivität zu fördern.

4. Repräsentativität: Repräsentativität richtet sich auf die Reichweite der Ergebnisse und bedeutet, dass eine Stichprobe ein verkleinertes Abbild einer Grundgesamtheit darstellt, dass die Ergebnisse aus der Stichprobe also auf diese angebbare Grundgesamtheit verallgemeinerbar sind.

Die Grundgesamtheit umfasst alle Fälle, über die eine Untersuchung Aussagen treffen will. Ob die Ergebnisse der Stichprobe repräsentativ sind, hängt neben der Größe der Stichprobe und der Ausschöpfung zentral vom Auswahlverfahren ab, wobei insbesondere Zufallsauswahlen zu für die Grundgesamtheit repräsentativen Ergebnissen führen (s. u. Kap. 5).

Welche Herausforderungen sich im Zuge der einzelnen Forschungsschritte stellen, um diese Gütekriterien möglichst optimal einzuhalten, zeigen die folgenden Kapitel.

Literatur

Vgl. hierzu die Hinweise auf Einführungen am Beginn des Literaturverzeichnisses (z. B. Diekmann 2007).

Zum wissenschaftstheoretischen Hintergrund:

Chalmers, Alan F. (2007): Wege der Wissenschaft: Einführung in die Wissenschaftstheorie, 6. Aufl., Berlin/Heidelberg: Springer.

Übungsaufgabe

Entwerfen Sie eine Forschungsskizze anhand der Schritte in Tab. 3.2 zum Thema »Ist die Wohnungseinrichtung von der sozialen Lage (z. B. Einkommen, Bildung oder Alter) abhängig?«

3Diese Gütekriterien sind nicht umstandslos auf qualitative Methoden übertragbar, vgl. Steinke 2000.
Quantitative Methoden kompakt

Подняться наверх