Читать книгу Handbuch der Soziologie - Группа авторов - Страница 10

Оглавление

[61]Alexandra Krause/Henning Laux

Die Gabelung zwischen qualitativer und quantitativer Sozialforschung: Wie forschen Soziologinnen und Soziologen?

1.Einleitung: Die Spaltung der Sozialforschung

Die Methoden der empirischen Sozialforschung dienen der systematischen Erhebung, Auswertung und Interpretation von Informationen über die Zusammensetzung sozialer Welten. Spurenelemente dieser Praxis lassen sich bis zu den Agrarstatistiken vorchristlicher Hochkulturen wie China und Ägypten zurückverfolgen. Die Gründungsdokumente der methodisch kontrollierten Sozialforschung, wie wir sie heute kennen, stammen jedoch aus dem frühen 20. Jahrhundert und stehen am Ende einer langen Entwicklungsgeschichte. Die erste paradigmatische Untersuchung, »The Polish Peasant in Europe and America« (1918–1920) von William Thomas und Florian Znaniecki, dechiffriert die Biografien polnischer Migranten, die sich in der rasant anwachsenden Industriestadt Chicago in fremder Umgebung ein neues Leben aufbauen. Einige Jahre später analysieren Marie Jahoda, Paul F. Lazarsfeld und Hans Zeisel in ihrer wegweisenden Studie über »Die Arbeitslosen von Marienthal« (1933) die Effekte von Arbeitslosigkeit in einer österreichischen Industriesiedlung, in der durch die Schließung der ortsansässigen Fabrik nahezu alle Einwohner arbeitslos geworden sind.

Instruktiv sind diese beiden Pionierwerke aus heutiger Sicht nicht zuletzt deshalb, weil sie auf ein breites Sortiment an Materialsorten, Erhebungstechniken und Auswertungsverfahren zurückgreifen. Als empirische Informationsquellen fungieren amtliche Register, öffentliche Statistiken, Beobachtungsprotokolle, Briefwechsel, Interviews, Schulhefte, Zeitungsberichte, Tagebücher und Zeitverwendungstabellen. Zu Beginn des 20. Jahrhunderts ist somit noch vereint, was in den Folgejahrzehnten aufgrund unterschiedlicher Bezugsprobleme auseinanderdriftet, nämlich »quantitative« und »qualitative« Forschungsverfahren. Während sich Lazarsfeld dem stichprobenbasierten »Survey-Research« zuwendet und damit die methodisch angeleitete Quantifizierung des Sozialen vorantreibt, avanciert die »Chicago School« um William Thomas, Robert E. Park und Ernest Burgess in den Augen berühmter Schüler wie Harold Garfinkel, Barney Glaser, Anselm Strauss oder Erving Goffman zum Vorbild für den qualifizierenden Zweig der Sozialforschung. In Deutschland wird die Kluft schließlich im Anschluss an den berühmten »Positivismusstreit« (1961) zwischen Theodor W. Adorno und Karl Popper (später: Jürgen Habermas gegen Hans Albert) ideologisch zementiert und verstetigt. Erst im Rahmen dieser stilbildenden Kontroverse werden erkenntnistheoretische, gesellschaftsanalytische und wissenschaftspolitische Differenzen mit methodischen Fragen nach geeigneten Verfahren der Fallauswahl und -analyse amalgamiert.

Fortan entwickelt sich ein qualitativer Methodenzweig, der sozialanthropologische, ethnologische, psychoanalytische, pragmatistische und texthermeneutische Verfahren aufsaugt. Und in mindestens ebenso rasanter Geschwindigkeit bildet sich ein quantitativer Methodenzweig heraus, der an den Erhebungs- und Auswertungsstandards der Naturwissenschaften und Ökonometrie [62]orientiert ist. Am vorläufigen Ende dieser Entwicklungsgeschichte stehen sich heute zwei ausdifferenzierte Forschungsrichtungen gegenüber, die eigene Lehrbücher, Zeitschriften, Nachwuchsgruppen, Diskussionsforen und Lehrstühle hervorbringen – und sich weitgehend ignorieren.

Diese Spaltung erscheint mit Blick auf den Gegenstandsbereich der empirischen Sozialforschung nur schwer nachvollziehbar. So sind in der Analyse sozialer Problemfelder wie Erwerbslosigkeit, Armut, Kriminalität oder Segregation quantifizierende Daten von großer Bedeutung, lässt sich mit ihrer Hilfe doch erfahren, wie häufig diese Phänomene in welchen Bevölkerungsteilen auftreten. Zugleich kann erst die qualifizierende Forschung konstituierende Interaktionen und alltäglichen Deutungsmuster rekonstruieren, über die Betroffene diese Phänomene erleben. Zudem legen jüngere Entwicklungen den Verdacht nahe, dass die Projektion unabhängiger oder konkurrierender Paradigmen die tatsächliche Forschungspraxis gar nicht mehr widerspiegelt. Bereits seit den 1980er-Jahren hat sich im angelsächsischen Raum ein Feld der Sozialforschung entwickelt, auf dem die Möglichkeiten und Grenzen der Kombination quantitativer und qualitativer Methoden wieder explizit untersucht werden. In den letzten Jahren ist das Interesse daran auch in der deutschsprachigen Sozialforschung gewachsen.

Angesichts solcher Ungereimtheiten wollen wir diesen Text zum Anlass nehmen, um noch einmal danach zu fragen, durch welche Spezifika sich die beiden Methodenstränge auszeichnen. Daran anknüpfend diskutieren wir zeitgenössische Vermittlungsversuche, die eine problemlösungsorientierte Zusammenarbeit befördern und damit den ›kalten Krieg der Paradigmen‹ überwinden helfen.

2.Der klassische Methodendualismus
2.1Methodik der quantitativen Sozialforschung
2.1.1Methodologische Grundlagen und Qualitätsstandards

Im Zuge der Bemühungen um eine deskriptive Vermessung der hereinbrechenden Massenkollektive wird im 19. Jahrhundert die Institutionalisierung der heutigen Sozialstatistik in den englischen »Statistical Societies« und im deutschen »Verein für Sozialpolitik« maßgeblich vorangetrieben. Klassische französische Studien wie »Cours de philosophie positive« (1842) von Auguste Comte oder »Les règles de la méthode sociologique« (1894) von Émile Durkheim buchstabieren die Grundlagen ihrer Methodik aus. Die sozialwissenschaftlich interessierte Statistik orientiert sich am Vorbild der Naturwissenschaften und sucht analog dazu nach möglichst universellen Gesetzmäßigkeiten sozialer Beziehungen. Quantifizierende Untersuchungen folgen nomologisch-deduktiven Erklärungsmodellen, d. h. sie basieren auf einem System theoretischer Gesetze, aus denen sich ihre wissenschaftlichen Annahmen logisch und werturteilsfrei ableiten lassen. Deren Übereinstimmung mit beobachtbaren Merkmalen der sozialen Wirklichkeit wird dann statistisch geprüft. Schließlich begreifen sie ihren Forschungsgegenstand in aller Regel als soziale Tatsache, welche unabhängig vom Forscher und seinem Wissen existiert (Neuman 1997).

Wissenschaftlicher Kern der quantitativen Methodik ist der empirische Test theoretisch hergeleiteter Forschungshypothesen. Dementsprechend fokussieren ihre Gütekriterien auch auf die Qualität, mit der diese Hypothesen in messbare statistische Größen übersetzt werden. Das Kriterium der Reliabilität gilt als erfüllt, wenn man das theoriegeleitet anvisierte Merkmal der sozialen Wirklichkeit stabil, präzise und in sich konsistent messen kann. Das Kriterium der [63]Validität gilt als erfüllt, wenn eine Messgröße tatsächlich auch das zugrunde liegende Konstrukt abbildet. Das Kriterium der Objektivität bzw. intersubjektiven Replizierbarkeit trägt schließlich dem Anspruch Rechnung, dass ein empirischer Befund allgemein und unabhängig vom Betrachter bzw. Forscher gelten soll und daher auch von anderen Forschern mit alternativen Messmethoden und unter anderen Rahmenbedingungen hervorgebracht werden kann (Schnell et al. 2011: 149–166).

Eine grundlegende Herausforderung quantitativer Forschungsdesigns besteht schließlich darin, das Kausalitätsproblem angemessen zu bearbeiten. Es umfasst sowohl die wissenschaftstheoretische und gesellschaftsanalytische Frage, inwieweit die untersuchten sozialen Beziehungen analog zu Naturzusammenhängen über Kausalgesetzmäßigkeiten erfassbar sind, als auch die statistische Modellierung der untersuchten Kausalbeziehungen anhand eines geeigneten Datensatzes. Letzteres ist unter anderem mit der Anforderung verbunden, Veränderungen des als Ursache geltenden sozialen Merkmals auch tatsächlich vor den als Wirkung geltenden Veränderungen des zu erklärenden sozialen Merkmals zu messen (vgl. dazu ausführlich: Kelle 2008: 151–225).

2.1.2Grundzüge des quantitativen Forschungsprozesses

Aus unserer Sicht sind fünf methodische Schritte dazu geeignet, die Logik des quantifizierenden Forschungsprozesses zu charakterisieren (vgl. z. B. Neuman 1997; Thome 2007; Bryman 2008; Schnell et al. 2011; Fowler 2013): a) Forschungsfrage und forschungsleitende Hypothesen formulieren, b) empirisches Design entwickeln, c) Daten erheben, d) Daten analysieren, e) theoretische Schlussfolgerungen ziehen.

a) Problemstellung und Hypothesenentwicklung

Die quantitative Sozialforschung begreift sich als theoriegeleitete Suche nach wissenschaftlicher Erkenntnis. Idealerweise entwickelt sie im ersten Schritt des Forschungsprozesses über das so genannte nomologisch-deduktive Formalmodell der Kausalbeziehungen ihre forschungsleitenden Hypothesen (Hempel/Oppenheim 1948). Sie bedient sich der Stochastik, um aus der bedingten Wahrscheinlichkeit, mit der empirische Messgrößen auftreten, Rückschlüsse auf die Gültigkeit dieser Hypothesen zu ziehen. Im Unterschied zur qualitativen Sozialforschung gilt somit die theoriegeleitete Datenerhebung und -analyse als Qualitätsmerkmal guter quantitativer Sozialforschung (Diekmann 2002: 122–159, Kromrey 2000: 48–58).

Die Erklärungsmodelle beschreiben Merkmale der sozialen Wirklichkeit über eine endliche Anzahl möglicher Ausprägungen – als Variablen – und führen die Verteilung der zu erklärenden abhängigen Variable über die Annahme einer Kausalbeziehung auf die Verteilung einer oder mehrerer unabhängiger Variablen zurück. Über intervenierende Variablen und Moderatoren werden die modellierten Zusammenhänge verfeinert, um die Modelle der komplexen Wirklichkeit des untersuchten Beziehungssystems anzunähern.

Die Forschungshypothesen postulieren also einen kausalen Effekt zwischen wenigstens zwei Variablen, sind als Vorhersage formuliert, lassen sich logisch aus dem zugrunde gelegten Erklärungsmodell herleiten und können über statistische Tests falsifiziert werden (Neuman 1997: 109). Insbesondere der letzte Aspekt spiegelt das am kritischen Rationalismus orientierte Wissenschaftsverständnis der quantitativen Sozialforschung wider. Theoretisch fundierte Forschungshypothesen lassen sich durch die empirische Prüfung nicht letztgültig beweisen – statistische Tests können aber sehr wohl die Wahrscheinlichkeit ihrer Richtigkeit testen. Indem sie in [64]ihren Studien versuchen, die Befunde anderer Forscher zu replizieren, aber auch gezielt alternative Erklärungsmodelle und widerstreitende Forschungshypothesen testen, nähern sich die Forscher eines Forschungsfeldes sukzessive der Wahrheit an.

b) Forschungsdesign

Im nächsten Schritt werden die Forschungshypothesen über ein geeignetes Forschungsdesign einer systematischen empirischen Prüfung zugänglich gemacht. Insbesondere folgende Fragen müssen bearbeitet werden: 1) Welche Informationen sind dazu geeignet, die Forschungshypothesen empirisch zu messen bzw. zu operationalisieren? 2) Für welche Fallauswahl sollen die Forschungshypothesen geprüft werden? 3) Ist ein Experiment oder eine Umfrage am besten dazu geeignet, die postulierten Kausalzusammenhänge zu erfassen?

Für die Operationalisierung gilt es zunächst, zu entscheiden, ob ein Konzept ein- oder mehrdimensional erfasst werden soll und welche Variable bzw. Variablen dazu geeignet sind, die Dimension/en empirisch abzubilden, und daher als Indikatoren dienen sollen. Dazu gehört auch die Überlegung, auf welcher Ebene die Informationen erhoben werden müssen: Werden z. B. Mikroprozesse postuliert, so dass auch Individualdaten zu erheben sind, um die Gefahr eines ökologischen Fehlschlusses zu reduzieren? Daran anschließend müssen die Indikatoren quantifiziert werden. Einheitliche Richtwerte ermöglichen es dabei etwa, Veränderungen über die Zeit zu bestimmen und die Befunde unterschiedlicher Studien miteinander zu vergleichen (Neuman 1997: 113 ff.).

Meistens können Forscher keine umfassende Fallstudie bzw. Vollerhebung aller relevanten Fälle durchführen, sondern müssen sich auf eine Fallauswahl beschränken. Um die Generalisierbarkeit der beobachteten Effekte anhand statistischer Signifikanztests prüfen zu können, muss es sich um eine Zufallsstichprobe aus der Grundgesamtheit aller Beobachtungen handeln. Jede Stichprobenziehung ist allerdings mit einem Fehler behaftet, der u. a. auf fehlende Antworten oder Messfehler zurückzuführen ist. Eine Zufallsstichprobe kann diesen Stichprobenfehler nicht vermeiden, aber verringern. Er wird auch mit der absoluten Größe der Stichprobe kleiner (Schnell et al. 2011: 257 ff.).

Die Methodenliteratur nennt in der Regel drei Kriterien, die erfüllt sein müssen, um eine Kausalbeziehung statistisch nachzuweisen: 1) die Verteilung einer Variable korrespondiert bzw. korreliert systematisch mit der Verteilung einer anderen Variable; 2) es ist keine Scheinkorrelation, d. h. die gemeinsame Variation der Verteilung von abhängiger und unabhängiger Variable bildet auch wirklich den direkten Zusammenhang der beiden Variablen ab und nicht den Einfluss einer unbeobachteten Drittvariable; 3) die Ursache wird vor der Wirkung gemessen (Kelle 2008).

Das experimentelle Design kommt der Modellierung einer Kausalbeziehung am nächsten, weil es den Kausaleffekt im Vergleich zwischen den Probanden der Untersuchungs- und der Kontrollgruppe direkt produziert und misst. Aus ethischen und praktischen Gründen ist es allerdings nur selten für soziologische Fragestellungen geeignet. Als quasi-natürliches Experiment gelten Settings, in denen zwei Gruppen miteinander verglichen werden, von denen nur eine Gruppe einem bestimmten Einfluss ausgesetzt war. Eine Herausforderung besteht hier darin, dass die beiden Gruppen in allen übrigen Merkmalen identisch sein müssen, so dass Unterschiede in der abhängigen Variable wirklich auf diesen Kausaleffekt zurückgeführt werden können. Darüber hinaus muss der Einfluss anderer möglicher Ursachen kontrolliert werden, um die Stärke des Effekts möglichst unverzerrt zu messen.

Häufiger bedient sich die quantitative Sozialforschung allerdings Umfragen, um ihre Hypothesen zu testen – nicht zuletzt auch, um eine höhere Fallzahl und Generalisierbarkeit der statistischen [65]Befunde zu erzielen. Die ersten beiden Kriterien der Kausalitätsprüfung können durch ein Querschnittdesign erfüllt werden, während das dritte Kausalitätskriterium ein Längsschnittdesign erfordert. Die Entwicklung von Panelstudien hat die quantitative Sozialforschung in Deutschland während der letzten beiden Jahrzehnte stark geprägt, das Interesse an Zeitreihen- und Ereignisdatenanalysen hat stetig zugenommen (vgl. Diekmann 2004).

c) Datenerhebung

Aufgrund der Randständigkeit experimenteller Designs beschränken sich die folgenden Ausführungen auf die sozialwissenschaftliche Umfrageforschung. Die Datengewinnung erfolgt über mündliche, schriftliche, telefonische oder internetgestützte Formen der Befragung. Im Mittelpunkt steht zunächst die Entwicklung des Fragebogens. Dabei sind alle für den Hypothesentest erforderlichen Indikatoren zu berücksichtigen. Je mehr eindimensionale Indikatoren man verwendet, desto mehr Informationen können insgesamt erfragt werden. Bei eindimensionalen Indikatoren kann eine missverständliche Frageformulierung allerdings auch zu einer falschen Klassifizierung der Befragten führen, und dieser Fehler kann weder korrigiert noch das Ausmaß des Fehlers eingeschätzt werden. Mit ihrem Interesse an einer möglichst differenzierten Messung ihrer Konzepte durch komplexe multidimensionale Indikatoren laufen Forscher umgekehrt aber auch möglicherweise Gefahr, Befragte zu überfordern, was ebenfalls fehlerhafte Antworten, fehlende Antworten oder sogar den Abbruch des Interviews zur Folge haben kann (z. B. Schnell et al. 2011: 199 ff.; Neuman 1997: 132 ff.).

Bei der Frageformulierung spielen messtheoretische Gesichtspunkte der Reliabilität und Validität eine entscheidende Rolle. Beide Gütekriterien lassen sich anhand standardisierter Verfahren in Pretests prüfen. So kann die Stabilität eines Indikators durch wiederholte Messungen innerhalb derselben Untersuchungsgruppe geprüft werden (Test-Retest-Methode). Für multidimensionale Indikatoren gilt es auch, die Konsistenz der Messergebnisse zwischen den Indikatoren zu testen (klassischer Test: Cronbachs Alpha). Die Replizierbarkeit der Ergebnisse hängt eng mit der Reliabilität der Indikatoren zusammen. Die Validität stellt quantitative Studien vor größere Herausforderungen, denn es gibt keine absolute Sicherheit darüber, dass ein Indikator auch wirklich das gemeinte Konzept abbildet (Neuman 1997: 141). Die inhaltliche Validität eines Indikators kann durch das Urteil anderer Experten oder möglicher Probanden über seinen Sinngehalt geprüft werden. Er sollte außerdem möglichst viele relevante Dimensionen des zugrunde liegenden Konzeptes abbilden. Aber auch der Vergleich mit bereits etablierten alternativen Indikatoren oder seine Vorhersagekraft können dazu dienen, die Validität eines Indikators zu steigern (ebd.: 144).

Um die Objektivität bzw. Replizierbarkeit der Messungen sicherzustellen, gilt es auszuschließen, dass Messfehler einen unkontrollierten Einfluss auf die Datengewinnung ausüben. Mögliche Fehlerquellen werden daher nacheinander eliminiert, indem der Fragebogen auf den Effekt der Fragenreihenfolge, den Einfluss von Suggestivfragen oder die Rolle sozialer Erwünschtheit überprüft wird.

Seit dem Zweiten Weltkrieg hat die quantifizierende Bestimmung des Sozialen stark zugenommen. Die Einrichtung großer Forschungsdatenzentren (Statistische Bundes- und Landesämter, GESIS, ICPSR, etc.), die Ausbreitung von Markt- und Meinungsforschungsinstituten (Allensbach, Emnid, Forschungsgruppe Wahlen, Infratest Dimap, etc.) sowie die regelmäßige Durchführung großer Bevölkerungsumfragen (ALLBUS, SOEP, ISSP, Eurobarometer, etc.) haben die wissenschaftliche Sekundäranalyse prozessproduzierter statistischer Daten vereinfacht. Während kosten- und zeitintensive Primärerhebungen die Freiheit lassen, Forschungsdesigns eng an eigenen Forschungsinteressen und Methodenkenntnissen zu entwickeln, setzt die freie bzw. [66]kostengünstige Nutzung unterschiedlicher Sekundärdatensätze ein breiteres Methodenwissen voraus (Fleck 2010).

d) Datenanalyse

Die Auswertung empirischen Datenmaterials wurde in den letzten Jahrzehnten durch die explosionsartige Steigerung der Rechnerkapazitäten (von der Hollerith-Lochkarte bis zum modernen Supercomputer) und die Implementierung leistungsfähiger Softwarepakete (wie Stata, SPSS, R oder LISREL) erheblich vereinfacht, so dass mittlerweile riesige Informationsmengen und komplexe Modelle innerhalb kürzester Zeit verarbeitet werden können (»Big Data«).

Die Datenanalyse erfolgt in der Regel in zwei Schritten: Univariate Analysen sollen anhand von Häufigkeitsverteilungen und Maßen der zentralen Tendenz darüber Aufschluss geben, a) wie häufig die unterschiedlichen Ausprägungen einer Variable in der Stichprobe vorkommen und b) welche Ausprägung für die Verteilung einer Variable charakteristisch sind und daher am häufigsten vorkommen. Die multivariate Analyse untersucht dann die Stärke und Richtung der in den Forschungshypothesen postulierten Kausaleffekte unter Kontrolle möglicher weiterer Ursachen. Aber auch intervenierende Variablen, welche die Stärke des Effekts beeinflussen, und moderierende Variablen, die seine Richtung verändern können, gehen in diesen Forschungsschritt ein. Zu den klassischen Instrumenten der multivariaten Datenanalyse gehören die Faktorenanalyse sowie die lineare und die logistische Regression.

In der Regel sind Wissenschaftlerinnen nicht allein an der deskriptiven Vermessung ihrer Stichprobe interessiert, sondern versuchen, ihre Befunde mit Hilfe inferenzstatistischer Verfahren zu verallgemeinern. Die gemeinsame Logik inferenzstatistischer Testverfahren besteht darin, eine Nullhypothese zu formulieren, die davon ausgeht, dass zwischen abhängiger und unabhängiger Variable kein Zusammenhang besteht, es wird also versucht, die erkenntnisleitende Theorie aktiv zu falsifizieren (vgl. Schnell et al. 2005: 447–454). Zu diesem Zweck wird anhand geltender Konventionen ein Signifikanzniveau festgelegt, und auf dieser Basis wird a) die Wahrscheinlichkeit getestet, mit der die Nullhypothese fälschlicherweise abgelehnt wird (»Alpha-Fehler«). Wenn der Forscher nun b) ein möglichst rigides Signifikanzniveau wählt, um den unter a) beschriebenen Fehler zu vermeiden, erhöht er damit zugleich aber auch die Wahrscheinlichkeit, die Nullhypothese anzunehmen, obwohl sie hätte verworfen werden müssen – d. h. er geht irrtümlicherweise davon aus, dass seine Forschungshypothese empirisch widerlegt ist (»Beta-Fehler«). Dabei beruhen alle statistischen Tests allerdings auf der Grundannahme, dass das gewählte lineare Modell den untersuchten Kausalzusammenhang richtig modelliert (Aachen 1982). Auch elaborierte statistische Prüfkriterien der richtigen Modellspezifikation und des richtigen statistischen Schätzers können Überlegungen über die inhaltlich-theoretische Validität des Modells nicht ersetzen.

Da Längsschnittdesigns kostspielig sind, greifen quantitativ ausgerichtete Forschungsprojekte häufig auf nationale Panelstudien oder die amtliche Statistik zurück. Während die Qualitätsstandards dieser Studien hoch sind, konfrontieren sie die Forscher zugleich mit der Herausforderung der Sekundäranalyse: Sie müssen ihre Forschungsfrage so modifizieren, dass sie auf Grundlage der bereitgestellten Daten angemessen bearbeitet werden kann, und sie müssen sich mit den Stärken und Schwächen des von anderen erhobenen Datenmaterials vertraut machen (Bryman 2008: 297 ff.). Insgesamt erfordern Längsschnittuntersuchungen ein hohes Maß an Methodenwissen und haben die Spezialisierung innerhalb der quantitativen Methodik verstärkt (für einen Überblick siehe z. B. Ruspini 2002).

[67]e) Theoretische Schlussfolgerungen

Die Befunde der empirischen Datenanalyse müssen in einem abschließenden Untersuchungsschritt auf ihre Implikationen für das zugrunde gelegte Theoriemodell geprüft werden. Falls sich eine Forschungshypothese im Rahmen der Analyse bestätigt, gibt es keinen Revisionsbedarf des Erklärungsmodells, wird eine Hypothese dagegen falsifiziert, so ist die erkenntnisleitende Theorie zu modifizieren oder zu verwerfen. Moderationseffekte haben zur Folge, dass der postulierte Kausalzusammenhang zwar durchaus bestätigt wird, aber nur für eine Teilpopulation. Die Theorie muss dann entsprechend ausdifferenziert werden. Schließlich können Hinweise auf unerwartete und überraschende Zusammenhänge auftreten, die nicht im Mittelpunkt des ursprünglichen Forschungsinteresses standen. Es besteht die Möglichkeit, diese Elemente im Rahmen einer Folgestudie anhand einer neuen Stichprobe zu testen.

2.2Methodik qualitativer Forschungsprozesse
2.2.1Methodologische Grundlagen und Qualitätsstandards

Die als qualitativ, interpretativ oder rekonstruktiv bezeichneten Methoden der Sozialforschung sind ein heterogenes Feld. In der Folge konzentrieren wir uns auf die Gemeinsamkeiten der damit adressierten Ansätze, ohne die bestehenden Unterschiede einzuebnen.

Qualitative Ansätze beschäftigen sich mit den alltagsweltlichen Praktiken, Wissensbeständen und Sinnzuschreibungen von Akteuren. Der Umgang mit diesen »Konstruktionen ersten Grades« (Schütz 1971) ist von drei methodologischen Prinzipien geprägt: 1.) Der Forschungsprozess qualifiziert die Teilnehmerperspektive, d. h. es wird eine möglichst umfassende, kontextreiche bzw. dichte Erfassung fallspezifischer Merkmale und Besonderheiten angestrebt. 2.) Das so erhobene Material ist deutungsoffen und muss daher interpretiert werden, es wird ein Bruch mit der Oberfläche des Datentextes und der Illusion des unmittelbaren Verstehens herbeigeführt, um mittels einer methodisch kontrollierten Befremdung latente Sinnstrukturen, fundierende Weltdeutungen und kulturelle Grammatiken aufzudecken. 3.) Zuletzt erfolgt ein rekonstruktiver Schritt, d. h. im Lichte eines spezifischen Erkenntnisinteresses durchdringt die Analyse das erhobene Material, transformiert es in Daten und erstellt von hier aus empirisch gehaltvolle Typologien und Theorien (vgl. Strübing 2013; Flick et al. 2012; Hollstein/Ullrich 2003; Przyborski/Wohlrab-Sahr 2008).

Über weitere allgemeine Prinzipien herrscht kein Konsens. Einigkeit besteht noch am ehestens hinsichtlich des Rollenprofils der soziologischen Beobachter. Abgesehen vom Spezialfall der Objektiven Hermeneutik1 wird diesen nämlich eine aktive, hervorbringende und performative Funktion zugeschrieben. Anders als in der quantitativen Tradition versucht man also nicht, neutrale und nicht-reaktive Formen der Materialgewinnung und -analyse zu finden, vielmehr wird empirische Forschung als interaktiver Prozess vorgestellt, bei dem die subjektiven Wahrnehmungen und Interventionsmöglichkeiten der Forschenden als wertvolle Ressourcen der Erkenntnis dienen (Strübing 2013, Flick et al. 2012: 25). Dissens herrscht hingegen hinsichtlich der erkenntnistheoretischen Frage nach dem Realitätsgehalt des dadurch generierten Wissens. Diesbezüglich haben wir es mit einem Kontinuum zwischen zutiefst realistischen Überzeugungen auf der einen [68]und radikalkonstruktivistischen Ansichten auf der anderen Seite zu tun (vgl. Breidenstein et al. 2013: 10). Schließlich differieren qualitative Ansätze bezüglich ihres genuinen Erkenntnisinteresses, wenn es nämlich um die Rekonstruktion von Sinnbeständen geht (vgl. Lamnek 2005: 224). Denn während einige Ansätze auf den subjektiv gemeinten Sinn abzielen (phänomenologische Wissenssoziologie, Biografieforschung), fokussieren andere auf die Dynamik des interaktiv hervorgebrachten Sinns (ethnomethodologische Konversationsanalyse) oder beziehen sich auf den kulturellen Sinn konstitutiver Strukturen (Objektive Hermeneutik, Diskursanalyse).

In den letzten Jahren hat im Anschluss an die zunehmende Etablierung und Konsolidierung qualitativer Forschung eine verstärkte Beschäftigung mit methodischen Standards stattgefunden, um die »Qualität qualitativer Daten« sicherzustellen (Helfferich 2009, Steinke 1999). Dabei lassen sich derzeit drei verschiedene Strategien unterscheiden, von denen bislang noch nicht absehbar ist, welche sich in Zukunft durchsetzen wird: 1.) die Adaption etablierter Gütekriterien aus dem Bereich der quantitativen Methoden, 2.) die Entwicklung eigener Standards und 3.) die Zurückweisung methodischer Standardisierungsbemühungen. In unmittelbarer Anlehnung an die quantitative Methodenlehre plädieren Przyborski und Wohlrab-Sahr (2008: 35–42) für die Adaption von drei Gütekriterien: Validität, Reliabilität und Objektivität. Auf diese Weise soll einerseits der Dialog zwischen den entzweiten Paradigmen befördert und andererseits ein gemeinsamer Standard für qualitative Verfahren implementiert werden (vgl. Reichertz 2000, King et al. 1994). Im Rahmen der zweiten Option lassen sich eigene Kriterien entwickeln, um die Tragfähigkeit qualitativer Studien zu bestimmen. Flick (2007) unterscheidet in diesem Zusammenhang die Dokumentation erkenntnisleitender Hypothesen, die Auswahl gegenstandsangemessener Erhe-bungs- und Auswertungsmethoden sowie die Protokollierung der Verfahrensschritte, die vom Material zu den finalen Kernhypothesen führen. Eine dritte und letzte Möglichkeit besteht darin, die aufkeimende Methodisierung zurückzuweisen. Die Ablehnung begründet man damit, dass die Standardisierung der Verfahren dem Anspruch einer gegenstandsnahen, durchlässigen und problemsensiblen Sozialforschung zuwiderläuft. Als Alternative wird eine fallspezifische Ausrichtung der Methode am jeweiligen Gegenstand eingefordert (vgl. Breidenstein et al. 2013: 8 f.).

2.2.2Grundzüge des qualitativen Forschungsprozesses

In der folgenden Darstellung erläutern wir die wichtigsten Elemente eines qualifizierenden Forschungsprozesses: a) Materialgewinnung, b) Datenanalyse und c) Theoriebildung. Dabei zeigt sich, dass diese Phasen im Rahmen empirischer Studien – anders als im Bereich der quantitativen Methoden – rekursiv ineinandergreifen und in Abhängigkeit voneinander weiterentwickelt werden.

a) Materialgewinnung

Zu den wichtigsten Verfahren der Datenerhebung gehören Interviews, Ethnografien und internetbasierte Erhebungsverfahren.

Das Interview ist sicherlich das typischste Instrument zur Materialgewinnung. Zur Gewinnung verbaler Daten kommen im Bereich der qualitativen Sozialforschung folgende Befragungsmethoden zum Einsatz: Leitfadeninterviews, Experteninterviews, narrative Interviews, ethnografische Interviews sowie Gruppendiskussionen. Für sämtliche Verfahren gilt, dass sie darauf abzielen, eine möglichst natürliche und vertrauensvolle Gesprächssituation zu schaffen, welche die Befragten dazu anregt, selbstläufig ihre Sinnwelten zu entfalten. Zu den zentralen Tugenden der Interviewführung gehört eine souveräne Handhabung des Leit- oder Gesprächsfadens, um [69]spontan auf Erzählungen des Gegenübers eingehen und notwendige Diskussionsimpulse setzen zu können. Es gibt jedoch große Unterschiede, was den Strukturierungsgrad der Interviews angeht. So haben Experteninterviews einen klaren Problemfokus, was den Interviewer vor die Aufgabe stellt, den Redefluss im Sinne des Erkenntnisinteresses zu kanalisieren. Im Gegensatz dazu bestehen narrative Interviews im Idealfall aus einem einzigen Erzählstimulus, der beim Befragten eine eigenstrukturierte Lebensgeschichte evoziert, die nur gelegentlich durch Rückfragen oder Rückversicherungen unterbrochen werden muss. Die Sammlung möglichst reichhaltiger Kontextinformationen ermöglicht es, den betrachteten Fall in seiner Spezifik zu verstehen (vgl. dazu ausführlich: Küsters 2006; Strübing 2013, Przyborski/Wohlrab-Sahr 2008, Lamnek 2005, Gläser/Laudel 2010).

Unter einer Ethnografie versteht man die unmittelbare und zeitextensive Präsenz eines Forschenden in einem sozialen Mikrokosmos, dessen Praktiken im Hinblick auf ihren Sinn entschlüsselt werden sollen. Dabei sind Ethnografen weder Teilnehmer noch Touristen. Sie stellen Fragen, machen Notizen, produzieren umfangreiche Beobachtungsprotokolle – und lassen sich dabei von den praktischen Relevanzsystemen der Teilnehmer dirigieren. Zugleich nutzen sie ihre Fremdheit, um deutlicher als jene zu verstehen, was in dem ausgewählten Feld vor sich geht. Ethnografien zielen damit stärker noch als alle anderen qualitativen Verfahren auf die Entdeckung bislang unerforschter Zusammenhänge (Breidenstein et al. 2013; Hammersley/Atkinson 2007; Amann/Hirschauer 1997; Latour 2002).

Das Internet eröffnet vollkommen neue Möglichkeiten zur Erfassung sozialer Praktiken und Sinnwelten. Das über Blogs, Foren, Chats, Protokolldateien und soziale Netzwerke öffentlich verfügbare Datenmaterial erlaubt Zugänge zu Prozessen der Entstehung, Veränderung, Verbreitung und Konstitution sozialer Formen. Auf diese Weise wird es möglich, an nicht-reaktiv produzierte Verlaufsdaten zu kommen. Internetbasierte Erhebungsverfahren liegen seit einigen Jahren voll im Trend und es ist aufgrund kostengünstiger und schneller Erhebungsmethoden davon auszugehen, dass sie in Zukunft stark an Bedeutung gewinnen werden (Bryman 2008: 627–659).

Die Fallauswahl hat im Bereich der qualitativen Sozialforschung eher experimentellen Charakter, sie beruht nicht auf einer Zufallsstichprobe, sondern der Forschende navigiert vor dem Hintergrund einer im Untersuchungsprozess allmählich entstehenden Systematik von Fall zu Fall. Das »theoretical sampling« (Glaser/Strauss 1967) setzt auf eine allmähliche Verdichtung der Fallauswahl durch einen iterativen Forschungsprozess, in dem die Forscherin beständig zwischen Datenerhebung, Auswertung und Typisierung oszilliert. Auf diese Weise tritt nach einiger Zeit eine Sättigung ein, d. h. neue Fälle führen zu keinen neuen Erkenntnissen mehr. Die Erhebungsphase endet, sobald die induktive Erweiterung oder abduktive Generierung einer Theorie über das untersuchte Feld gelungen ist.

b) Datenanalyse

Zur qualitativen Untersuchung von empirischem Material stehen verschiedene Verfahren zur Verfügung: Grounded Theory, Objektive Hermeneutik, dokumentarische Methode, Diskursanalyse, Inhaltsanalyse, narrationsanalytische Biografieforschung, egozentrierte Netzwerkanalyse oder ethnomethodologische Konversationsanalyse (Strübing 2013, Lamnek 2005). Dabei hängt die Entscheidung für eine bestimmte Analysestrategie naturgemäß von dem verfügbaren Datenmaterial ab: Netzwerkanalysen sind auf relationale Beziehungsdaten angewiesen, Konversationsanalysen verlangen nach hochdifferenzierten Transkripten und die dokumentarische Methode benötigt für ihre Typisierungen möglichst kontrastreiche Fälle. Im Folgenden betrachten wir zwei der am häufigsten eingesetzten Analyseverfahren etwas genauer.

[70]Die Grounded Theory geht auf das Buch »The Discovery of Grounded Theory« (1967) von Barney Glaser und Anselm Strauss zurück und wurde seitdem kontinuierlich weiterentwickelt (Strauss/Corbin 1990, Strauss 1991, Strübing 2008, Clarke 2004, Charmaz 2006). Sie ist kein reines Auswertungsverfahren, sondern ein pragmatistisch inspirierter Forschungsstil, welcher Einfluss auf das gesamte Design einer empirischen Untersuchung nimmt. Auf diese Weise wird ein vorurteilsarmer, kreativer, abduktiver und iterativer Forschungsprozess initiiert, der um eine zunächst explorative, später theoriegeladene Fallauswahl kreist. Die einzelnen Untersuchungsschritte werden parallelisiert, schon mit dem ersten ausgewählten Fall beginnt die Theoriebildung. Hinsichtlich des zulässigen Datenformats ist die Grounded Theory offen – möglich sind Texte, Interviews, Videos oder Beobachtungsprotokolle. Die wachsende Beliebtheit der Grounded Theory resultiert nicht zuletzt daraus, dass sie als flexible Plattform für gegenstandsnahe Studien verwendet werden kann. Im Umgang mit dem erhobenen Material setzt sie auf eine gemeinsame Analyse durch mehrere Interpreten, welche in drei Schritten erfolgt. Zunächst wird offen kodiert, d. h. der Datentext wird von den beteiligten Wissenschaftlern durch eine mikroskopische Line-by-Line-Analyse in seine Einzelteile zerlegt. Dabei werden verborgene Sinndimensionen aufgespürt, thematisch interessante Materialstücke ausgewählt und zentrale Konzepte separiert. Anschließend wird axial kodiert, d. h. durch den Vergleich kontrastreicher Fälle kommt es zur Erstellung erster Zusammenhangshypothesen und Theorie-Miniaturen. Hierfür werden einige Phänomene ausgewählt und auf ihre möglichen Ursachen und Konsequenzen befragt. Zum Abschluss der Interpretationsphase wird selektiv kodiert, d. h. nun beginnt die Suche nach der zentralen Schlüsselkategorie, mit der sich die einzelnen Theoreme und Konzepte aufeinander beziehen lassen, um auf diese Weise die erkenntnisleitende Forschungsfrage zu beantworten (vgl. dazu ausführlich: Strauss 1991: 94–114).

Das zweite Interpretationsverfahren, das wir in seinen Grundzügen darlegen, ist die Narrationsanalyse (nach Schütze 1983, 1984). Sie kommt vor allem in der Biografieforschung zum Einsatz und nimmt ihren Ausgang von der detaillierten Transkription eines narrativen Interviews, das eine geschlossene Haupterzählung, einen Vertiefungsteil und einen argumentativ angelegten Nachfrageteil aufweist. In einem ersten Arbeitsschritt wird das Material einer formalsprachlichen Analyse unterzogen, um auf diese Weise erzählende von argumentativen und beschreibenden Passagen zu trennen. Von hier aus erfolgt eine strukturelle Beschreibung, bei der die Zusammenhänge zwischen den einzelnen Erzählsegmenten herausgearbeitet werden. Die analytische Abstraktion identifiziert daraufhin wiederkehrende Muster und Gestaltungsroutinen innerhalb der untersuchten Biografie. Die Wissensanalyse erforscht, auf welche Strategien der Identitätsbehauptung die Erzählperson bei der Darlegung ihrer Biografie zurückgreift. Dazu gehören Techniken der Verdrängung, Legitimierung oder Umdeutung. Nach Schütze kann die Einzelfallanalyse durch kontrastive Vergleiche angereichert werden. Dabei werden zunächst minimale Vergleiche zu ähnlichen Fälle angestellt, später dann maximale Vergleiche mit Fällen, deren Verlaufstypik signifikant vom Ausgangsfall abweicht. Die Vergleichsarbeit mündet in die Konstruktion von Theorien ein, die Prozessmodelle für typische Lebensläufe oder einzelne Lebensphasen bereitstellen (Strübing 2013: 153–161). Narrationsanalysen machen sich dabei drei »Zugzwänge des Stegreiferzählens« zunutze (Schütze 1984: 81). Der »Detaillierungszwang« evoziert die chronologische Benennung wichtiger Schauplätze und Lebensereignisse und befördert die sinnhafte Verknüpfung einzelner Episoden. Besonders detailreich ausbuchstabierte Sequenzen verweisen die Narrationsanalytiker auf biografische Höhe- oder Wendepunkte. Der »Gestaltschließungszwang« führt dazu, dass angekündigte oder begonnene Erzählteile in der Regel vollendet werden, selbst wenn sie Erlebnisse betreffen, die die Erzählperson eigentlich nicht zur Sprache bringen wollte. Auf diese Weise treten auch dramatische Ereignisse und konstitutive [71]Misserfolge hervor. Der »Relevanzfestlegungs- und Kondensierungszwang« besteht schließlich darin, dass die Erzählperson aufgrund eines endlichen Zeitbudgets narrative Schwerpunkte bei der Schilderung ihrer Lebensgeschichte setzen muss. Auf diese Weise werden narrationsanalytische Rückschlüsse auf die Relevanzstrukturen des Befragten möglich. Die Biografieforschung geht keineswegs davon aus, dass die abgerufene Erzählung mit dem gelebten Leben vollkommen übereinstimmt. Sie arbeitet stattdessen mit der konstruktivistischen Annahme, dass sich die mentale Repräsentation und Verarbeitung der eigenen Lebensgeschichte aufgrund der beschriebenen Zugzwänge des Interviews in der Erzählung niederschlagen (Küsters 2006: 33).

c) Theoriebezüge

Ausgangspunkt einer qualitativen Untersuchung sind nicht gegenstandsbezogene Theorien, sondern abstrakte Metatheorien, welche die Wahl der Methoden und Techniken präjudizieren. Hinsichtlich der metatheoretischen Rahmung qualitativer Studien lassen sich verschiedene Einflüsse dokumentieren. Dazu gehören vor allem Pragmatismus (John Dewey, Charles S. Peirce), symbolischer Interaktionismus (George Herbert Mead, Herbert Blumer), Wissenssoziologie und Konstruktivismus (Peter L. Berger, Thomas Luckmann), Phänomenologie und Hermeneutik (Alfred Schütz), Poststrukturalismus (Michel Foucault) und Akteur-Netzwerk-Theorie (Bruno Latour, Annemarie Mol, John Law). Je nach gewählter Theorieoptik wird ein anderes Verhältnis von Struktur und Handlung induziert. Dies hat Folgen für die Auswahl und Analyse des empirischen Materials. Während die Grounded Theory eher beim Akteur ansetzt, konzentrieren sich diskursanalytische oder objektiv hermeneutische Verfahren auf konstitutive Mechanismen und Dispositive auf der Strukturebene.

Ein gemeinsamer Wesenszug aller qualitativen Verfahren besteht darin, dass sie gegenstandsbezogene Theorien nicht im Sinne des quantitativen Paradigmas anwenden oder testen, sondern induktiv weiterentwickeln oder abduktiv generieren wollen (Kalthoff 2008: 21). Theorien gehen der empirischen Forschung nicht voraus, sondern bilden sich in der verstehenden Auseinandersetzung mit dem gesammelten Material. Qualitative Studien können daher auch als Experimente mit offenem Ausgang bezeichnet werden. Sie basieren nicht auf maßgeschneiderten Theorien oder eindeutigen Durchführungsbestimmungen und sie lassen sich von der Dynamik weitgehend unerforschter Materien affizieren. Der Schlüssel zur angestrebten Generalisierung der Befunde liegt in der komparativen Analyse komplexer Fallstrukturen, aus denen empirisch gesättigte Idealtypen und Typologien gebildet werden.

2.3Qualitative und quantitative Methoden im Vergleich

Als Zwischenfazit der bisherigen Darstellung gibt Abbildung 1 einen Überblick über die herausgearbeiteten Differenzen zwischen den beiden Methodensträngen. Die Rekonstruktion hat gezeigt, dass die Zielsetzung ähnlich ist: Sowohl quantitative als auch qualitative Studien generalisieren fallspezifische Befunde, um auf diese Weise soziale Regeln, Regelmäßigkeiten und Gesetzmäßigkeiten aufzudecken. Meinungsverschiedenheiten gibt es jedoch bezüglich der Instrumente und Verfahren, die zur Bewältigung dieser anspruchsvollen Aufgabe eingesetzt werden sollten.

Da beide Methodenbaukästen wohlbegründet und bei der Analyse gesellschaftlicher Phänomene erfolgreich sind, gibt es im Anschluss an die Gegenüberstellung der Instrumente keinerlei Veranlassung dazu, einer Seite die Existenzberechtigung abzusprechen. Wir haben es in der Soziologie vielmehr mit zwei kontingenten, aber legitimen Versionen der empirischen Suche nach sozialen Mustern zu tun. Sofern man sich mit dieser friedlichen Koexistenz nicht begnügen [72]will, stellt sich allerdings die Frage, ob und wie diese Methoden trotz diverser Unterschiede in methodologischer und forschungspraktischer Hinsicht miteinander kompatibel gemacht werden können. In den folgenden Abschnitten diskutieren wir daher einige Kombinations- und Integrationsversuche, die darauf ausgelegt sind, Synergieeffekte zu generieren.

Quantitative MethodenQualitative Methoden
Erkenntnismoduserklärendverstehend
Beobachterrolleneutralinteraktiv
Theoriebezugtheorietestend (deduktiv)theoriegenerierend (abduktiv)
Fallauswahlstatistical samplingtheoretical sampling
Fallzahlhochgering
Fallbeschreibungsparsamdetailliert
Erhebungsmethodestandardisiertunstandardisiert
Datenformatnumerische Messwertesprachlich vermittelte Daten
Forschungsprozesssequenzielliterativ-rekursiv
Forschungszielgeneralisierbare Befunde über soziale Strukturengeneralisierbare Befunde über soziale Strukturen

Abbildung 1: Zentrale Differenzen zwischen quantitativen und qualitativen Methoden

3.Die Konvergenz quantitativer und qualitativer Methoden – Zwei Perspektiven

Für die allermeisten Sozialwissenschaftler stellt sich die Frage nach der Vereinbarkeit von quantitativen und qualitativen Methoden in ihrem Forschungsalltag überhaupt nicht. Sie driften aufgrund kontingenter Ereignisse in eines der beiden Lager, werden mit den dortigen Überzeugungen infiziert und eignen sich im Laufe ihrer akademischen Sozialisation die ausgeklügelten Verfahren der betreffenden Methodenkultur an, ohne dass ein längerer Blick über den Tellerrand vonnöten wäre. Sie forschen an eigenen Lehrstühlen, ziehen eigene Nachwuchsgruppen heran und publizieren in methodisch homogen ausgerichteten Journals. Die enorme Ausdifferenzierung und Verfeinerung der Methoden hat in der Gegenwart zur weiteren Zementierung dieser Kluft beigetragen, denn es ist nahezu unmöglich geworden, die Entwicklungen auf beiden Seiten des Methodenspektrums zu überblicken (oder gar mitzugestalten). Es gibt daher nur wenige Grenzgänger, die nennenswerte Kompetenzen in beiden Bereichen aufweisen. Stattdessen wird die Beziehung durch episodisch wiederkehrende Interventionen belastet, wie den Vorwurf der »Variablensoziologie« (vgl. z. B. Blumer 1956; Esser 1996) als Grundsatzkritik an deterministischen Implikationen einer statistischen Analyse gesellschaftlicher Wirklichkeit oder durch die Unterstellung von »Subjektivität«, als Kritik an der unstandardisierten Vorgehensweise qualitativer Studien und den damit aufgeworfenen Validitäts- und Reliabilitätsproblemen (vgl. z. B. Merton 1968 [1949]).

[73]Die evolutionäre Entkopplung zwischen quantifizierenden und qualifizierenden Methoden der Sozialforschung wird seit ihren Anfängen von einer eher marginalen Gegenbewegung begleitet, die darauf abzielt, die entstehende Lücke forschungsstrategisch zu überwinden. In den 1960er-Jahren wurden diese zaghaften Bemühungen erstmals unter dem Begriff der »Triangulation« gebündelt. Der Ausdruck stammt aus dem Bereich der Landvermessung und bezeichnet dort ein Verfahren, bei dem die Koordinaten eines Gegenstands von zwei unterschiedlichen Punkten aus bestimmt werden (Flick 2012: 11). In der sozialwissenschaftlichen Forschungspraxis lassen sich im Anschluss an Norman K. Denzin (1970) vier Formen der Triangulation unterscheiden: Datentriangulation (verschiedene empirische Quellen werden zur Bestimmung eines Gegenstands herangezogen), Forschertriangulation (verschiedene soziologische Beobachter), Theorietriangulation (verschiedene Theorieperspektiven) und Methodentriangulation (verschiedene Methoden). Der Begriff wird in der Gegenwart häufig auf die Kombination von quantitativen und qualitativen Methoden reduziert. Das Motiv für eine derartige Methodentriangulation besteht darin, validere und reichhaltigere Befunde zu erhalten. Dieser vergleichsweise bescheidene Anspruch ist in den letzten Jahren aus unterschiedlichen Richtungen auf Kritik gestoßen. Aus dem konstruktivistischen Lager wird die damit postulierte Möglichkeit einer synergetischen Kombination bestritten, weil jede Methode ihren eigenen Gegenstand hervorbringt, so dass es demzufolge gar keinen gemeinsamen Nenner für eine Triangulation geben kann. Methodologisch ausgerichtete Forscher greifen diese Kritik auf und bemühen sich darum, eine integrative Plattform für qualitative und quantitative Ansätze zu entwickeln, von der aus eine Kombination der beiden Methodenbaukästen möglich wird. Und schließlich gibt es eine breite und eher forschungspragmatisch ausgerichtete Diskussionslinie, in der es vorwiegend um die formale Ausbuchstabierung und empirische Realisierung konkreter Mixed-Methods-Forschungsdesigns geht.

Wir werden nun auf die beiden letztgenannten Strömungen etwas genauer eingehen, da sie die aktuelle Diskussion um eine Annäherung der beiden Methodenstränge maßgeblich vorangetrieben haben.

3.1Möglichkeiten methodenintegrativer Sozialforschung

Der hierzulande einflussreichste Vorschlag zur methodologischen Integration der beiden Methodenstränge stammt von Udo Kelle (2008). Kelle hat in den letzten Jahren ein integratives Forschungsprogramm entwickelt, auf dessen Basis quantitative und qualitative Ansätze sinnvoll zusammenarbeiten können. Die gemeinsame Plattform weist vier zentrale Charakteristika auf: einen gegenstandsadäquaten Kausalitätsbegriff, ein Konzept der verstehenden Erklärung, einen doppelten Theoriebegriff sowie ein modifiziertes Phasenmodell des sozialwissenschaftlichen Forschungsprozesses.

(1.) Kelles integratives Programm geht in Übereinstimmung mit der quantitativen Forschungslinie von der Notwendigkeit zur kausalen Interpretation empirischer Zusammenhänge aus. Der Begriff der Kausalität erfährt allerdings in zwei zentralen Hinsichten eine Veränderung bzw. Präzisierung. Zum einen werden seine deterministischen Anklänge zugunsten einer Versöhnung mit den Konzepten menschlicher Autonomie und Kreativität getilgt. Demzufolge wird soziales Handeln durch drei verschiedene Bedingungen beeinflusst bzw. verursacht: situative Faktoren, individuelle Handlungsziele und soziokulturell variable Handlungsregeln. Kelle geht im Rahmen seines Ansatzes davon aus, dass Akteure prinzipiell dazu in der Lage sind, diese drei Einflussgrößen zu verändern. Zum anderen wird der Kausalitätsbegriff an den Gegenstandsbereich der Sozialwissen-schaften [74]angepasst. Denn kausale Aussagen haben dort laut Kelles Analyse eine geringere Geltungsreichweite als in den Naturwissenschaften. Die Soziologie hat es stets mit raum-zeitlich begrenzten Strukturen mittlerer Reichweite zu tun, was die Entdeckung universeller Gesetzmäßigkeiten unmöglich macht (ebd.: 181–225).

(2.) Mit dem integrativen Konzept der verstehenden Erklärung wendet sich Kelle gegen den disziplinhistorisch eingeschliffenen Dualismus von Erklären und Sinnverstehen. Er betrachtet das Verhältnis dieser beiden Erkenntnismodi als komplementär: Quantitative Studien beschreiben die Zusammenhänge von Ursache und Wirkung auf der Makroebene, qualitative Analysen liefern durch detaillierte Fallbeschreibungen eine mikrofundierte Tiefenerklärung dafür, wodurch diese Korrelationen zustande kommen. Sofern sichergestellt ist, dass sich qualitative und quantitative Studien auf denselben empirischen Gegenstand beziehen, können sie sich also wechselseitig befruchten, validieren oder sogar korrigieren (ebd.: 267–269).

(3.) In Kelles Programm wird das Verhältnis von theoriegenerierenden (qualitativen) und theorieprüfenden (quantitativen) Verfahren genauer bestimmt. Zu diesem Zweck hält er es für erforderlich, zwei Missverständnisse auszuräumen. Demzufolge sind qualitative Studien nicht – wie gelegentlich suggeriert wird – dazu in der Lage, ex nihilo neue Theorien zu entwickeln. Vielmehr spielen theoretische Vorannahmen, Erwartungen und Wissensbestände eine wichtige Rolle bei der Konstitution und Erforschung des Gegenstandsbereichs. Ebenso wenig kann die quantitative Forschung laut Kelle ihrem selbstformulierten Anspruch auf deduktive Theorieprüfung in der Praxis gerecht werden, weil soziologische Theorien häufig keine operationalisierbaren Aussagen aufweisen, die hinreichend konkret sind, um einen lokalen Gegenstandsbereich angemessen zu erkunden. Kelle schlägt aus diesem Grund einen doppelten Theoriebegriff vor, der zwei Theoriesorten voneinander unterscheidet: empirisch gehaltvolle, gut operationalisierbare und raum-zeitlich klar limitierte Konzepte (a) und empirisch gehaltsarme und universalistisch ausgerichtete Konzepte (b). Die quantitativen Studien sind auf Theorievariante (a) angewiesen, denn nur aus ihnen lassen sich Hypothesen ableiten, die in der Konfrontation mit der empirischen Realität scheitern bzw. falsifiziert werden können. Die qualitativen Studien benötigen hingegen jene heuristischen Suchscheinwerfer, die ihnen durch empirisch gehaltsarme Großtheorien (b) zur Verfügung gestellt werden (ebd.: 271–277).

(4.) Kelle entwickelt auf dieser kategorialen Grundlage ein dreiphasiges Forschungsprogramm. Der erste Schritt besteht in der Deskription empirisch anzutreffender Struktur- und Handlungsmuster. Auf diese Weise wird bestimmt, was überhaupt als Explanandum in Frage kommt. Hierfür ist eine Analyse auf der statistischen Aggregatebene erforderlich, wofür quantitative Verfahren nach Auffassung Kelles am besten geeignet sind. Der zweite Schritt besteht in dem Versuch, die beschriebenen Handlungs- und Strukturmuster verstehend zu erklären. Mithilfe detaillierter Daten über feldspezifische Situationsdeutungen, Handlungsorientierungen und kulturellen Regeln werden typische Akteurmodelle gebildet. An diese Kontextinformationen gelangt man am besten auf qualitativem Wege. Schließlich wird in einem dritten und letzten Schritt die Geltungsreichweite der generierten Theorie überprüft. Aufgrund der geringen Fallzahlen in qualitativen Studien bietet sich hierbei eine quantitative Untersuchung an (ebd.: 281).

Kelle skizziert einen integrativen Forschungsrahmen, an den qualifizierende und quantifizierende Studien gleichermaßen andocken können, da er Kausalität und Freiheit, Erklären und Verstehen sowie Theoriebildung und Theorietest aufeinander bezieht. Grundsätzlich bleibt es zwar innerhalb dieses Rahmens möglich und legitim, monomethodische Untersuchungen durchzuführen, sei es für ausgewählte Phasen des Forschungsprozesses oder über alle drei Phasen hinweg. Doch das Phasenmodell legt eine arbeitsteilige Analyse nahe, indem es die Stärken und Schwächen der jeweiligen Instrumente in neuer Schärfe hervortreten lässt.

[75]Demzufolge eignet sich das quantitative Methodenarsenal am besten, um empirische Evidenzen für Zusammenhangshypothesen zu liefern und um erklärungsbedürftige Tatbestände auf den Bildschirm der Soziologie zu bringen. Qualitative Instrumente sind hingegen dazu in der Lage, mikrofundierte Tiefenerklärungen für schwer interpretierbare Zusammenhänge auf der Aggregatebene anzubieten, durch die Entdeckung neuer Variablen zur Aufklärung von Varianz beizutragen oder durch die Aufdeckung von Drittvariablen zur Vermeidung von Fehlinterpretationen zu sorgen (Kelle 2008: 282–284).

3.2Mixed-Methods-Designs

Der Mixed-Methods-Ansatz hat sich seit den 1980er-Jahren im angelsächsischen Raum entwickelt. Neben der im Kontext der Triangulation bereits erwähnten Studie von Denzin (1978) haben die britische Studie »Quantity and Quality in Social Research« (1988), in der Alan Bryman das Spannungsverhältnis zwischen dem Wissenschaftsparadigma der qualitativen und quantitativen Sozialforschung exploriert, und die US-amerikanische Studie »Research Design: Qualitative and Quantitative Approaches« (1994), in der John W. Creswell erste idealtypische Verfahren skizziert, die Entwicklung des Mixed-Methods-Research als eigenes Forschungsfeld maßgeblich beeinflusst. Diese Entwicklung wurde wesentlich dadurch begünstigt, dass die qualitative Methodik neben der bereits etablierten quantitativen Methodik ein eigenes Profil entwickelt hatte (Denzin/Lincoln 2005).2

Weil divergierende erkenntnistheoretische und methodologische Prämissen in das Design qualitativer und quantitativer Forschung einfließen, wurde besonders in den Anfangsjahren der Mixed-Methods-Bewegung debattiert, ob die Kombination der Methoden durch ein dialektisches Verhältnis, die Dominanz eines Paradigmas oder den gleichberechtigten Einfluss beider Paradigmen in Abhängigkeit von der jeweiligen Forschungsfrage geprägt sein sollte (einen Überblick geben z. B. Creswell/Plano Clark 2011).

Auf einer eher forschungspragmatischen Ebene haben in den Folgejahren zahlreiche Studien versucht, Mixed-Methods-Designs als eigenständige methodische Perspektive zu etablieren. Dabei lassen sich Fälle, in denen quantitative und qualitative Methoden systematisch kombiniert werden (z. B. Greene 2007; Tashakkori/Teddlie 2009), von solchen Ansätzen unterscheiden, die eine von Fragestellung und Forschungsprozess abhängige dynamische Kombination beider Methoden vorsehen (z. B. Maxwell/Loomis 2003; Hall/Howard 2008). Im Zuge dessen wurden Kriterien formuliert, die einen Methodenmix begründen können, wie die Bereitstellung komplementärer Erklärungsmodelle, die Steigerung der Glaubwürdigkeit und die Vergrößerung der empirischen Reichweite (vgl. Bryman 2006; Greene et al. 1998).

Creswell und Plano Clark (2011) formulieren folgende Leitfragen für die Entwicklung eines konkreten Mixed-Methods-Designs: 1.) Sind die qualitativen und quantitativen Teilschritte unabhängig voneinander, so dass die Befunde erst bei der Interpretation integriert werden, oder interdependent, so dass sie sich im Zuge des Forschungsprozesses direkt aufeinander beziehen? 2.) Hat eine der beiden Methoden Priorität vor der anderen, oder sind beide Methoden gleichberechtigt? 3.) In welchem zeitlichen Verhältnis stehen die qualitativen und quantitativen Teilschritte des Forschungsprozesses zueinander? 4.) In welchem Forschungsschritt werden beide [76]Methoden kombiniert, d. h. während der Interpretation, der Datenanalyse oder bereits während der Datenerhebung? (Creswell/Plano Clark 2011: 64 ff.)

Auf dieser Grundlage unterscheiden die Autoren sechs unterschiedliche Typen eines Mixed-Methods-Forschungsdesigns, und zwar ein convergent parallel design, in dem die Datenerhebung und -analyse der quantitativen und qualitativen Daten unabhängig voneinander erfolgt und beide Methoden im systematischen Vergleich der Befunde zusammengeführt werden; ein explanatory sequential design, das eine quantitative Datenerhebung und -analyse durch eine qualitative Datenerhebung und -analyse vertieft, während ein exploratory sequential design eine qualitative Studie durch eine quantitative Studie ergänzt, um die Reichweite ihrer Gültigkeit zu steigern; embedded designs sind demgegenüber dadurch gekennzeichnet, dass eine quantitative oder qualitative Studie bereits bei der Datenerhebung und -analyse durch ein Element der jeweils anderen Methodik ergänzt wird. Demgegenüber zielen sowohl das transformative design als auch das multiphase design auf einen Methodenmix ab, der sich im ersten Fall im Zuge des Forschungsprozesses ergibt und im zweiten Fall bereits als ergänzende Durchführung quantitativer und qualitativer Teilstudien, insbesondere im Rahmen von Evaluationsstudien, als Methodenmix angelegt ist, in dem sich beide Methoden mehrfach abwechseln können (ebd.: 69 ff.). Für jedes der Designs können eigene methodische Stärken, methodologische Grundlagen und methodische Herausforderungen unterschieden werden.3

4.Aktuelle Herausforderungen empirischer Sozialforschung

Zum Abschluss wollen wir auf die wichtigsten Herausforderungen hinweisen, mit denen sich die Methoden der empirischen Sozialforschung gegenwärtig konfrontiert sehen.

a)In den letzten Jahren hat die Diskussion um Forschungsstandards und Gütekriterien in den qualitativen Methoden an Bedeutung gewonnen. Derzeit ist nicht absehbar, ob die Auseinandersetzung zu einer stärkeren Integration der verschiedenen Ansätze oder zur internen Fragmentierung und Spaltung des Feldes führen wird. Im Zuge der zu erwartenden Konflikte sollte man nicht übersehen, dass sich im Rahmen methodischer Reflexionen und praktischer Studien bereits ein weithin geteiltes Sortiment an impliziten Regeln und expliziten Qualitätskriterien herausgebildet und etabliert hat (vgl. Abschnitt 2.2 und 2.3).
b)Die zunehmende Technisierung des Alltags macht auch vor sozialwissenschaftlichen Verfahren nicht halt. Man darf gespannt darauf sein, wie der vermehrte Einsatz computer- bzw. internetgestützter Verfahren die Erhebung, Analyse, Auswertung und Dokumentation gerade im Bereich der qualitativen Sozialforschung verändern wird. Durch die Etablierung öffentlich zugänglicher Datenarchive – wie »Qualiservice« (Universität Bremen) – dürfte außerdem das bislang kaum bestellte Feld der qualitativen Sekundäranalyse enormen Auftrieb bekommen.
c)Die quantitative Forschung hat mittlerweile einen erfreulich hohen Grad der Spezialisierung erreicht. Allerdings kann sie von hier aus ihren eigenen Anspruch auf Objektivität und Überprüfbarkeit durch andere Forscher nur noch schwerlich einlösen. Lediglich absolute Spezialisten für die betreffende Methode können die Befunde anderer Forscher beurteilen. Es müssen daher Vorkehrungen getroffen werden, um die Qualität quantitativer Studien auch in Zukunft zu gewährleisten.
[77]d)Durch die Zunahme sekundäranalytischer Zugriffe auf nationale Längsschnittuntersuchungen erfolgt eine Zuspitzung quantifizierender Studien auf eine feststehende Auswahl an Forschungsthemen. Daraus ergibt sich eine beträchtliche Hürde für die Exploration neuer Fragestellungen und die Bearbeitung aktueller Themen auf dem Stand der methodischen Entwicklung. Dieser Tendenz gilt es entgegenzuwirken.
e)Mit der zunehmenden Abhängigkeit universitärer Forschung von der erfolgreichen Drittmitteleinwerbung steigt das Risiko, dass methodische Interpretationsspielräume ausgenutzt werden, um gesellschaftlich erwünschte oder massenmedial anschlussfähige Schlussfolgerungen zu ziehen. Forscher/innen sehen sich unter den gegenwärtigen Bedingungen immer häufiger dazu animiert, ihre Befunde zu stilisieren, um den öffentlichen Erfolg ihrer Studie zu steigern. Dadurch wird ein ergebnisoffener Austausch über theoretische Modelle, empirische Forschungsdesigns und die Grenzen der Verallgemeinerbarkeit blockiert (Neuman 1997: 157).
f)In jüngster Zeit haben institutionelle Vorkehrungen und diskursive Verschiebungen eine Annäherung der beiden Methodenstränge befördert. So empfiehlt die Deutsche Gesellschaft für Soziologie (DGS) seit dem Jahr 2002 eine universitäre Ausbildung, in der quantitative und qualitative Methoden in gleichberechtigter Weise gelehrt werden. Darüber hinaus sorgt das kulturelle Leitmotiv der Interdisziplinarität für Berufungs- und Begutachtungsverfahren, in denen immer häufiger Kompetenzen in beiden Feldern vorausgesetzt werden. Wie wir in unserem Beitrag gezeigt haben, sind die methodischen Anforderungen an integrative Forschung und Lehre jedoch immens. Ohne eine intensivierte Kooperation von quantitativen und qualitativ ausgerichteten Wissenschaftlerinnen und Wissenschaftlern im Rahmen gegenstandsnaher Forschungsverbünde ist eine Überwindung der historisch gewachsenen Spaltung auch in Zukunft kaum vorstellbar. Wir sind der Auffassung, dass eine transmethodische Zusammenarbeit nicht nur möglich, sondern auch erforderlich ist, um die soziologische Durchdringung hereinbrechender Sozialwelten zu verbessern.

Literatur

Aachen, Christopher H. (1982): Interpreting and Using Regression. Thousand Oaks, California.

Amann, Klaus/Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Dies. (Hg.): Die Befremdung der eigenen Kultur. Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt/M.: 7–52.

Blumer, Herbert (1956): Sociological Analysis and the »Variable«. In: American Sociological Review 21 (6): 683–690.

Breidenstein, Georg/Hirschauer, Stefan/Kalthoff, Herbert/Nieswand, Boris (2013): Ethnografie – Die Praxis der Feldforschung. Konstanz.

Bryman, Alan (1988): Quantity and Quality in Social Research. London.

Bryman, Alan (2006): Integrating Quantitative and Qualitative Research: How Is It Done? Qualitative Research 6 (1): 97–113.

Bryman, Alan (2008): Social Research Methods, Oxford.

Charmaz, Kathy (2006): Constructing Grounded Theory: A Practical Guide through Qualitative Analysis. London.

Clarke, Adele E. (2004): Situationsanalyse: Grounded Theory nach dem Postmodern Turn. Wiesbaden.

Creswell, J. W. (1994): Research Design: Qualitative and Quantitative Approaches, Thousand Oaks, CA.

Creswell, J. W./Plano Clark, V. L. (2011): Designing and conducting mixed methods research, 2. Auflage, Thousand Oaks, CA.

[78]Denzin, Norman K. (1970): The Research Act: A Theoretical Introduction to Sociological Methods. New York: McCraw-Hill. Diekmann, Andreas (2002): Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen. Reinbek.

Diekmann, Andreas (Hg.) (2004): Methoden der Sozialforschung. Sonderheft der Kölner Zeitschrift für Soziologie und Sozialpsychologie 44, Wiesbaden.

Esser, Hartmut (1996): What is Wrong with Variable Sociology? In: European Sociological Review 12 (2): 159–166.

Fleck, Christian (2010): 60 Jahre empirische Methodenforschung. In: Faulbaum, Frank/Wolf, Christof (Hg.): Gesellschaftliche Entwicklungen im Spiegel der empirischen Sozialforschung. Wiesbaden: 173–197.

Flick, Uwe (2007): Qualitative Sozialforschung. Eine Einführung. Hamburg.

Flick, Uwe (2012): Triangulation. Eine Einführung. Wiesbaden.

Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (2012): Was ist qualitative Sozialforschung? Einleitung und Überblick. In: dies. (Hg.): Qualitative Forschung. Ein Handbuch. Reinbek: 13–29.

Glaser, Barney/Strauss Anselm (1967): The Discovery of Grounded Theory: Strategies for Qualitative Research. Chicago.

Gläser, Jochen/Laudel, Grit (2010): Experten interviews und qualitative Inhaltsanalyse als Instrumente rekonstruierender Untersuchungen. Wiesbaden.

Greene, J. C./Caracelli, V. J./Graham, W. F. (1998): Toward a Conceptual Framework for Mixed-Method Evaluation Designs. In: Educational Evaluation and Policy Analysis 11(3): 255–274.

Greene, J. C. (2007): Mixed Methods in Social Inquiry, San Francisco.

Hall, B./Howard, K. (2008): A synergistic approach: Conducting mixed methods research with typological and systemic design considerations. In: Journal of Mixed Methods Research 2 (3): 248–269.

Hammersley, Martyn/Atkinson, Paul (2007): Ethnography: Principles in Practice. London.

Helfferich, Cornelia (2009): Die Qualität qualitativer Daten. Manual zur Durchführung qualitativer Interviews. Wiesbaden.

Hempel, Carl G./Oppenheim, P. (1948): Studies in the Logic of Explanation. In: Philosophy of Science 15 (2): 135–175.

Jahoda, Marie/Lazarsfeld, Paul F./Zeisel, Hans (1975): Die Arbeitslosen von Marienthal. Ein soziographi-scher Versuch. Frankfurt/M..

Kalthoff, Herbert (2008): Einleitung: Zur Dialektik von qualitativer Forschung und soziologischer Theoriebildung. In: Kalthoff, Herbert/Hirschauer, Stefan/Lindemann, Gesa (Hg.): Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt/M.: 8–32.

Kelle, Udo (2008): Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung. Wiesbaden.

King, Gary/Keohane, Robert O./Verba, Sidney (1994): Designing Social Inquiry – Scientific Inference in Qualitative Research, Princeton, New Jersey.

Kromrey, Helmut (2000): Empirische Sozialforschung. Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung. Opladen.

Küsters, Ivonne (2006): Narrative Interviews. Wiesbaden.

Lamnek, Siegfried (2005): Qualitative Sozialforschung. Weinheim.

Latour, Bruno (2002): Zirkulierende Referenz. Bodenstichproben aus dem Urwald am Amazonas. In: ders.: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft. Frankfurt/M.: 36–95.

Lincoln, Y. S./Guba, E. G. (2000): Paradigmatic Controversies, Contradictions, and Emerging Confluences. In: Denzin, N. K./Lincoln, Y. S. (Hg.): Handbook of Qualitative Research, Thousand Oaks: 163–188.

Maxwell, J. A./Loomis, D. M. (2003): Mixed methods design: An alternative approach. In: A. Tashakkori und C. Teddlie (Hrsg.): Handbook of mixed methods in social & behavioral research, Thousand Oaks, CA 241–271.

Neuman, William Lawrence (1997): Social Research Methods. Qualitative and Quantitative Approaches. University of Wisconsin.

[79]Przyborski, Aglaja/Wohlrab-Sahr, Monika (2008): Qualitative Sozialforschung. Ein Arbeitsbuch, München.

Reichertz, Jo (2000): Zur Gültigkeit von Qualitativer Sozialforschung. In: Forum Qualitative Sozialforschung 1 (2), Art. 32. http://nbn-resolving.de/urn:nbn:de:0114-fqs0002324.

Ruspini, Elisabetta (2002): Introduction to Longitudinal Research, London.

Schnell, Rainer/Hill, Paul B./Esser, Elke (2011): Methoden der empirischen Sozialforschung, München.

Schütz, Alfred (1971): Gesammelte Aufsätze. Bd. 1: Das Problem der sozialen Wirklichkeit, Den Haag.

Schütze, Fritz (1983): Biographieforschung und narratives Interview. In: Neue Praxis 13 (3): 283–293.

Schütze, Fritz (1984): Kognitive Figuren des autobiographischen Stehgreiferzählens. In: Kohli/Robert (Hg.): Biographie und soziale Wirklichkeit. Stuttgart: 78–117.

Steinke, Ines (1999): Kriterien qualitativer Sozialforschung. Ansätze zur Bewertung qualitative-empirischer Sozialforschung. Weinheim.

Strauss, Anselm (1991): Grundlagen qualitativer Sozialforschung. München.

Strauss, Anselm/Corbin, Juliet (1990): Basics of Qualitative Research: Grounded Theory Procedures and Techniques, Newbury Park.

Strübing, Jörg (2006): Wider die Zwangsverheiratung von Grounded Theory und Objektiver Hermeneutik. In: Sozialer Sinn 7 (1): 147–157.

Strübing, Jörg (2008): Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden.

Strübing, Jörg (2013): Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende. München.

Tashakkori, A./Teddlie, C. (1998): Mixed Methodology: Combining Qualitative and Quantitative Approaches. Thousand Oaks, CA.

Tashakkori, A./Teddlie, C. (2009): Foundations of Mixed Methods Research: Integrating Quantitative and Qualitative Approaches in the Social and Behavioral Sciences. Thousand Oaks, CA.

Thome, Helmut (2007): Methoden der Sozialforschung. In: Joas, Hans (Hg.): Lehrbuch der Soziologie, Frankfurt/New York: 39–71.

1Die Objektive Hermeneutik ist am schwierigsten mit den anderen Ansätzen auf einen gemeinsamen Nenner zu bringen. Ulrich Oevermann hat daher im Jahr 2004 sogar die Zugehörigkeit der OH zum Bereich der qualitativen Methoden auf dem Podium des 32. Soziologiekongresses in München heftig bestritten (vgl. Strübing 2006: 153).
2Einen guten Überblick über die Entwicklungsphasen des Mixed-Methods-Research findet sich z. B. in Tashakkori/Teddlie 1998 und Creswell/Plano Clark 2011.
3Im vierten Kapitel ihres Lehrbuchs stellen Creswell und Clark Studien vor, die sich aufgrund ihres Vorgehens den hier aufgeführten Designvarianten zuordnen lassen (Creswell/Plano Clark 2011: 116 ff.).
Handbuch der Soziologie

Подняться наверх