Читать книгу Qualitative Medienforschung - Группа авторов - Страница 29

Auf dem Weg zu Gütestandards qualitativer Sozialforschung

Оглавление

Will man die Güte qualitativer Forschung im wissenschaftlichen Diskurs (aber vor allem auch im Diskurs mit potenziellen Bewertern) verteidigungsfähig machen (anregend hierfür: Steinke 1999; Flick 2007, 485 ff.; Reichertz 2006, Flick 2014, Przyborski/Wohlrab-Sahr 2014, 21 ff.; Reichertz 2013b), dann gelingt dies heute keinesfalls mehr durch die Berufung auf die Autorität verstorbener Säulenheiliger der Wissenschaft, auch nicht durch den empiriefreien Einsatz wissenschaftlicher Vernunft und ebenfalls nicht durch die Unterstellung persönlicher Hellsichtigkeit. Stattdessen lässt sich die Güte von Aussagen nur über empirische Forschung rechtfertigen und deren Güte wiederum über spezifische (nach Gesellschaft, Zeit und Fachgebiet variierende) Standards der Qualitätssicherung. Letztere werden sich jedoch dabei (zumindest im westlichen Wissenschaftsprogramm) auf die Fragen der Zuverlässigkeit und der Repräsentativität der Datenerhebung und auf die Gültigkeit der Generalisierung beziehen müssen – will man in dem Wettbewerb um ökonomisches Forschungskapital im Spiel bleiben.

Kann bei der Bewältigung dieser nicht einfachen Aufgabe die qualitative Forschung (im Allgemeinen) unter Zugrundelegung eines (unreflektierten) Realismus solche Verfahren favorisieren, die versprechen, näher an der Wirklichkeit zu sein, so kann dieses Kriterium innerhalb einer reflexiven Sozialforschung so nicht gelten – hat sie sich doch von der Möglichkeit der Wirklichkeitsansicht verabschiedet – allerdings verbunden mit der Hoffnung, empirische Forschung und wissenschaftlicher Diskurs produzierten, wenn schon keine guten, dann jedoch bessere Einsichten. Sozialforschung kann deshalb letztlich nur auf die systematische und organisierte Produktion von Zweifeln (in jeder Phase des Forschungsprozesses) und die dadurch erreichte Fehlerausmerzung vertrauen.

Für diesen Zweck hat sich die sozialwissenschaftliche Forschung (trotz der nicht allzu weit zurückreichenden Forschungstradition) durchaus sinnvolle und auch harte Gütekriterien erarbeitet.

• So sichert z.B. die Bevorzugung natürlicher Daten, also solcher Daten, die nicht erzeugt wurden, um von Wissenschaftlern untersucht zu werden, und deren Erhebung und Fixierung mit Medien, die möglichst viel von der Qualität der Daten und der ihnen inhärenten Zeitstruktur konservieren, die Zuverlässigkeit der Datenerhebung (Reichertz 2006). Die Vorrangstellung natürlicher Daten bedeutet nun keinesfalls, dass Interviews oder Feldprotokolle für die qualitative Sozialforschung wertlos sind, sondern sie weist darauf hin, dass solche Daten immer unter Berücksichtigung der interaktiven Einbettung analysiert werden müssen – außer man interessiert sich z. B. dafür, was Menschen in Interviews sagen.

• Die Repräsentativität des Datensamples wird in der Regel hinreichend durch das Theoretical Sampling (Glaser/Strauss 1974; Strauss/ Corbin 1996; Bryant/Charmaz 2010; Equit/ Hohage 2016) gesichert, also eine Methode, die entweder nach dem Verfahren des minimalen und maximalen Kontrasts oder theoriegeleitet solange Daten innerhalb des Untersuchungsfeldes sucht, bis alle relevanten Variablen erfasst sind. Das Sample ist dann komplett und damit auch repräsentativ, wenn durch die Aufnahme weiterer Daten die Ergebnisse nicht weiter angereichert werden können.

• Die Gültigkeit von Generalisierungen resultiert dabei einerseits aus der Überprüfung der aus den Daten (mittels Abduktion oder qualitativer Induktion) gewonnenen Hypothesen am weiteren Datenbestand mittels Sequenzanalyse (Oevermann 2000; Soeffner 2004; Reichertz 2007 und 2016). Einmal gefundene Lesarten werden dabei anhand des Datenmaterials sequenzanalytisch auf Stimmigkeit überprüft, was bedeutet, dass die jeweilige Lesart als zu testende Hypothese gilt. Findet sich im weiteren Datenmaterial eine Lesart, die mit der zu testenden Hypothese nicht vereinbar ist, gilt diese als widerlegt, finden sich jedoch nur passende Lesarten, dann gilt die zu testende Hypothese als vorläufig verifiziert (Validierung am Text).

• Neben dieser Validierung am Text stellt sich die Güte von Generalisierungen andererseits dadurch her, dass meist gemeinsam in Gruppen interpretiert wird (Reichertz 2013b), dass weitere Validierungen (1) durch Kontrollinterpretationen anderer Mitglieder der Forschergruppe und (2) den wissenschaftlichen Diskurs (auf Tagungen) herbeigeführt wird (Validierung durch Diskurs). Hierbei geht es um die systematische Kontrolle durch die Perspektivenvielfalt und zugleich um deren Einbeziehung (Flick 2014).

Absolute Gewissheit über die Validität von Generalisierungen ist jedoch auch so nicht zu erreichen. Wahrheit im strengen Sinne des Wortes findet sich auf diese Weise nicht. Was man allein auf diesem Wege erhält, ist eine intersubjektiv aufgebaute und geteilte Wahrheit.

Eine qualitativ verfahrende Datenanalyse, deren Validität sowohl durch den Datenbezug als auch durch konkurrierende Lesartenkonstruktionen und den wissenschaftlichen Diskurs gesichert werden soll, hat notwendigerweise zur Voraussetzung, dass mehrere ausgebildete Wissenschaftler das Material unabhängig von einander interpretieren und auch immer wieder ihre Ergebnisse einer wissenschaftlichen Kritik aussetzen. Die Sicherung der wissenschaftlichen Ressourcen, um eine solche Überprüfung von Lesarten, Hypothesen und theoretischen Verallgemeinerungen vorzunehmen, trägt dabei nicht unwesentlich zur Erhaltung selbstverständlicher Standards und wissenschaftlicher Anforderungen an die Validität von Untersuchungen bei – was bedeutet, dass die qualitative Forschung nicht weiter auf den Schultern von Einzelkämpfern ruhen darf, sondern die kooperative und konkurrierende Teamarbeit muss selbstverständlicher Standard werden.

Qualitative Medienforschung

Подняться наверх