Читать книгу Leitfaden zur Bachelor- und Masterarbeit - Hans Brunner - Страница 11

Оглавление

3

Grundlegende

Aspekte von Forschung

Das Ergebnis eines Forschungsprojekts ist die Antwort auf eine oder mehrere Forschungsfragen. Anders ausgedrückt: Die Beantwortung von (neuen) wissenschaftlich relevanten Fragen ist zentrales Thema einer Forschungsarbeit. Durch die Beantwortung einer Forschungsfrage entsteht ein Erkenntniszuwachs – nicht nur für die forschende Person, sondern idealtypisch auch für die Wissenschaft.

3.1 Formen von Forschung

In der empirischen Forschung bzw. in der Schulforschung gibt es verschiedene Formen, die wie folgt klassifiziert werden:

• Explorative Untersuchungen erforschen einen Teilbereich eines Forschungsfelds, über den bezogen auf die spezifische Fragestellung noch wenig oder nichts bekannt ist. Dazu zählen Forschungsprojekte der Grundlagenforschung, bei denen es in erster Linie um das Generieren von neuem Wissen und weniger um die Anwendung in der Praxis geht. Das Forschungsfeld „Eltern mit Lernschwierigkeiten“ ist beispielsweise ein noch wenig beforschtes. Das Forscherinteresse ist demnach zunächst darauf gerichtet, zu erheben, wie es Frauen und Männern mit Lernschwierigkeiten ergeht, wenn sie Eltern werden. Darauf aufbauend wird es in einem anwendungsorientierten Forschungsvorhaben darum gehen, wie diese Eltern unterstützt werden können. Explorativ ausgerichtete Forschung ist des Weiteren dann sinnvoll, wenn es um die Strukturierung eines zu beforschenden Feldes geht und daraus Hypothesen abgeleitet werden sollen, welche in einer anschließenden hypothesenprüfenden Untersuchung geprüft werden. Schließlich zählen auch theoriegenerierende Studien zu explorativen Untersuchungen, bei denen systematisch eine Theorie entwickelt wird (z. B. Forschungsansatz der Grounded Theory).

• Deskriptive Untersuchungen beschreiben einen spezifischen Untersuchungsgegenstand (z. B. „Werte und Wertewandel bei Jugendlichen“). Die Erklärung von Zusammenhängen bzw. Unterschieden zwischen Merkmalen oder von Ursachen für ein untersuchtes Phänomen ist dabei nicht vorrangig. Zur deskriptiven Forschung zählen z. B. Untersuchungen zur Systembeobachtung (z. B. Internationale Leistungsvergleiche wie die Lesekompetenzmessung bei 15-Jährigen) oder Befindlichkeitsstudien (z. B. „Das Befinden von Kindern und Jugendlichen in der österreichischen Schule“).

• Evaluationsforschung dient zur Ermittlung der Wirksamkeit/Nachhaltigkeit von (pädagogischen) Maßnahmen bezüglich eines oder mehrerer Erfolgs- bzw. Bewertungskriterien (Ausmaß der Zielerreichung) sowie deren Effizienz (Verhältnis von Aufwand und Nutzen), ebenfalls mit dem Ziel die (pädagogische) Praxis weiterzuentwickeln. Beispiel: Nach Abschluss eines zweijährigen Pilotprojekts zur Umsetzung der Grundschulreform wurde in einer von der Schulbehörde in Auftrag gegebenen Evaluationsstudie u. a. untersucht, wie die zwei Reformbereiche „Übergang gestalten (Transition)“ sowie „Sprachliche Bildung“ in Bezug auf die Ziele der Bildungsreform umgesetzt wurden. Evaluationsstudien werden meistens in Auftrag gegeben, während Aktionsforschungsprojekte von den Betroffenen initiiert werden.

• Hypothesenprüfende Untersuchungen überprüfen angenommene Zusammenhänge, Unterschiede und Veränderungen ausgewählter Merkmale bei bestimmten Gruppen von Personen (Populationen) (siehe Kapitel 9.2.6).

• Untersuchungen zur Praxisentwicklung beinhalten die Anwendungsforschung und die im Kapitel 2 ausführlich behandelte Aktionsforschung. Ziel ist es, z. B. Wissen über die Anwendung von theoretischen Erkenntnissen in der Praxis zu genieren, ein praxisbezogenes Problem zu lösen oder Handlungsanweisungen zur Implementation eines Konzepts in einem spezifischen Kontext (z. B. „Einführung des Buddy-Prinzips in der Sekundarstufe I in Brennpunktschulbezirken“) zu erstellen.

Grundlagenforschung und angewandte Forschung verfolgen gegensätzliche Ziele, sie stehen aber in einer Wechselbeziehung zueinander. Die angewandte Forschung baut auf der Grundlagenforschung auf, die Ergebnisse der angewandten Forschung liefern umgekehrt Anregungen für die Grundlagenforschung. Die Übergänge zwischen Grundlagenforschung und angewandter Forschung sind mitunter fließend.

3.2 Quantitative und qualitative Methoden der empirischen Forschung

Die berufsfeldbezogene Forschung zählt zur empirischen Forschung. Der Begriff „Empirie“ kann zunächst einmal mit „Erfahrung“ (vom griechischen Wort empereia) übersetzt werden. In der Wissenschaft bezeichnet der Begriff Empirie Wissen, das sich auf Erfahrung und erfahrbaren Sachverhalten stützt. All unser Wissen, so die Grundannahme, ist auf Erfahrung zurückzuführen.

Empirie im Sinne von „wissenschaftlicher Erfahrung“ meint „das Erheben von Daten über Sachverhalte und Vorgänge, die durch mehr oder weniger genau vorstrukturierte Verfahren gewonnen werden“ (Hug, 2001, S. 19). Wissenschaftlich gewonnene Erfahrungen unterscheiden sich von Alltagserfahrungen durch die Systematik des Vorgehens. Der Weg zur Erkenntnis erfolgt über ein planmäßiges, systematisches Verfahren, in anderen Worten durch den Einsatz wissenschaftlicher Methoden. Grundsätzlich wird zwischen quantitativen und qualitativen Forschungsmethoden unterschieden.

Quantitative Methoden (z. B. Fragebogen, Tests) sind standardisierte Verfahren zum Erheben von numerischen Daten – zählbare Merkmale (z. B. Häufigkeitsverteilung der Schulwahl, Rangordnung von Lernleistungen durch Noten) und messbare Merkmale (z. B. Intelligenz) – auf Basis von größeren Fallzahlen.

Durch Verfahren und Techniken der Statistik (analytische Statistik) werden (kausale) Zusammenhänge und Gesetzmäßigkeiten über Vorgänge bzw. Sachverhalte in der „Realität“ gesucht, geprüft, in Modellen dargestellt und Wahrscheinlichkeitsaussagen getroffen, z. B. über Merkmale einer Gruppe in ihrer Gesamtheit oder das Zustandekommen und Vorhandensein von Ereignissen in der „Gesellschaft“.

Quantitative Forschungsmethoden werden bei repräsentativen Umfragen (z. B. die bekannte „Sonntagsfrage“ zur Wahlabsicht), bei breit angelegten deskriptiven Studien, in der Evaluationsforschung und zur Prüfung von Hypothesen eingesetzt.

Das Methodenrepertoire reicht von standardisierten Befragungstechniken und schematisierten Beobachtungsformen, experimentellen Vorgangsweisen und Tests bis hin zu Skalierungsverfahren, besonders zur Messung von Einstellungen und Motiven, und soziometrischen Verfahren zur Analyse von sozialen Beziehungen und Strukturen (Hug, 2001, S. 22).

Qualitative Methoden (z. B. Beobachtung, Interview) sind fallbezogener, kontextorientierter und offener dahingehend, dass versucht wird, „Phänomene von innen heraus zu verstehen und sich auf Überraschungen und unvorhersehbare Gesichtspunkte, die erst im Laufe des Feldkontaktes deutlich werden, einzulassen“ (Zepke, 2016, S. 13). Im Rahmen der Untersuchung von typischen Eigenschaften einzelner Fälle, z. B. in Fallstudien, werden in erster Linie nicht-numerische Daten (verbales und visuelle Material) erhoben.

In Abhängigkeit der Reichweite der Verallgemeinerungsansprüche wird durch gezieltes Analysieren und Interpretieren schrittweise auf allgemeinere und abstraktere Zusammenhänge menschlichen Handelns in vertrauten und fremden Lebenswelten hin generalisiert, werden soziale Regeln und kulturelle Orientierungen, Sinnstrukturen und Bedeutungszuschreibungen erschlossen (Hug, 2001, S. 22).

Qualitative Forschungsmethoden sind sinnverstehende Verfahren. Sie werden in Untersuchungen eingesetzt, bei denen es um die Entdeckung und Beschreibung fremder oder um unbekannte Aspekte in vertrauten Lebenswelten (Ethnographische Forschung), um die Rekonstruktion von Lebensverläufen (Biographieforschung), um das (Weiter-)Entwickeln von Hypothesen oder Theorien (Grounded Theory), oder die Anwendung von Theorie auf den Einzelfall geht (Oswald, 2013, S. 191–194). In der Evaluationsforschung sowie bei Untersuchungen zur Praxisentwicklung kommen ebenfalls häufig qualitative Methoden zum Einsatz.

Das Methodenrepertoire reicht von verschiedenen Interviewformen und Gruppendiskussionsverfahren über offene Beobachtungsmethoden bis hin zu inhaltsanalytischen Verfahren und qualitativen Experimenten zur Aufdeckung und Analyse verborgener Strukturen.

Hinter dem quantitativen und qualitativen Zugang zur Forschung stehen zwei Forschungsparadigmen1, deren strikte Trennung in den vergangenen Jahrzehnten aufgeweicht wurde. Anstelle des Beharrens auf einer wissenschaftstheoretischen Position (Paradigmenstreit) ist das Bewerten von Vorzügen und Nachteilen von Forschungsmethoden im Kontext der Forschungsabsicht (Untersuchungsgegenstand, Forschungsfrage) getreten. Zwischenzeitlich kommen sowohl quantitative als auch qualitative Methoden in einem Forschungsprojekt zum Einsatz, die entsprechend einem komplementären Methodenverständnis unterschiedlich kombiniert werden, „weil komplexe soziale Phänomene nur durch mehrdimensionale, interdisziplinäre und multimethodische Forschungskonzeptionen realitätsgerecht erfasst werden können“ (Fried, 2002, S. 183). Für diese „sowohl als auch“ bzw. „und“ Position „hat sich im angelsächsischen Sprachraum der Begriff Mixed-Methods [sic] durchgesetzt“ (Brühl & Buch, 2006, S. 3). Das Erfassen eines Untersuchungsgegenstands mit mehreren Methoden wird auch Triangulation genannt.

3.3 Triangulation und Mixed-Methods

Um ein „objektives“ Bild von der Vielschichtigkeit der sozialen Wirklichkeit zu zeichnen, kann es angemessen sein, methodische Zugänge zu kombinieren. In der Methodendiskussion werden die Begriffe Mixed-Methods oder Triangulation verwendet. Unter Methodentriangulation versteht man (im engeren Sinn) die „Variation des methodischen Settings“ (Schründer-Lenzen, 2013, S. 149–151), d. h. es kommen mehrere Methoden zum Einsatz. Bildlich gesprochen schauen wir auf den Forschungsgegenstand durch verschiedene (Methoden-)Brillen. Ziel dieses Verfahrens ist es zum einen, die Stärken und Schwächen der jeweiligen methodischen Vorgehensweisen auszugleichen und dadurch eine stärkere Validierung der Daten zu erreichen (Konvergenz), zum anderen eine komplementäre Sicht auf den Untersuchungsgegenstand zu erhalten, indem die durch verschiedene Methoden erhobenen Daten miteinander in Beziehung gesetzt werden. Letzteres bedeutet nicht, dass die Ergebnisse übereinstimmen müssen. Die unterschiedlichen Forschungsergebnisse verhelfen in ihrer wechselseitigen Ergänzung zu einem ganzheitlichen Verständnis des Untersuchungsgegenstands.

Beispiel

Es wird der Effekt von unterschiedlichen Unterrichtsmethoden untersucht. Dazu wird nicht nur das erzielte Lernergebnis mittels Tests gemessen, sondern ergänzend wird auch der Unterricht beobachtet, um die Zusammenhänge zwischen Unterrichtsprozessen und Lernerfolg besser verstehen und zuverlässiger interpretieren zu können (Schründer-Lenzen, 2013, S. 149).

Über die Kombination komplementärer Messverfahren hinaus umfasst Triangulation „jede Form von Mehrfachperspektiven [sic], die im Forschungsprozess eingesetzt werden kann, so z. B. der Einsatz verschiedener Daten, Theorien, Forscher und Beobachter etc. [sic]“ (Brühl & Buch, 2006, S. 3; siehe auch Flick, 2011). Dieser Zugang erhält vor allem in der qualitativen Sozialforschung Zuspruch und eignet sich auch für die berufsfeldbezogene Forschung (Aktionsforschung). Für Studierende könnte das z. B. bedeuten, dass im Sinne einer „Forscher/innen-Triangulation“ (Investigator-Triangulation) die gewonnenen Daten im Team analysiert und interpretiert werden oder dass Studienkolleginnen/Studienkollegen gemeinsam Unterrichtsbeobachtungen mit Hilfe eines (standardisierten) Beobachtungsbogen durchführen.

Im Mixed-Methods-Ansatz werden in der Regel qualitative und quantitative Forschungsmethoden im Rahmen einer Untersuchung kombiniert (Kelle, 2019, S. 159) und er geht in Bezug auf die Möglichkeiten der Methodenkombination noch weiter, indem z. B. zwei Phasen einer Untersuchung aufeinander aufbauen (einer qualitativen hypothesengenerierenden Phase bzw. Studie folgt die quantitative hypothesenprüfende Phase bzw. Studie) oder indem in der Phase der Datenauswertung Verfahren miteinander verknüpft werden. Beispielsweise können Interviewdaten in einem ersten Schritt mit dem Kodierverfahren ausgewertet werden (qualitatives Verfahren, siehe Kapitel 8). Anschließend werden die Kategorien (Codes) in numerische Daten transformiert (z. B. Kategorie „Zufriedenheit“ = 1, „Unzufriedenheit“ = 2). Im dritten Schritt werden die so erstellten quantitativen Variablen in einer Kreuztabelle dargestellt, um Zusammenhänge und Unterschiede statistisch zu prüfen (quantitatives Verfahren, siehe Kapitel 9).

3.4 Eigenschaften von Daten

Wenn von wissenschaftlich-methodisch erhobenen Daten gesprochen wird, dann ist es notwendig, die Eigenschaften von Daten grundsätzlich zu verstehen. Die folgenden drei Fragen werden von Studierenden (in Einführungsveranstaltungen) häufig gestellt:

Warum erfolgt die Datenerhebung so umfangreich?

Daten dienen der Objektivierung von Sachverhalten, Ereignissen und Vorgänge, d. h. es wird umfangreiches Material „gesammelt“, das z. B. ein soziales Phänomen im Unterricht nicht einseitig, sondern multidimensional beschreibt, Schulprobleme unter Einbeziehung aller Betroffenen umfassend darstellt, oder die Anwendbarkeit eines didaktischen Konzepts in der Praxis unter verschiedenen Gesichtspunkten evaluiert. Mit den planmäßig und systematisch erhobenen Daten wird eine Forschungsfrage beantwortet oder eine Hypothese geprüft.

Zeichnen die erhobenen Daten ein Bild von der Wirklichkeit?

Für Neueinsteiger/innen in die Welt der Forschung ist es wichtig, dass sie Folgendes verinnerlichen: Daten vermögen nie Ereignisse in ihrer Gesamtheit zu beschreiben, sondern immer nur Ausschnitte einer (intersubjektiven) Wirklichkeit. Wissenschaftliche Methoden, die zur Gewinnung von Daten eingesetzt werden, sind in ihrer Reichweite und Aussagekraft immer begrenzt. „Der Forschungsgegenstand [wird] immer auch durch die Methode seiner Erfassung mitbestimmt, [sodass] der Gegenstand durch die Methode also möglicherweise auch verfälscht werden kann“ (Hussy et al., 2013, S. 287). Ein Fragebogen erfasst z. B. nur jene Ausprägungen von Ereignissen, die abgefragt werden. Einfacher ausgedrückt: Man erhält lediglich Antworten auf gestellte Fragen. Mit der Auswahl der Fragen werden Prioritäten gesetzt: Bestimmte Bereiche der Wirklichkeit werden als wichtiger eingeschätzt und daher abgefragt, andere – nicht unbedingt unwichtigere – werden hingegen vernachlässigt.

Über welchen Zeitraum sind die erhobenen Daten „gültig“?

Zur Beantwortung dieser Frage ist zunächst zu differenzieren, ob die gemessenen Merkmale manifest oder latent sind. Abstrakte, nicht direkt erfassbare (beobachtbare) Merkmale werden „latente Merkmale“ (latente Variablen) genannt. Dazu zählen z. B. Teamfähigkeit, Hilfsbereitschaft, Konzentrationsfähigkeit, Intelligenz. Diese Persönlichkeitsmerkmale sind relativ stabil und zeitlich überdauernd. Konkrete, empirisch direkt erfassbare (beobachtbare) Merkmale sind „manifeste Merkmale“ (manifeste Variablen). Dazu zählen etwa Geschlecht, Körpergröße bei Erwachsenen, Herkunft, Wohnregion, Bildungsabschluss der Eltern, Anzahl der Schüler/innen mit sonderpädagogischem Bedarf in einer Klasse etc. Solche manifesten Merkmale sind ebenfalls relativ stabil (z. B. Anzahl Schüler/innen in einer Klasse in der Regel für die Dauer eines Schuljahrs) und zeitlich überdauernd (z. B. Herkunft). Andere erhobene manifeste Merkmale hingegen sind Momentaufnahmen was folgende Beispiele veranschaulichen:

Beispiele

In einer Befragung von Schülerinnen und Schülern zum Thema „ Lebensgefühl und Gesundheit“ wird u. a. auf einer fünfteiligen, verbalen Skala danach gefragt, wie oft in der vergangenen Woche folgende Beschwerden auftraten: „Kopfschmerzen“, „Magen-Bauchschmerzen“, „fühlte mich allgemein schlecht“. Auf die Ergebnisse wirken stimmungs- und situationsbedingte Faktoren wie z. B. ein Streit, der unter Schüler/innen häufig vorkommt, heftig ausfallen kann, in der Regel aber bald wieder beigelegt wird. Auch der Messzeitpunkt hat wesentlichen Einfluss. Im Winter erkranken Kinder und Jugendliche häufiger als im Frühsommer.

Eine Gruppe von Studierenden führte dem Unterrichtsprinzip „Umweltbildung für nachhaltige Entwicklung“ folgend einen klassen- und schulstufenübergreifenden Projekttag „Ressourcen sparen, Abfall vermeiden“ durch. Das klassische Unterrichtssetting wurde durchbrochen und die Schüler/innen besuchten abwechslungsreiche, lebensnah gestaltete Forschungs- und Erlebnisstationen in und außerhalb des Schulgebäudes. Aus den durchgängig sehr positiven Einschätzungen der Schüler/innen in der am Ende des Unterrichts durchgeführten Evaluierung schlossen die Studierenden, dass offene Unterrichtsmethoden für Schüler/innen motivierender seien als lehrerzentrierte Methoden und die Schüler/innen ein Bewusstsein für Nachhaltigkeit entwickelt hätten. Diese Schlussfolgerungen sind auf Basis einer Momentaufnahme, die noch dazu unmittelbar im Anschluss an eine emotionale Erfahrung eingeholt wurde, nicht zulässig.

Merkmale, die Meinungen, Einschätzungen und Einstellungen erheben sind einer ständigen Dynamik unterworfen, stimmungs- und situationsbedingte Einflussfaktoren spielen eine wesentliche Rolle. Die Ergebnisse sind daher als Momentaufnahmen zu betrachten.

3.5 Gütekriterien empirischer Forschung

Die Wissenschaftlichkeit empirischer Forschung, die Güte eines Forschungsprojekts, wird anhand von drei Gütekriterien geprüft: Objektivität, Validität und Reliabilität. Die Auslegung der drei Gütekriterien variiert in Abhängigkeit vom Forschungszugang und dem zugrundeliegenden Forschungsparadigma. Zusätzlich werden jeweils ergänzende Gütekriterien, sogenannte Nebengütekritieren, definiert (zur Beurteilung der Güte von psychologischen Testverfahren etwa das Kriterium „Testfairness„). Für die Güte von Aktionsforschung (berufsfeldbezogene Forschung) nennen Altrichter et al. (2018, S. 107–108.) ergänzend „Pragmatische Kriterien“ (praktische und zeitökonomische Verträglichkeit mit dem Unterricht und der beruflichen Situation von Lehrpersonen) und „Ethische Kriterien“ (Vereinbarkeit mit den pädagogischen Zielen und den Grundsätzen humaner Interaktion). Im Folgenden werden die zentralen Gütekriterien Objektivität, Validität und Reliabilität vorgestellt. Dabei wird auf die unterschiedlichen Zugänge der quantitativen und qualitativen Forschung eingegangen und herausgearbeitet, was die Gütekriterien für Studierende, die eine Bachelor-/Masterarbeit schreiben, bedeuten.

Objektivität

Geht man vom Objektivitätsbegriff im quantitativen Forschungsansatz aus, dann ist unter Objektivität die Unabhängigkeit eines Forschungsergebnisses von der Person der Forscherin/des Forschers zu verstehen:

Objektivität ist das Ausmaß, in dem ein Untersuchungsergebnis in Durchführung, Auswertung und Interpretation vom Untersuchungsleiter nicht beeinflusst werden kann, bzw. wenn mehrere zu übereinstimmenden Ergebnissen kommen. Weder bei der Durchführung noch bei der Auswertung und Interpretation dürfen also verschiedene Experten verschiedene Ergebnisse erzielen. (Stangl, o. D., Abs. 2)

Bortz und Döring (2006, S. 32) sprechen im Zusammenhang von Objektivität von „intersubjektiver Nachvollziehbarkeit“, die „eine Standardisierung des Vorgehens durch methodische Regeln […] und die vollständige Dokumentation von Untersuchungen“ voraussetzt. Im Sinne einer weiteren Differenzierung wird zwischen der Durchführungs-, Auswertungs- und Interpretationsobjektivität unterschieden.

Durchführungsobjektivität bezieht sich zum einen auf das Verhalten der Forscherin/des Forschers während der Erhebungsphase und zum anderen auf den Grad der Standardisierung sowie der Güte der Dokumentation. Durchführungsobjektivität in einem Forschungsprozess ist dann gegeben, wenn die Durchführung einer Untersuchung

• nicht beeinflusst wird. Dieses Ideal ist zwar anzustreben, aber aufgrund von Störfaktoren (z. B. die Tagesverfassung der Forscherin bei der Durchführung einer Erhebung oder personenunabhängige Störfaktoren wie der Pausenlärm während eines Interviews) nicht absolut erreichbar.

• standardisiert ist (z. B. durch eine standardisierte Testinstruktion oder Einleitung in ein Interview) und

• nachvollziehbar dokumentiert wurde (Offenlegung und Begründung des Untersuchungsdesigns, Dokumentation der einzelnen Untersuchungsschritte etc.).

Eine Standardisierung ist zu erreichen, indem z. B. vorher genau festgelegt wird, was einem Probanden vor Durchführung eines Tests gesagt wird, wie viel Zeit jemandem für die Beantwortung eines Fragebogens zur Verfügung steht etc. Je exakter der Verlauf einer Erhebung vorher festgelegt wird, je stabiler die Rahmenbedingungen sind und je geringer der Einfluss der Forscherin/des Forschers auf den Ablauf der Befragung ist, umso objektiver wird das Untersuchungsergebnis.

Auswertungsobjektivität ist gegeben, wenn verschiedene Forscher/innen auf Basis von standardisierten Vorgehensweisen bei der Auswertung zu gleichen Ergebnissen kommen. Um beispielsweise Fehler bei der Kodierung von verbalen Antworten zu vermeiden bzw. zu reduzieren, ist genau zu definieren, welche Aussagen bzw. Textbestandteile unter eine Kategorie fallen. Um Fehler bei der Auswertung von offenen Testantworten zu vermeiden bzw. reduzieren, ist eindeutig festzulegen, wie viele Punkte für welche Antworten vergeben werden. Klare schriftliche Instruktionen können Fehler bei der Eingabe von Daten in ein Statistikprogramm verhindern (z. B. Umgang bei fehlenden Werten, Vermeidung einer doppelten Datenerfassung).

Eine Interpretationsobjektivität liegt dann vor, wenn verschiedene Forscher/innen mit denselben statistischen Kennzahlen zu denselben Schlussfolgerungen kommen, wenngleich gerade bei der Interpretation von Daten ein gewisses Maß an Subjektivität nicht zu vermeiden sein wird. Der Interpretationsspielraum wird allerdings umso kleiner, je mehr sich die Interpretation auf vorher formulierte Annahmen (Hypothesen) beschränkt.

Schwieriger stellt sich die Situation in einem qualitativen Forschungsansatz dar, da die „Geltungsbegründung der Ergebnisse viel flexibler sein muss. Man kann nicht einfach ein paar Kennwerte errechnen, man muss mehr argumentativ vorgehen“ (Mayring, 2016, S. 140). Außerdem ist die geforderte Distanz zwischen Forscher/in und Beforschten weder vollständig erreichbar noch wünschenswert. Ein Interview lebt geradezu von der kommunikativen Beziehung, welche sich nicht unabhängig von den Personen, vom gewählten Zeitpunkt oder Ort entwickelt. Auch eine Standardisierung der Durchführung ist nur teilweise möglich. Wenn z. B. ein Interview mittels Leitfadens geführt wird, ist der Verlauf des Interviews offen.

Insbesondere das Nachfragen des Interviewers ist in hohem Maße von seinem Hintergrundwissen abhängig, daher könnten unterschiedliche Interviewer zu unterschiedlichen Ergebnissen gelangen. Aus diesem Grund ist es wichtig, die Interviews in Form von Transkripten zu dokumentieren, die eine nachträgliche Analyse möglich machen. (Brühl & Buch, 2006, S. 25)

Von Studierenden wird erwartet, dass sie bei der Durchführung ihres Forschungsvorhabens sowie bei der Auswertung und Interpretation der Daten den Grundsätzen der Objektivität folgen. In der Praxis erweist sich dies vor allem in berufsfeldbezogenen Forschungsvorhaben, bei denen die Studierenden gleichzeitig Akteure und Betroffene sind, mitunter als schwierig, was folgendes Beispiel exemplarisch veranschaulicht:

Beispiel

Ein engagierter Student aus einem berufsbegleitenden Studiengang entwickelte für seinen mehrstündigen Blockunterricht ein Konzept zur integrierten Bewegungspause. In einer dreimonatigen Längsschnitterhebung wurde regelmäßig gezielt Feedback zu den einzelnen Aktivitäten sowie zum Konzept als Ganzes eingeholt. Seine Erwartungshaltung war hoch. Abgesehen von einem möglicherweise dadurch resultierenden Versuchsleitereffekt (der Student beeinflusst durch seine Motivation und positive Einstellung das Ergebnis) zeigte sich seine Bias sowohl während der Erhebungsphase als auch in der Phase der Datenauswertung. (Teil-)Ergebnisse, die nicht stimmig mit seinem Konzept waren, wurden unbewusst als auch bewusst uminterpretiert, was die hier sinngemäß wiedergegebenen Aussagen des Studierenden im Rahmen der Betreuung andeuten: „Das kritische Feedback der zwei Schüler/innen sagt mir, dass sie die Idee der bewegten Pause nicht verstanden haben.“ „Das heutige durchwachsende Feedback hat nichts mit der Bewegungseinheit selbst zu tun, es war das Unterrichtsthema, das einen negativen Einfluss darauf hatte. Ich werde diese Daten daher nicht weiter auswerten.“ „Ich bin enttäuscht, dass die bewegte Pause nicht so angenommen wurde. Ich hätte mir von dieser Klasse ein besseres Feedback erwartet.“

Das Einnehmen einer kritisch-reflexiven Haltung zum Forschungsprozess und den darin gemachten eigenen Erfahrungen kann nicht auf „Knopfdruck“ erfolgen. Hier sind auch die Betreuer/innen von Abschlussarbeiten gefordert, Studierende bei der Reflexion ihrer Forschungshandlungen zu unterstützen. In der Bachelor-/Masterarbeit zeigt sich der Grad der kritisch-reflexiven Haltung in der retrospektiven Betrachtung des Forschungsprozesses, vor allem in der Methodenreflexion, wo auf die methodische Herangehensweise ein kritischer Blick geworfen wird und wo Schwachstellen der Erhebung und Interpretation offengelegt und analysiert werden.

Validität (Gültigkeit)

Ein wichtiges Gütekriterium jedes Erhebungsinstruments bzw. -verfahrens ist dessen Gültigkeit. In der quantitativen Forschung ist eine Untersuchung dann valide, wenn das zu messende Konstrukt (siehe Kapitel 9.1.2) auch tatsächlich gemessen wird: ein Intelligenztest misst das Konstrukt „Intelligenz“ und nicht etwas anderes wie Konzentrationsfähigkeit oder Frustrationstoleranz. Dieses leicht nachvollziehbare Standardbeispiel findet sich häufig in der Literatur zu wissenschaftlichen Arbeiten. Die Wirklichkeit der Test- bzw. Fragebogenkonstruktion ist natürlich komplexer. So können z. B. bei der Beantwortung eines Items für das Konstrukt „Lesekompetenz“ irrelevante bzw. nicht intendierte Prozesse Einfluss nehmen, die zu einer niedrigen Konstruktvalidität führen, wie folgendes Beispiel verdeutlicht:

Beispiel

Zum Lösen der Leseaufgabe „Buben haben doppelt so viel Interesse an Instagram als Mädchen an Twitter“ müssen aus einer Häufigkeitsverteilung nicht nur zwei Werte herausgelesen (nicht-lineares Leseverständnis), sondern auch in ein Verhältnis gesetzt werden. Dieser Vorgang erfordert mathematische Kompetenz. Dieses Item erfasst neben dem intendierten Konstrukt „Lesekompetenz“ auch den nicht intendierten Prozess einer Rechenleistung. Es misst daher nicht genau, was es messen soll.

Validität bezeichnet den Grad der Genauigkeit, mit dem eine Untersuchung das erfasst, was erfasst werden soll.

Ein Beispiel für Konstruktvalidität

Wenn mittels Fragebogen das Konstrukt „Angst“ gemessen werden soll, dann geht es zunächst darum, theoriegeleitet Merkmalsausprägungen von „Angst“ zu definieren und daraus konkrete Items zu erstellen. Das entwickelte Instrument wird im Anschluss im Feld getestet, ein Datensatz wird generiert. Kann bei der Datenauswertung mittels explorativer Faktorenanalyse herausgearbeitet werden, dass die entsprechenden Items zusammengehören und somit das Konstrukt „Angst“ abbilden, dann hat dieses Erhebungsinstrument eine ausreichende Konstruktvalidität.

Dieses Beispiel veranschaulicht, dass Konstruktvalidität mittels statistischer Verfahren (explorative oder konfirmatorische Faktorenanalyse) geprüft wird. Von Studierenden, die eine Bachelor-/Masterarbeit verfassen, wird nicht erwartet, dass sie ihr Erhebungsinstrument auf seine Konstruktvalidität testen. Sie sind vielmehr angehalten, unter Einbeziehung von Literatur eine logisch-inhaltliche Analyse der Items in ihrem Erhebungsinstrument durchzuführen. Mit diesem Ansatz wird eine Annäherung an Inhaltsvalidität (Face Validity, Augenscheinvalididät) angestrebt, die dann gegeben ist, „wenn der Inhalt der Testitems das zu messende Konstrukt in seinen wichtigsten Aspekten erschöpfend erfasst.“ (Bortz & Döring, 2006, S. 200)

In anderen Worten, ein Erhebungsinstrument ist dann inhaltsvalide, wenn es die zu messenden Merkmalsausprägungen bzw. Merkmale umfassend erhebt.

Beispiele

Es soll die Fremdsprachenkompetenz von Schülerinnen/Schülern gemessen werden. Ein dafür entwickelter Test wäre inhaltsvalide, wenn die four skills Hören, Lesen, Sprechen und Schreiben getestet werden.

Auf Basis des Kompetenzmodells für Mathematik 8. Schulstufe (Bundesinstitut für Bildungsforschung, Innovation & Entwicklung, 2011) soll der Kompetenzbereich „Arbeiten mit Ebene und Raum“ (mathematischer Inhalt) gemessen werden. Da es im Rahmen dieses Kompetenzmodells wesentlich ist, einen mathematischen Inhalt (Inhaltliche Kompetenz) mit jeweils einer der vier allgemeinen mathematischen Kompetenzen „Modellieren“, „Operieren“, „Kommunizieren“ und „Problemlösen“ (mathematische Handlung) zu kombinieren, wäre bei einem diesbezüglichen Kompetenztest nur dann Inhaltsvalidität gegeben, wenn es zu allen vier Teilkompetenzen jeweils eine Testaufgabe gibt.

Da es sich bei diesem Verfahren um eine logisch-inhaltliche Analyse des Erhebungsinstruments bzw. der einzelnen Items handelt, ist Inhaltsvalidität ein „qualitatives Maß“ (Brühl & Buch, 2006, S. 12), an dem sich Studierende orientieren. Sie hinterfragen kritisch und prüfen inhaltlich, ob mit dem entwickelten Erhebungsinstrument das Zielkonstrukt umfassend erfasst bzw. ob die Forschungsfrage umfassend beantwortet wird.

Beispiel

Eine Studentin möchte in ihrer Bachelorarbeit im Rahmen einer mündlichen Befragung mit folgenden Items die „Einstellung von Ernährungspädagoginnen/Ernährungspädagogen zu Heilkräutern“ erheben:

1) Kennen Sie Kräuter, die zu der Gruppe der Heilpflanzen zählen?

2) Was verstehen Sie unter Heilkräutern?

3) Welche Wirkung haben Heilkräuter?

4) Woher wissen Sie, dass Heilkräuter wirkungsvoll sind?

5) Bringen Sie Ihr Wissen über Heilkräuter im Theorieunterricht ein? Wenn ja, in welcher Form?

6) Verwenden Sie Heilkräuter in der Schulküche? Wenn ja, in welcher Form?

Es bedarf in diesem Beispiel keiner tiefergehenden logisch-inhaltlichen Analyse, um auf eine niedrige Inhaltsvalidität zu schließen. Aus den erwartbaren Antworten bei den Fragen 1 und 2 wird mehr auf das „Wissen über Heilpflanzen“ geschlossen werden können, als auf die „Einstellung zu Heilkräutern“. Item 3 ist diesbezüglich besser: Steht z. B. die befragte Person Heilkräutern skeptisch gegenüber, wird sie sich bei dieser Frage vermutlich entsprechend äußern. Bei Item 4 handelt es sich um eine Suggestivfrage2, was in Bezug auf die Objektivität der Forscherin problematisch ist. Die Antworten zu den Items 5 und 6 werden wahrscheinlich breit angelegt werden, was das Interpretieren hinsichtlich der Forschungsfrage erschwert.

Studierende können auf einen großen Pool an standardisierten, kostenfreien Erhebungsinstrumenten zurückgreifen, deren Einsatz sich bei Forschungsvorhaben im Rahmen von Bachelor-/Masterarbeiten bewährt haben. Wird ein Erhebungsinstrument (adaptiert) übernommen, ist dieses in Bezug auf die Forschungsfrage auf Inhaltsvalidität zu prüfen. Folgendes Beispiel aus dem Forschungsprojekt „Schulische Partizipation österreichischer Jugendlicher“ veranschaulicht, warum dies wichtig ist.

Beispiel

Schulische Beteiligung Jugendlicher vollzieht sich in verschiedenen Bereichen, die allgemeine Schulorganisation ist einer davon. Das Ausmaß der Beteiligung wurde u. a. mit folgenden zwei Items gemessen:

„Wie stark kannst du bei der Lehrer/innenauswahl in der Schule mitbestimmen?“

„Wie stark kannst du bei der Verteilung von finanziellen Mitteln in der Schule mitbestimmen?“

Das österreichische Schulsystem sieht die Mitbestimmung von Schülerinnen und Schülern bei der Auswahl von Lehrpersonen sowie bei der Verteilung von finanziellen Mitteln nicht vor. Für die Erhebung des Ausmaßes der schulischen Beteiligung österreichischer Jugendlicher sind diese zwei Aspekte irrelevant, Inhaltsvalidität ist daher nicht gegeben.

Auf qualitative Forschungsmethoden lässt sich das Gütekriterium der Validität schwerer übertragen, da z. B. bei einer teil- bzw. unstrukturierten mündlichen Befragung sich die Fragestellungen aus der Situation heraus ergeben. In der Diskussion über das Gütekriterium der Validität in der qualitativen Forschung wird daher auch der Standpunkt vertreten, dass unter „Validität die Wahrheit von Aussagen zu verstehen [ist]“, d. h. es „kommt nicht Methoden sondern Aussagen ein Wahrheitswert zu“ (Brühl & Buch, 2006, S. 31). Für ein Interview bedeutet das z. B., dass es daraufhin analysiert wird, ob die Befragten aufrichtig antworten. Validität wird „als sozialer Diskurs und Konstruktion von Wissen mit dem Ziel der Vertrauenswürdigkeit [sic] (trustworthiness) beschrieben“ (Brühl & Buch, 2006, S. 31).

Eine gängige Form der diskursiven Validierung ist die sogenannte Kommunikative Validierung (Schründer-Lenzen, 2013, S. 153; Steinke, 2017, S. 320). Dabei handelt es sich um ein Verfahren, das die Gültigkeit von Aussagen und/oder Interpretationen überprüft. Kommunikative Validierung bedeutet demnach, die Richtigkeit der Datenauswertung von den befragten Personen selbst bestätigen zu lassen. Diese erhalten beispielsweise die Möglichkeit, die Interviewprotokolle (Transkripte) zu kommentieren bzw. ihre Zustimmung dazu zu geben, dass die Aussagen inhaltlich richtig erfasst wurden. Gängiger ist es, gemeinsam mit den betroffenen Personen die Gültigkeit der Interpretation der erhobenen Daten zu diskutieren.

Ein weiteres Konzept bildet Validierung durch Triangulation (siehe Kapitel 3.3). Beim Einsatz mehrerer Methoden kommt auch der Handlungsvalidierung Bedeutung zu. Dabei wird beispielsweise geprüft, inwieweit ein nachweisbarer Zusammenhang besteht zwischen berichteten Erfahrungen (eine Lehrperson beschreibt in einem Interview, wie sie mit Verhaltensauffälligkeiten von Schülerinnen und Schülern im Unterricht umgeht) und beobachtetem Verhalten (Realgeltung: Verhalten der interviewten Lehrperson bei Verhaltensauffälligkeiten von Schülerinnen und Schülern im Unterricht). Das wichtigste Kriterium, so Bortz und Döring (2006, S. 328), „ist jedoch die interpersonale Konsensbildung (konsensuelle Validierung) [sic]. Können sich mehrere Personen [z. B. andere Forschende und/oder Expertinnen und Experten] auf die Glaubwürdigkeit und den Bedeutungsgehalt des Materials einigen, gilt dies als Indiz für seine Validität.“

Reliabilität (Zuverlässigkeit)

Wie zuverlässig und beständig das Ergebnis einer Untersuchung ist bzw. wie zuverlässig und beständig mit einem Erhebungsinstrument ein Konstrukt gemessen wird, ist eine Frage der Reliabilität. Unter der Annahme, dass in einer Untersuchung zeitstabile Merkmale3 gemessen werden, kann dann von einer reliablen Messung gesprochen werden, wenn zu einem anderen Zeitpunkt, unter denselben Bedingungen mit den gleichen Testpersonen dieselben Ergebnisse erzielt werden. Da bei jeder Erhebung Messfehler passieren (durch unsystematische, zufällige Einflüsse wie Störungen in der Testsituation oder Müdigkeit der befragten Person), werden bei einer Messwiederholung die Ergebnisse nicht exakt dieselben sein, sie müssen aber sehr ähnlich bzw. stabil sein. Das Maß der Übereinstimmung wird bei den meisten Verfahren der Reliabilitätsprüfung durch die Berechnung eines Korrelationskoeffizienten bestimmt. Verfahren, die angewendet werden, um die Reliabilität einer Messung bzw. eines Erhebungsinstruments zu prüfen sind beispielsweise:

• Retest-Reliabilität: Die wiederholte Durchführung derselben Messung unter denselben Bedingungen bei denselben Personen führt zu denselben Ergebnissen. Ein Lesekompetenztest hat eine hohe Reliabilität, wenn im Rahmen einer nach zwei Wochen stattfindenden Testwiederholung bei gleichbleibenden Bedingungen die erneut getesteten Personen dasselbe Kompetenzniveau erreichen (Lesekompetenz ist ein stabiles Konstrukt, das sich nicht innerhalb von zwei Wochen verändert). Das Verfahren der Testwiederholung lässt sich allerdings in qualitativen Forschungsmethoden nicht anwenden, das Führen eines teil- bzw. unstrukturierten Interviews oder der Beobachtung einer Unterrichtsstunde ist auf identische Weise nicht wiederholbar. Überträgt man bei qualitativen Herangehensweisen den Gedanken des Retests auf das Interpretieren von Daten, so sollten wiederholte Interpretationen von qualitativen Daten zu einem gleichen Ergebnis führen (Brühl & Buch, 2006, S. 26).

• Interrater-Reliabilität: Zwei oder mehrere Forscher/innen setzen dasselbe Instrument (z. B. einen standardisierten Beobachtungsbogen) für dieselbe Erhebung bzw. bei demselben Untersuchungsgegenstand ein. Sind die Einschätzungsergebnisse (Urteilsübereinstimmung) gleich bzw. sehr ähnlich, ist die Reliabilität des Erhebungsinstruments hoch.

Beispiel

Zur Analyse und Bewertung von wissenschaftlichen Postern, die Studierende im Rahmen eines Forschungsmoduls präsentieren, wurde ein Instrument entwickelt. In einer Pilotphase wurden von jedem Mitglied der Forschergruppe dieselben 20 zufällig ausgewählte Poster mit Hilfe des Instruments ausgewertet. Anschließend wurde die Urteilsübereinstimmung durch die Berechnung der Interrater-Korrelation geprüft (Stadler-Altmann, 2020, S. 390).

• Paralleltest-Methode: Probanden werden zwei verschiedene aber streng vergleichbare Tests vorgelegt. Eine hohe Reliabilität ist gegeben, wenn bei beiden Tests die Probanden dasselbe Ergebnis erzielen.

Beispiel

Im Rahmen der Entwicklung des „Innsbrucker Lesediagnostikums für Berufsschüler/innen“ (Resinger, 2018) wurde neben anderen Verfahren der Reliabilitätsprüfung auch die Paralleltest-Methode angewandt. Der Innsbrucker Lesekompetenztest misst geringe Fähigkeitsausprägungen in der Lesekompetenz von Berufsschüler/innen der ersten Klasse, das „Salzburger Lesescreening für die Schulstufen 2–9“ (Mayringer & Wimmer, 2014) identifiziert Schüler/innen mit Schwächen in basaler Lesefertigkeit. Bei einer Gruppe von Berufsschüler/innen wurden beide Tests nacheinander eingesetzt. Es wurde eine hohe Übereinstimmung festgestellt.

Zusammenfassend gilt für Studierende, die eine Bachelor-/Masterarbeit schreiben, dass sie sich vor allem an den Gütekriterien „Objektivität“ und „Validität“ unter den hier diskutierten Gesichtspunkten „Durchführungs- und Auswertungsobjektivität“, „Inhaltsvalidität“, „Vertrauenswürdigkeit“ und „Glaubwürdigkeit“ orientieren. In der Diskussion um Gütekriterien in der empirischen Forschung werden diese Qualitätskriterien auch in der Aktionsforschung (berufsfeldbezogenen Forschung) als relevant erachtet (Reitinger & Ukowitz, 2014, S. 183).

3.6 Auswahl von Forschungsmethoden

Ein Forschungsinstrument soll nicht willkürlich ausgewählt und eingesetzt werden. Jede Methode hat Vor- und Nachteile und ist in Bezug auf den Anwendungsbereich in ihrer Einsatzfähigkeit beschränkt (Engler, 1997, S. 123–126). Vor der Wahl der Forschungsmethode ist es daher ratsam, einige Fragen zu klären. Die kritische Auseinandersetzung mit folgenden Punkten kann hilfreich sein, die passende Methode zu finden:

Ziel: Was soll erhoben werden? Diese Frage hängt aufs Engste mit der Forschungsfrage der Bachelor-/Masterarbeit zusammen. Mit welcher wissenschaftlichen Methode lässt sich die Forschungsfrage am besten beantworten? Ist es von Interesse, welche Einstellungen oder welche Meinungen eine Personengruppe zu einem bestimmten Thema hat, dann empfiehlt sich die Methode der schriftlichen Befragung. Wenn es darum geht, zu untersuchen, wie sich die Einführung neuer Verhaltensregeln auf das soziale Leben in der Schule auswirkt, dann ist eine Beobachtung sinnvoll.

Tragweite: Unter Tragweite ist gemeint, dass im Vorfeld abzuwägen ist, welche Auswirkungen im sozialen Umfeld aufgrund des Einsatzes einer bestimmten Methode zu erwarten sind. Unterrichtsbeobachtungen können z. B. den Unterricht stören. Zur kritischen Reflexion der Tragweite gehört auch, im Vorfeld zu klären, wer Zugang zu den erhobenen Daten haben wird bzw. wie diese Daten verwendet werden (z. B. für die Unterrichtsentwicklung). Es ist zu bedenken, dass die Ergebnisse auch missbräuchlich verwendet werden können (siehe dazu auch Kapitel 3.7). Des Weiteren können unbeabsichtigte Folgen auftreten: Die schriftliche Befragung im Rahmen eines Schulentwicklungsprojekts zur Zufriedenheit mit der Schulleitung wurde von einigen Befragten zum Anlass genommen, die sprichwörtlichen „Leichen aus dem Keller zu holen“

Machbarkeit: Ist eine Methode unter den gegebenen Rahmenbedingungen einsetzbar? Fragen, die in diesem Zusammenhang eventuell gestellt werden müssen: Habe ich genügend Personen, die sich an der Untersuchung beteiligen wollen? Kann ich die Untersuchung allein durchführen? Wie sieht die zeitliche Begrenzung aus, d. h. bis wann muss das Forschungsvorhaben abgeschlossen sein?

Zumutbarkeit: Vor allem in zeitlicher Hinsicht ist zu klären, ob die Teilnehmer/innen an einem Forschungsprojekt unter den gegebenen Rahmenbedingungen nicht über Gebühr belastet werden. Bei sensiblen Themen ist sorgfältig abzuwägen, ob der Einsatz eines Erhebungsinstruments in psychischer sowie körperlicher Hinsicht zugemutet werden kann (z. B. mündliche Befragung von Mobbingopfern).

Ökonomie: Reichen die zeitlichen Ressourcen und ggf. die finanziellen Mittel aus? Steht der Aufwand mit dem zu erwartenden Ergebnis in einem ausgewogenen Verhältnis? Bei der Durchführung einer Erhebung im Feld muss der/die Studierende vor Ort sein. Dabei ist nicht nur der zeitliche Aufwand für die Durchführung und Ergebnisrückmeldung zu berücksichtigen, sondern es müssen z. B. auch Fahrzeiten, Fahrtkosten, Leerläufe (z. B. das zu beobachtende Kind ist abwesend), Kosten für das Testmaterial bzw. das Befragungsinstrument oder Lizenzgebühren für statistische Softwareprogramme etc. einkalkuliert werden.

Bei allen Forschungsaktivitäten sollte nicht die sogenannte „Adlerperspektive“ vergessen werden, d. h. in der Bachelor-/Masterarbeit muss der Gesamtzusammenhang, in den die Thematik eingebettet ist, im Fokus bleiben.

3.7 Ethische Aspekte der Forschung

Jedes Forschungsvorhaben soll ethisch vertretbar sein. Ethisch vertretbare Forschung achtet auf die Einhaltung von zwei grundlegenden Prinzipien: Offenheit und Vertraulichkeit.

Offenheit: Forschungsaktivitäten dürfen oder vielmehr sollen nicht ohne Wissen und gegen den Willen der Betroffenen durchgeführt werden. Das setzt voraus, dass die von der Forschung betroffenen Personen bzw. Institutionen über die Intentionen des Forschungsvorhabens sowie über den geplanten Ablauf informiert sind und ihre Zustimmung geben. Zur Offenheit im Forschungsprozess zählt auch, dass die an einer Untersuchung teilnehmenden Personen bzw. Institutionen eine angemessene Rückmeldung zu den Forschungsergebnissen erhalten. Dies kann z. B. durch eine Ergebnispräsentation und/oder ein Factsheet erfolgen.

In der Regel wird bei Forschungsprojekten darauf geachtet, dass in allen Phasen der Untersuchung das Prinzip Offenheit eingehalten wird. Es gibt jedoch Forschungsvorhaben, bei denen (vollständige) Offenheit nicht möglich ist. Nimmt die beforschte Gruppe an einem sozialwissenschaftlichen Experiment teil, kann es notwendig sein, diese Personen zu täuschen („Zwecktäuschung“). Wenn stark davon auszugehen ist, dass sich die beobachteten Personen bei einer offenen Beobachtung anders verhalten werden als in der natürlichen Situation, wird verdeckt beobachtet. Die beforschten Personen werden in solchen Fällen im Anschluss an die Untersuchung informiert und aufgeklärt. Jedoch sind mögliche unbeabsichtigte Folgen der „Zwecktäuschung“ nicht ausgeschlossen: z. B. Entwicklung eines nachhaltigen Misstrauens gegenüber Forschung, Entstehung von Angststörungen aufgrund der Erlebnisse etc.

Für Studierende, die im Rahmen ihrer Bachelor-/Masterarbeit ein Forschungsprojekt durchführen, ist Offenheit und Vertraulichkeit unabdingbar. Sollte die geplante Durchführung von den zu Beforschenden nicht akzeptiert werden, muss ein alternativer Zugang zum Forschungsgegenstand gesucht werden. Die Erfahrung zeigt, dass die Betroffenen in den meisten Fällen mit dem Forschungsdesign einverstanden sind. Berufsfeldbezogene Forschungsvorhaben, die die Weiterentwicklung von Schule und Unterricht zum Ziel haben, können ohne die Einhaltung ethischer Grundsätze nicht erfolgreich sein. Die Teilnahme an einem Aktionsforschungsprojekt „[veranlasst] die untersuchten Personen zu Handlungen, die sie sonst nicht getan hätten. Die Forschungssituation ist selbst eine Lernsituation“ (Altrichter et al., 2018, S. 108).

Vertraulichkeit: Das zweite ethische Prinzip ist Vertraulichkeit, das bei Forschungsvorhaben einzuhalten ist. Vor der Durchführung einer Untersuchung ist den Beforschten mitzuteilen, wie die Daten ausgewertet und verwendet werden:

Werden die Daten anonymisiert dargestellt bzw. ist das überhaupt möglich oder sind Aussagen von Personen rückverfolgbar? In der Regel erfolgen Untersuchungen anonym. Eine Anonymisierung durch das Weglassen oder Verändern von Personendaten gelingt bei kleinen Stichproben nicht immer, bei Fallstudien ist es insbesondere für „Systemkenner“ nicht schwer, nachzuvollziehen, wer die handelnden Personen sind. Aussagen können dann unter Umständen Personen zugeordnet werden. Die Betroffenen müssen in solchen Fällen darauf aufmerksam gemacht werden.

Bleiben die Daten bei der Forscherin/beim Forscher oder werden sie an Dritte weitergegeben? Wird ein empirischer Datensatz an andere Forscher/innen für tiefergehende oder aufbauende Untersuchungen weitergegeben und/oder in der Lehre eingesetzt, sind die Vorgaben der Datenschutzgrundverordnung zu beachten. Das Thema Datenhoheit ist mit den an einer Untersuchung teilnehmenden Personen zu besprechen. Das Ergebnis kann eine gemeinsam getroffene Vereinbarung sein. Einige Hochschulen bzw. Universitäten sowie Schulbehörden verlangen von den Studierenden das Abschließen einer Datenschutzvereinbarung mit den an ihrem Forschungsvorhaben beteiligten Personen. In Bezug auf Datenhoheit verfolgt die Aktionsforschung den Ansatz, dass „die Verantwortung für und die Kontrolle über den Gang praxisbezogener Forschung und Veränderung jene haben sollen, die von ihr primär betroffen sind und die ihre Ergebnisse am eigenen Leib zu verspüren haben“ (Altrichter et al., 2018, S. 110). Die erhobenen Daten sind rechtlich betrachtet Eigentum der Forscherin/des Forschers. Dies gilt auch für Daten, die von Studierenden im Rahmen ihrer Bachelor-/Masterarbeit erhoben werden4.

Weder Alltagshandeln noch wissenschaftliches Forschungshandeln lässt sich auf regelgeleitetes Handeln reduzieren. Die Spielregeln der Wissenschaft können nicht einfach über jene der beforschten Gruppe gestülpt werden. Wir haben es immer mit Spielräumen und Variationsbreiten zu tun. Letzten Endes geht es um einen sinnvollen und angemessenen Umgang mit den Spielregeln der Forschung und ihren methodischen Zugängen.

1 Ein Forschungsparadigma beschreibt die Grundauffassung und Denkmuster, welche die wissenschaftliche Forschungsarbeit bestimmt.

2 Suggestivfragen legen die Antworten in eine bestimmte Richtung vorher fest und verfälschen dadurch die erhobenen Aussagen.

3 Konkrete, sogenannte manifeste Merkmale wie (Anzahl der Schüler/innen mit sonderpädagogischem Bedarf in einer Klasse) haben höhere Reliabilität als abstrakte, latente Merkmale wie (Teamfähigkeit von Lehrpersonen).

4 Davon zu trennen ist die Veröffentlichung der Forschungsarbeit bzw. der Bachelor-/Masterarbeit, die allgemein zur Verfügung steht, d. h. die Ergebnisse können für weitere Forschungsarbeiten verwendet werden.

Leitfaden zur Bachelor- und Masterarbeit

Подняться наверх