Читать книгу Psychologie - Rainer Maderthaner - Страница 11

Оглавление

Forschungsmethodik der Psychologie – Grundbegriffe der psychologischen Methodenlehre und Statistik | 3

Inhalt

3.1 Wissenschaftlichkeit

3.2 Von der Empirie zur Theorie

3.3 Fälle und Variablen

3.4 Kausalität und Wahrscheinlichkeit

Multikausalität und bedingte Kausalität

Indeterminismus und Wahrscheinlichkeitsschlüsse

3.5 Relationen und Funktionen

3.6 Beschreibende und hypothesenprüfende Statistik

Deskriptivstatistik – beschreibende Statistik

Inferenzstatistik – schließende und prüfende Statistik

3.7 Forschungsmethoden der Psychologie

Laborexperiment

Quasiexperiment

Feldforschung

Test und Rating

Beobachtung

Befragung (Interview)

Textanalyse

Simulationsstudie (Computersimulationen)

3.8 Forschungsablauf

3.1 |Wissenschaftlichkeit

Wissenschaftliches Handeln sollte sich an logisch begründeten, explizit formulierten und verbindlichen Kriterien orientieren. Nach Wohlgenannt (1969) sowie Konegen und Sondergeld (1985) sind dies folgende:

ŸŸ• Es sollen nur Aussagen über Sachverhalte gemacht werden, die wirklich vorhanden sind (Beobachtbarkeit bzw. Erlebbarkeit).

ŸŸ• Die Aussagen sollen ein System bilden und nach expliziten (wissenschaftsspezifischen) Regeln zustande kommen.

Merksatz

Wissenschaftliches Vorgehen will für Tatsachen (Fakten) ein möglichst widerspruchsfreies System von mehr oder weniger abstrakten, logisch verknüpften und intersubjektiv prüfbaren Aussagen bilden.

ŸŸ• Es müssen Regeln zur Definition von Fachausdrücken (Termini) vorhanden sein.

ŸŸ• Für das gegebene System von Aussagen müssen Ableitungsregeln gelten („induktive“ und „deduktive“ Schlussregeln).

ŸŸ• Das Aussagensystem muss widerspruchsfrei sein.

ŸŸ• Aussagensysteme mit empirischem Bezug (faktische Aussagen) dürfen sich nicht auf die Aufzählung von Fakten beschränken, sondern müssen auch Verallgemeinerungen enthalten.

ŸŸ• Faktische Aussagen müssen intersubjektiv prüfbar sein.

In ähnlicher Weise charakterisieren Bortz und Döring (1995, 7) aus Sicht der Psychologie wissenschaftliche Aussagen: „Wissenschaftliche Hypothesen sind Annahmen über reale Sachverhalte (empirischer Gehalt, empirische Untersuchbarkeit) in Form von Konditionalsätzen. Sie weisen über den Einzelfall hinaus (Generalisierbarkeit, Allgemeinheitsgrad) und sind durch Erfahrungsdaten widerlegbar (Falsifizierbarkeit).“

3.2 |Von der Empirie zur Theorie

Merksatz

Die Methoden einer wissenschaftlichen Disziplin sollen die korrekte und zweckmäßige „Abbildung“ eines empirischen (konkreten) Systems in einem theoretischen (abstrakten) System erlauben.

Die Human- und Sozialwissenschaft Psychologie unterscheidet sich insofern grundlegend von den Naturwissenschaften, als hier die wissenschaftlichen Phänomene nicht direkt zugänglich sind, sondern oft indirekt erschlossen werden müssen. So sind etwa Persönlichkeit, Intelligenz oder Einstellungen theoretische Begriffe, die nur über Verhaltenstendenzen, Fertigkeiten oder Gefühlsreaktionen erfasst werden können. Der Weg von der Empirie zur Theorie ist daher in der Psychologie oft weit und erfordert viele Zwischenschritte. In der psychologischen Methodenlehre unterscheidet man zumeist ein empirisches System, das die Forschungsdaten liefert, und ein theoretisches System, das die Gesetze und Erklärungen zu formulieren gestattet, und bezeichnet die Vorgangsweisen, Methoden und Instrumente, die zwischen beiden eine Verbindung herstellen, als Korrespondenzsystem.

| Abb 3.1


Die theoretische Beschreibung der Realität kann als deren abstrakte Abbildung in einem Symbolsystem (Sprache, Vorstellung, Programme …) aufgefasst werden. Dabei wird ein vermittelndes, transformierendes Korrespondenzsystem benötigt, wodurch wissenschaftscharakteristische Vorschriften zur Gewinnung, Beschreibung, Erklärung und Interpretation der jeweiligen Systemelemente zur Verfügung gestellt werden.

Die Schritte vom empirischen zum theoretischen System (Abb. 3.1) lassen sich wie folgt charakterisieren: Vorerst werden aus einer Vielzahl von Strukturen und Abläufen in der psychischen oder sozialen Realität – der sogenannten Empirie – jene Phänomene identifiziert, die Gegenstand der wissenschaftlichen Untersuchungen werden sollen. Die jeweils zu erforschenden Phänomene (z.B. Denkprozesse, Lernformen, Stressverarbeitung) müssen exakt beschrieben werden, was sich in verbalen, bildlichen oder symbolischen Datenmengen bzw. Protokollen niederschlägt. Insbesondere in der quantitativen Forschung versucht man die Datenmenge auf jene Informationseinheiten zu begrenzen, die zur Beschreibung der Gesetzmäßigkeiten der Phänomene relevant erscheinen. Die Gesamtheit aller Ausprägungen von Indikatoren (zu einem untersuchten Phänomen) zu einer bestimmten Zeit und an einem bestimmten Ort sind jene einzelnen Tatsachen, die der empirischen Forschung als Grundeinheiten zur Gewinnung oder Überprüfung von (statistischen) Hypothesen zur Verfügung stehen.

Merksatz

Im empirischen System werden Phänomene menschlicher Erfahrung ausgewählt und in ihren konkreten Erscheinungsweisen (Tatsachen) verbal oder symbolisch (über Indikatoren) protokolliert.

Merksatz

Im theoretischen System werden anhand von Fällen Relationen zwischen Variablen gesucht, funktional zusammenhängende Relationen zu Modellen zusammengefasst und thematisch verwandte Modelle zu einer Theorie integriert.

Zu einem Fall des theoretischen Systems wird eine Tatsache dann, wenn die erfassten Eigenschaften der Indikatoren in Ausprägungen von Variablen umgewandelt werden. Ein Fall ist somit durch eine bestimmte Konfiguration von (empirischen) Variablen, genauer durch deren jeweilige Ausprägungen, definiert. Mittels statistischer Auswertungsverfahren werden auf Basis der zur Verfügung stehenden Fälle zwischen den Variablen entweder hypothetische Relationen (Funktionen, Beziehungen etc.) geprüft oder unbekannte Relationen gesucht. Hypothesen sind Annahmen über Relationen zwischen mindestens zwei (empirischen) Variablen. Wenn eine hypothetische Relation zufriedenstellend oft in verschiedenen, wissenschaftlich seriösen Untersuchungen empirisch bestätigt wurde, spricht man von einem Gesetz. Mehrere Gesetze (oder Hypothesen), die ein logisch konsistentes Erklärungsgerüst für ein bestimmtes Phänomen darstellen, werden zusammenfassend als Modell bezeichnet (z.B. Wahrnehmungs-, Lern-, Gedächtnis- und Handlungsmodelle). Der Übergang von Modellen zu Theorien ist fließend. Eine Theorie ist ein System von zusammenhängenden Gesetzen, die maximal abstrakt formuliert sind.

Merksatz

Konstrukte sind speziell definierte, nicht direkt beobachtbare Begriffe einer psychologischen Theorie (z.B. Intelligenz, Motivation, Aggression), für die Operationalisierungen vorhanden sind oder entwickelt werden müssen.

Um die Realität in Form von Gesetzen oder Theorien abbilden zu können, müssen Begriffe (Konzepte) zur Klassifikation empirischer Phänomene entweder vorhanden sein (Alltagsbegriffe) oder neu entwickelt werden (Fachbegriffe bzw. Termini). Diese Konzeptionalisierung („Konzeptspezifikation“; Schnell, Hill & Esser, 1993) der Wahrnehmungs- oder Erlebenswelt darf weder zu fein noch zu grob ausfallen, damit ein adäquater Auflösungsgrad für die untersuchten Phänomene gegeben ist. Für neu eingeführte theoretische Fachbegriffe, sogenannte Konstrukte (d.h. theoretische Konstruktionen), ist die konkrete Bedeutung in der Welt unserer Erfahrungen mittels Operationalisierungen klarzulegen. Als solche Interpretationshilfen für theoretische Fachbegriffe können spezielle Beobachtungen, Testverfahren, Teile von Fragebögen oder sonstige Datenerfassungsverfahren herangezogen

Merksatz

Bedeutungsinterpretierende Zuordnung beobachtbarer Sachverhalte zu einem theoretischen Begriff bezeichnet man als dessen Operationalisierung.

werden. Mögliche Operationalisierungen von „Angst“ sind etwa bei einem Versuchstier der körperliche Zustand in Erwartung elektrischer Schläge, die gemessene Herzfrequenz oder die motorische Unruhe. „Intelligenz“ kann durch die Leistungen in einem bestimmten Intelligenztest, und „Glück“ durch die Beantwortung von Fragen in einem Befindlichkeitstest operationalisiert werden. Das Korrespondenzsystem mit einschlägigen Konzeptualisierungen und Operationalisierungen ist Bestandteil des jeweiligen wissenschaftlichen Paradigmas (s. auch Maderthaner, 2003).

Fälle und Variablen| 3.3

Als empirische Einheiten kommen in der Psychologie beliebige statische oder dynamische Systeme infrage (z.B. Personen, Gruppen, Situationen, Abläufe), in denen sich psychische Gesetzmäßigkeiten äußern. Wie bereits erwähnt, wird die Beschreibung (Protokoll) eines Phänomens auf gesetzesrelevante Merkmale (Indikatoren) reduziert, sodass zuletzt nur mehr ein sogenannter „Fall“ mit phänomencharakteristischen Variablen übrig bleibt. Fälle sind also die – im Sinne einer wissenschaftlichen Fragestellung – maximal informationsreduzierten empirischen Einheiten, anhand derer Gesetze verifiziert oder falsifiziert werden sollen.

Merksatz

In sozialwissenschaftlichen Untersuchungen werden anhand von Fällen (Stichprobe) Gesetze gewonnen, welche auf ähnliche Sachverhalte (Population, Geltungsbereich der Gesetze) hin verallgemeinert werden.

Da es in der Psychologie nur selten möglich ist, die gesamte Population bzw. Grundgesamtheit empirischer Einheiten zu erfassen, für die ein Gesetz gelten soll, beschränkt man sich in der Forschung auf eine Stichprobe (engl. sample), deren Zusammensetzung in den gesetzesrelevanten Eigenschaften jener der Population möglichst ähnlich sein sollte, damit die auf Basis der Stichprobe gewonnenen Erkenntnisse berechtigt verallgemeinert werden können. Der Schluss von der Stichprobe auf die Population ist am ehesten dann gerechtfertigt, wenn die Stichprobe nach dem Zufallsprinzip aus der Grundgesamtheit ausgewählt wird (Randomisierung) und die Stichprobe entsprechend groß ist (s. auch Schnell et al., 1993).

| Abb 3.2


Ein Beispiel für eine einfache, aber prägnante Charakterisierung von Personen (Fällen) ist jene nach Persönlichkeitsfaktoren (Variablen). Das Profil in der Abbildung kennzeichnet eine Person in den sogenannten „Big-Five-Faktoren“ („NEO Five-Factor Inventory“ von Costa & McGrae, 1992; Becker, 2004).

Wenn die Ausprägungen relevanter Untersuchungsvariablen in einer Stichprobe mit jenen der Population annähernd übereinstimmen, darf von Repräsentativität der Stichprobe gesprochen werden. Im Forschungsalltag ist Repräsentativität aufgrund verschiedenster Forschungshemmnisse nur selten vollständig erreichbar (Kostenbegrenzung, Unerreichbarkeit von Personen, Teilnahmeverweigerung etc.), sodass häufig nur Gelegenheitsstichproben (z.B. Studierendensamples) zur Verfügung stehen oder die Stichprobenselektion eher mittels Quotaverfahren (Vergleichbarkeit der Stichprobe mit der Population hinsichtlich der Verteilung einiger wichtiger Merkmale wie Geschlecht, Bildung, Beruf usw.), mittels Schneeballverfahren (Probandinnen und Probanden vermitteln selbst wieder weitere Probandinnen und Probanden) oder mittels Klumpenverfahren erfolgt („cluster sampling“: Cluster von Fällen, z.B. Unternehmen, Organisationen, Branchen, werden zufällig ausgewählt und hierin alle Mitglieder untersucht). Leider erhöhen die letztgenannten Auswahlverfahren die Fehleranfälligkeit und mindern den Grad an Verallgemeinerbarkeit.

In der Mathematik sind Variablen („Platzhalter“, „Leerstellen“) jene Zeichen in Formeln, die für einzelne Elemente aus einer Menge möglicher Zahlen oder Symbole stehen. Die verschiedenen Belegungen von Variablen nennt man ihre Ausprägungen- oder – wenn diese aus Zahlen bestehen – ihre Werte. Als Wertebereich einer Variablen bezeichnet man alle Zahlen vom Minimalbis zum Maximalwert. Variablen charakterisieren Fälle hinsichtlich ihrer untersuchungsrelevanten Merkmale. In psychologischen Untersuchungen können diese äußerst vielfältig sein und schließen Beschreibungsmerkmale, Testergebnisse, Prozentschätzungen, physiologische Messwerte und andere Aspekte mit ein (Abb. 3.2).

Während in der Mathematik Zahlen definitionsgemäß eine quantitative Bedeutung haben, das heißt, dass bestimmte Rechenoperationen mit ihnen durchgeführt werden können (Addition, Multiplikation, Potenzierung etc.), kann dies bei Variablenwerten der psychologischen Empirie nicht vorausgesetzt werden. Hier können Zahlen zum Beispiel für Benennungen herangezogen werden (z.B. Abzählung von Personen in einer Gruppe), sie können eine Rangordnung symbolisieren (z.B. der 1., 2. oder 3. in einem Wettkampf) oder sie können ein Vielfaches von Grundeinheiten darstellen (z.B. Häufigkeiten). Aus diesem Grund werden die Ausprägungen von Variablen in der Psychologie hinsichtlich ihrer sogenannten Skalenqualität unterschieden, wovon insbesondere die Anwendbarkeit statistischer Auswertungsverfahren abhängt.

Merksatz

Hypothetische Ursachen werden in empirischen Untersuchungen mittels unabhängiger Variablen charakterisiert und hypothetische Wirkungen mittels abhängiger Variablen.

Faktoren, denen innerhalb von Phänomenen ein Einfluss zugeschrieben wird, heißen in den empirischen Sozialwissenschaften (so wie in der Mathematik bei Funktionsgleichungen) unabhängige Variablen (UV), während jene Faktoren, welche die Auswirkungen des Einflusses symbolisieren, als abhängige Variablen (AV) bezeichnet werden. In einer wissenschaftlichen Kausalhypothese (s. 3.4) stellt der Wenn-Teil die Ausprägungen der unabhängigen Variablen und der Dann-Teil die vorhergesagten Ausprägungen der abhängigen Variablen dar (Box 3.1). Auf diese Unterscheidung verzichtet man, wenn die Einflussrichtung zwischen den Variablen nicht spezifiziert ist oder als wechselseitig angenommen wird (z.B. bei Korrelationsstudien).

Von den eigentlichen Wirkvariablen unterscheidet man sogenannte Moderatorvariablen, denen ein modifizierender Einfluss auf die funktionalen Beziehungen zwischen unabhängigen und abhängigen Variablen zugeschrieben wird (Box 3.1).

lat. confundere: zusammengießen, vermischen, vermengen, verwirren

Da selbst bei bestens geplanten und genau kontrollierten Experimenten Einflüsse wirksam werden, die nicht erwünscht sind, existieren in allen empirischen Untersuchungen auch Störvariablen. Je mehr Störeinflüsse in einer Untersuchung vorhanden sind, desto vager und unschärfer werden die wissenschaftlichen Resultate. Von Konfundierung spricht man, wenn unabhängige Variablen mit dem Effekt anderer Variablen vermischt sind. Gebräuchliche Maßnahmen gegen eine Verfälschung durch konfundierende Variablen oder Störvariablen sind deren

ŸŸ• „Elimination“ (d.h. Versuch ihrer Ausschaltung),

ŸŸ• „Matching“ (d.h. Gleichhaltung ihres Effektes bei den Ausprägungen der unabhängigen und abhängigen Variablen) sowie

ŸŸ• Randomisierung (d.h. zufällige Aufteilung ihrer Quellen, wie etwa der Auswahl der Probandinnen und Probanden).

probabilistisch: wahrscheinlichkeitstheoretisch berechnet

Insbesondere bei modernen statistischen Modellen findet man häufig die Unterscheidung in manifeste - und latente Variablen. Als manifest gelten alle durch direkte Erhebung (als Ergebnis der empirischen Datenerhebung) zustande gekommenen Variablen, während latente Variablen theoretisch begründet sind und zur Erklärung der empirischen Resultate herangezogen werden. So etwa kann das Konstrukt Intelligenz durch eine latente Variable beschrieben werden, wenn diese als Summe aller gelösten Intelligenzaufgaben definiert wird. Die Ausprägungen latenter Variablen werden in der Forschungspraxis mittels mehr oder weniger komplexer mathematischer Prozeduren (z.B. über Mittelwertsbildungen, lineare Funktionen, probabilistische Schätzungen) aus den ihnen über die Operationalisierung zugeordneten manifesten Variablen errechnet.

Beispiel für eine Variablentypisierung | Box 3.1

Wenn etwa in einem Experiment der Einfluss des Alkoholkonsums auf die Fahrleistung in einem Fahrsimulator untersucht werden soll, dann könnte die Hypothese lauten: Wenn Verkehrsteilnehmer Alkohol trinken, dann begehen sie überdurchschnittlich viele Fehler im Simulator. Als unabhängige Variable fungiert der Alkoholgehalt des Blutes, welcher zumindest in zwei Ausprägungen vorliegen muss (z.B. 0,0 Promille Blutalkoholgehalt – 0,5 Promille Blutalkoholgehalt). Als abhängige Variable könnte in einer normierten Fahrleistungsprüfung die Anzahl an Fahrfehlern herangezogen werden. Als Moderatorvariablen, welche die Beziehung zwischen Alkoholisierungsgrad und Fahrleistung verändern könnten, wären die Fahrpraxis, die Alkoholtoleranz oder die Trinkgeschwindigkeit der Versuchspersonen einzubeziehen. Als Störvariablen können Messfehler bei der Blutalkoholbestimmung, Konzentrationsschwankungen der Probandinnen und Probanden oder Ablenkungen in der Versuchssituation angenommen werden.

Kausalität und Wahrscheinlichkeit| 3.4

Die Annahme, dass Ereignisse der Realität einander gesetzmäßig beeinflussen, d.h. in einem Kausalzusammenhang zueinander stehen, wird implizit in jeder Wissenschaft vorausgesetzt. Würde die Welt nicht deterministischen oder zumindest probabilistischen Gesetzen (wie z.B. in der Quantenphysik) unterliegen, hätte das Betreiben von Wissenschaft keinen Sinn. Das Kausal(itäts)prinzip, nämlich die Annahme, dass jedes Ereignis eine oder mehrere Ursachen hat, ist eine grundsätzlich unbeweisbare These, die aber sowohl im Alltag als auch in der Wissenschaft dazu motiviert, immer wieder nach Ursachen und Wirkungen zu fragen. Im Vergleich zur oft trivial vereinfachten Kausalanalyse des täglichen Lebens (z.B.: Wer ist schuld an einer Scheidung? Was ist die Ursache eines Unfalls?) unterscheidet man in der Wissenschaft mehrere Arten von Kausalbeziehungen.

3.4.1 |Multikausalität und bedingte Kausalität

Eine wichtige Grundunterscheidung betrifft das direkte oder indirekte Zustandekommen von Effekten. Bei direkten Kausalbeziehungen können selbst wieder vier Arten unterschieden werden (Nowak, 1976; Abb. 3.3):

1. Die einfachste Variante, dass eine Ursache sowohl hinreichend (allein ausreichend) als auch notwendig ist (ohne diese Ursache käme es zu keiner Wirkung), stellt einen Kausaltyp dar, den wir in dieser Reinform in der Psychologie kaum vorfinden, am ehesten noch dann, wenn Gegebenheiten miteinander in Wechselwirkung stehen, wie etwa im Falle der gegenseitigen Anziehung zweier Menschen oder bei der symmetrischen Aufschaukelung der Aggression zweier Personen, sodass die Ursachen zugleich als Wirkungen gesehen werden können.

Abb 3.3 |


Typisierung möglicher direkter Kausalbeziehungen nach Nowak (1976) unter Berücksichtigung bedingter Kausalität und Multikausalität. Die Pfeile symbolisieren die Wirkungsrichtung, die aussagenlogischen Formelzeichen ∧, ∨, → und ↔ bedeuten „und“, „oder“, „wenn – dann“ sowie „wenn – dann und umgekehrt“.

2. Die weiteren Kausaltypen sind komplexer. So ist zum Beispiel Stoffkenntnis für eine Prüfungsleistung eine hinreichende Ursache, sie ist aber nicht notwendig, weil auch noch andere Gründe (z.B. Schummeln) für eine gute Leistung verantwortlich sein können.

3. Ursachen lösen oft nur unter bestimmten Bedingungen Effekte aus, indem etwa ein Stressor nur bei schwacher Stressresistenz zu psychischen und somatischen Störungen führt oder selbst die besten Argumente dann nicht einstellungsverändernd wirken, wenn sie aus Mangel an Aufmerksamkeit nicht gehört oder aufgrund zu geringen Vorwissens nicht verstanden werden. Die Ursache ist in diesen Fällen notwendig (d.h. ohne sie kein Effekt), aber nicht hinreichend.

4. Der vierte Typ von Kausalbeziehung ist schließlich jener, bei dem eine Ursache nur unter bestimmten Bedingungen wirksam wird, aber auch andere Ursachen die gleiche Wirkung hervorrufen. So lässt sich eine bestimmte Verhaltensweise eines Kindes durch Versprechen von Belohnung hervorrufen, dies aber nur dann, wenn beim Kind auch ein Bedürfnis nach der versprochenen Gratifikation vorhanden ist. Die gleiche Verhaltensweise kann aber auch durch körperliche Gewalt, durch Bestrafungsandrohung oder andere Faktoren provoziert werden. Da viele psychische Phänomene sowohl multikausal verursacht als auch nur unter bestimmten Voraussetzungen auslösbar sind, ist diese letzte (weder hinreichende noch notwendige) Kausalbeziehung in der Psychologie wohl am häufigsten anzutreffen.

Multikausale - und multieffektive Beziehungen zwischen psychischen, sozialen oder physischen Ereignissen sind also eher die Regel als die Ausnahme. Als ein weiterer diesbezüglicher Ansatz für eine solcherart komplexe, den realen Gegebenheiten entsprechende wissenschaftliche Ursachenanalyse wurde die INUS-Methode vorgeschlagen (s. Westermann, 2000). Das INUS-Schema postuliert, dass eine Ursache oft weiterer Bedingungen für die Auslösung einer Wirkung bedarf (insufficient), dass die Bedingungen allein ohne die Ursache jedoch nicht wirksam sind (necessary), dass auch noch andere Ursachen die gleiche Wirkung auslösen können (unnecessary) und dass die Ursache gemeinsam mit den Begleitumständen hinreichend ist (sufficient).

Box 3.2 | Beispiel für eine INUS-Analyse

Ein psychologisches Gutachten kommt zum Schluss: Die wiederholte Neigung eines Jugendlichen zu Gewalttaten (Wirkung) in bestimmten Situationen (Bedingung) sei auf seinen langjährigen Heimaufenthalt (Ursache) als Kleinkind zurückzuführen.

ŸŸ• Nicht hinreichend (I): Der Heimaufenthalt allein würde nicht ausreichen, wenn nicht auch aktuelle Gelegenheiten gegeben wären (z.B. Streit mit körperlich unterlegenen Kontaktpersonen).

ŸŸ• Notwendig (N): Nur die Gelegenheiten allein, ohne kindlichen Heimaufenthalt, sollten zu keinen aggressiven Handlungen führen.

ŸŸ• Nicht notwendig (U): Heimaufenthalt und Gelegenheiten sind nicht die einzigen Möglichkeiten von Aggressionsauslösern (z.B. denkbar ist auch die Animation zu Gewalttaten durch einen aggressiven Freundeskreis).

ŸŸ• Hinreichend (S): Heimaufenthalt und Gelegenheiten gemeinsam reichen aber gemäß Hypothese aus, eine Tendenz zu Gewalttaten zu bewirken.

(Nach Westermann, 2000)

Merksatz

Um den komplexen Kausalbeziehungen der psychologischen Empirie gerecht zu werden, sollten diese nach direkter, indirekter, multipler, bedingter und scheinbarer Kausalität differenziert werden.

Neben den direkten Kausalbeziehungen treten in Phänomenen oft auch indirekte Kausalbeziehungen auf, bei denen sich Effekte über Wirkungsketten fortpflanzen. Ein Beispiel dafür sind die verschiednen Instanzen neurologischer Verarbeitung, die durchlaufen werden müssen, damit eine akustische Wahrnehmung mit einem Wort benannt werden kann.

Schließlich sind noch scheinbare Kausalbeziehungen als Problem der Forschung zu erwähnen, bei denen eine (zumeist unbeachtete) Ursache zwei oder mehrere Ereignisse simultan so beeinflusst, dass der Eindruck entsteht, sie würden miteinander in einer wechselseitigen Kausalbeziehung stehen. Ein Beispiel aus dem Alltag: Viele Menschen glauben an den Einfluss der Sternenkonstellation auf den Charakter des Menschen, ohne zu berücksichtigen, dass beide vom Wandel der Jahreszeiten mitbestimmt sein könnten (s. zu dieser Thematik Hergovich, Willinger & Arendasy, 2005).

Indeterminismus und Wahrscheinlichkeitsschlüsse| 3.4.2

Die meisten psychologischen Gesetze sind also nicht deterministischer, sondern indeterministischer Natur. Das bedeutet, dass Effekte nur mit einer bestimmten Wahrscheinlichkeit vorhergesagt werden können. Bloß in wenigen Unterdisziplinen der Psychologie – wie etwa in der Physiologischen Psychologie oder in der Wahrnehmungspsychologie – kann man manchmal, ähnlich wie in der Physik, bereits aufgrund von Einzelbeobachtungen (im Sinne eines „experimentum crucis“) auf das Vorliegen eines deterministischen Gesetzes schließen. Bei den meisten anderen psychologischen Subdisziplinen ist jedoch für die Bestätigung von Gesetzen die Heranziehung wahrscheinlichkeitstheoretischer Überlegungen bzw. der Einsatz von Statistik notwendig.

Neben der erwähnten Multikausalität, die zu Effektüberlagerungen bei den untersuchten Phänomenen führt, ist hierfür noch ein weiterer Grund zu nennen (Steyer, 2003): die oft erhebliche Fehlerüberlagerung von Daten und Messwerten (Messfehler). Denn man ist in der Psychologie oft damit konfrontiert, dass Phänomene nur vage, verschwommen oder verzerrt registrierbar sind, und somit gezwungen, mittels statistischer Methoden die Messfehler oder Effektüberlagerungen auszufiltern (s. Abb. 3.4) und für Kennwerte oder Variablenbeziehungen Schätzwerte zu berechnen.

Merksatz

Da die meisten psychologischen Gesetze von Messfehlern und Fremdeffekten überlagert sind, können in der Psychologie fast nur Wahrscheinlichkeitsgesetze postuliert werden.

Allgemein kann man sagen, dass Einzelfälle für die Verifikation- oder Falsifikation von psychologischen Gesetzen nur geringe Bedeutung haben und dass nur das überzufällig häufige Auftreten von Zusammenhängen zwischen Variablen in der Erfahrungswelt ein akzeptabler Beleg für die Gültigkeit eines Gesetzes darstellt. „Wissenschaftliche Hypothesen im Bereich der Sozialforschung sind Wahrscheinlichkeitsaussagen (probabilistische Aussagen), die sich durch konträre Einzelfälle prinzipiell nicht widerlegen (falsifizieren) lassen“ (Bortz & Döring, 1995, 11).

3.5 |Relationen und Funktionen

In welcher Weise ist es nun möglich, Beziehungen zwischen Variablen darzustellen oder quantitativ zu beschreiben? In der Mathematik wird hierfür der Begriff Relation verwendet. Wenn eine Variable A eine endliche Menge von Ausprägungen besitzt und ebenso eine Variable B, dann ist jede Menge paarweiser Zuordnungen zwischen den Ausprägungen von A und B eine Relation. Oder genauer nach Lipschutz (1980, 58): „Eine Relation R von A nach B ist eine Teilmenge von A x B“, nämlich der Menge aller gegebenen Kombinationen zwischen den Elementen von A und B.

Abb 3.4 |


Die Ableitung der Gehirnströme bei Wahrnehmung eines Reizes („Sensorisch Evoziertes Potenzial“) sieht im Einzelfall aufgrund von Störeinflüssen immer etwas anders aus, sodass man das für einen Reiz idealtypische Potenzial durch Mittelwertbildung über die einzelnen Ableitungen feststellt („Mittelungstechnik“).

Abb 3.5 |


Eine Variablenrelation ist dann eine Variablenfunktion, wenn jeder einzelnen Ausprägung einer Variablen (A) nur genau eine Ausprägung einer anderen Variablen (B) zugeordnet ist.

Als Funktion bezeichnet man eine Relation dann, wenn jeder Ausprägung einer Variablen („Definitionsmenge“) nur genau eine Ausprägung einer anderen Variablen („Funktionsmenge“) zugeordnet ist (Abb. 3.5). Viele quantitative Funktionen, d.h. Funktionen zwischen Zahlenmengen, können durch einfache Formeln beschrieben werden. Da man in der Psychologie aber neben quantitativen häufig auch nichtquantitative („qualitative“) Merkmale berücksichtigen muss (z.B. Geschlecht, Beruf, Stimmung), werden Variablenbeziehungen im Bedarfsfall auch aussagenlogisch, mengentheoretisch oder tabellarisch dargestellt (Abb. 3.6).

Wie im vorigen Abschnitt ausgeführt, sind viele Phänomene der Psychologie multikausal oder nur bedingt verursacht, sodass für ihre Aufklärung oft mehrere Variablen einbezogen werden müssen. Relationen zwischen zwei Variablen heißen bivariate, zwischen mehreren Variablen multivariate Variablenrelationen (Box 3.3).

Wenn Variablen quantitativ interpretierbare Ausprägungen haben, kann man sich für die Darstellung von Variablenrelationen auch der analytischen Geometrie bedienen, indem Ausprägungskombinationen als Punkte oder als Vektoren (Pfeile) in einem Raum veranschaulicht werden (Abb. 3.7).

Da aber in der Empirie nur selten solche Relationen zwischen Variablen vorkommen, die eindeutig mit einer einfachen mathematischen Formel beschreibbar sind (z.B. Junktion, lineare Funktion, Kurve), bedient man sich – wie erwähnt – der Statistik, die auch für fehlerbehaftete, unscharfe oder einander überlagernde Variablenrelationen adäquate Beschreibungsmethoden anbietet. Als eines der größten methodischen Probleme der gegenwärtigen psychologischen Forschung kann gelten, dass die meisten Erklärungsmodelle und Hypothesen weder Multikausalität noch bedingte Kausalität einbeziehen, und daher zu geringe Prognosesicherheit erreichen (Maderthaner, in Vorbereitung).

Box 3.3 | Beispiel für eine multivariate aussagenlogische Beschreibung von Variablenzusammenhängen (mit Multikausalität und bedingter Kausalität)

Inhaltliche Aussage (aus der Sozialpsychologie):

Kinder, die früher an Modellpersonen beobachten konnten, dass sich Aggression „lohnt“ (L), oder solche, die gerade von einem anderen Kind frustriert (F) wurden, tendieren diesem gegenüber zu aggressivem Verhalten (A), wenn dieses eher als wehrlos (W) empfunden wird, wenn ihm gegenüber keine moralischen Hemmungen (M) bestehen und wenn im Moment keine Strafdrohung (S) von Aufsichtspersonen für aggressive Reaktionen zu erwarten ist.

Aussagenlogische Form: ((L ∨ F) ∧ W ∧ ¬ M ∧ ¬ S) ⟶ A

(Zur Bedeutung der Symbole siehe Abb. 3.6; ¬: Negation)

| Abb 3.6


Zweistellige Aussagenrelationen („Junktionen“), wie etwa Konjunktion (∧: „A und B“), Adjunktion (∨: „A oder B“), Implikation (⟶: „wenn A, dann B“) oder Bijunktion (⟷: „wenn A, dann B und umgekehrt“) kennzeichnen durch ihre „Wahrheitswerte“ jene Paare von Ausprägungen der Variablen A und B (1, wenn gegeben, und 0, wenn nicht gegeben), die im Sinne der Relation auftreten können.

3.6 |Beschreibende und hypothesenprüfende Statistik

Merksatz

Mittels der Statistik als Hilfswissenschaft werden in der Psychologie verfügbare Daten beschrieben und auf vorhandene Gesetzmäßigkeiten untersucht.

Die Statistik (engl. statistics) fungiert innerhalb der Psychologie als Hilfswissenschaft zur Auffindung und Beschreibung von nichtdeterministischen Gesetzen (Relationen). “Statistics is a set of concepts, rules and methods for (1) collecting data, (2) analyzing data, and (3) drawing conclusions from data” (Iversen & Gergen, 1997, 4). Wenn in der Nachrichtentechnik damit gerechnet wird, dass elektronische Signale von Störungen überlagert werden, dann sendet man gleiche Signale mehrmals hintereinander, um beim Empfang auf Basis ihres Mittelwerts (Durchschnitt) auf das ursprüngliche „wahre“ Signal schließen zu können. Nach dem gleichen Prinzip werden in der Psychologie wiederholt oder simultan Daten über psychische Abläufe, Einstellungen oder Fähigkeiten gesammelt, um daraus Schätzungen über die untersuchten Phänomene ableiten zu können. Die (klassische) Testtheorie postuliert diesem Prinzip gemäß, dass sich jeder Messwert (z.B. eine physiologische Ableitung, eine Fragebogenantwort, eine Prozentschätzung) aus einem wahren Wert - und einem zufälligen Fehlerwert zusammensetzt und dass sich Fehlerüberlagerungen durch Heranziehung mehrerer Messwerte des gleichen Ereignisses „ausmitteln“ lassen.

| Abb 3.7


Ähnlich wie physikalische Objekte in einem (euklidischen) Raum Positionen einnehmen können, lassen sich auch Fälle als „Datenobjekte“ auffassen und in einen (multidimensionalen) Variablenraum projizieren. Die Datenobjekte sind einander umso näher, je ähnlicher ihre Variablenausprägungen sind. Ebenso lässt sich die Ähnlichkeit von Variablen in Objekträumen abbilden. Im Beispiel sind drei Objekte (z.B. Personen) im Zweivariablenraum (z.B. Gewicht und Größe) dargestellt und daneben die gleichen Variablen im Dreiobjekteraum.

3.6.1 |Deskriptivstatistik – beschreibende Statistik

Die deskriptive Statistik bietet charakteristische, formelhafte Beschreibungen oder grafische Darstellungen für eine große Zahl von Fällen, Variablen oder Variablenrelationen an. Wie schon erwähnt (Abb. 3.7), werden Fälle als Punkte in einem multidimensionalen Raum von Variablen gedacht, und ihre Verteilung wird durch statistische Kennwerte bzw. Statistiken näher charakterisiert. Eine Voraussetzung für eine solche Darstellung von Variablen (sowie ihres Einbezugs in komplexe statistische Auswertungsverfahren) ist, dass sie quantitativ interpretierbar sind, d.h., dass ihre Ausprägungen unterschiedliche Quantitäten einer Eigenschaft oder eines Merkmals von Fällen kennzeichnen (Backhaus et al., 2003).

Um die quantitative Bedeutung der Ausprägungen von Variablen einzustufen, werden diese hinsichtlich ihrer Skalenqualität, d.h. nach Skalenniveau bzw. Messniveau, differenziert:

1. Nominalskala: Wenn eine Variable nur dieses Skalenniveau zugeschrieben bekommt, sind ihre Ausprägungen (Zahlenwerte) im Sinne von Klassifikationen zu verstehen. Es handelt sich also um Variablen, die („qualitative“) Eigenschaften, wie etwa Geschlecht, Beruf, Nationalität oder Haarfarbe, kennzeichnen.

2. Ordinalskala (Rangskala): Die Werte von Variablen mit ordinaler Skalenqualität gestatten nicht mehr bloß die Unterscheidung zwischen gleich- und ungleichartig, sondern erlauben zusätzlich die Erstellung einer quantitativ begründeten Rangreihe der Variablenausprägungen. Typische Ordinalvariablen sind Listen von Schulnoten oder Rangreihungen bei Wettbewerben.

Merksatz

Die quantitative Interpretierbarkeit von empirischen Variablen bzw. der durch sie beschriebenen Indikatorausprägungen wird durch die ihnen zugeschriebene Skalenqualität (Messniveau) charakterisiert.

3. Intervallskala: Für Variablen dieses Typs wird angenommen, dass ihre aufeinanderfolgenden Zahlenwerte die Zunahme einer variablenspezifischen Eigenschaftsquantität immer um den gleichen Betrag symbolisieren (der Quantitätszuwachs von 1 auf 2 ist der gleiche wie etwa von 4 auf 5). In der Psychologie erwartet man zumindest Intervallskalenniveau von all jenen Variablen, die quantitative Abstufungen von individuellen Leistungspotenzialen (z.B. Konzentration, Intelligenz) oder von psychischen Dispositionen (z.B. Einstellungen, Persönlichkeitsdimensionen) zum Ausdruck bringen wollen.

4. Verhältnisskala (Rationalskala): Variablen dieser Art sind gewissermaßen Intervallskalen mit einem fixen Nullpunkt. In der Psychologie gehören Verhältnisschätzungen für Wahrnehmungsreize diesem Skalentyp an oder bestimmte probabilistische Testkennwerte („Item-Response-Modelle“).

5. Absolutskala: So bezeichnet man Variablentypen, die ebenfalls einen fixen Nullpunkt haben, bei denen aber auch „echte“ Einheiten gegeben sind. Zu diesem Typus zählen alle Variablen, die Häufigkeiten bzw. Frequenzen zum Ausdruck bringen (z.B. Schätzungen der Anzahl von Objekten oder Personen).

Als quantitative Variablen im engeren Sinne zählen für die Statistik nur solche, die als Intervall-, Verhältnis- oder Absolutskalen zu interpretieren sind.

Eine empirische Variable hat noch eine weitere, für komplexe statistische Auswertungen wichtige Eigenschaft: die Verteilung ihrer Ausprägungen.

Die Betrachtung der Verteilung empirischer Variablen ist aus verschiedenen Gründen wichtig:

1. Aus ihr geht hervor, welche Zahlenwerte mit welcher Wahrscheinlichkeit in einer Population zu erwarten sind (z.B. Mess- oder Testergebnisse).

2. Sie kann Hinweise darüber geben, ob der Wertebereich einer Variablen für die Beschreibung eines empirischen Prozesses optimal gewählt wurde (z.B. nicht optimal bei „schiefen“ Verteilungen, wenn sich die Werte bei den Minimal- oder Maximalwerten der Variablen häufen).

3. Ein weiterer Grund für die Verteilungsprüfung von Variablen liegt in der notwendigen Prüfung von Verteilungsvoraussetzungen (z.B. dem Erfordernis der Normalverteilung von Fehlerkomponenten) für bestimmte multivariate statistische Auswertungsmethoden (z.B. der „Regressionsanalyse“).

Die besondere Bedeutung der Normalverteilung (oder „Gauß’schen Glockenkurve“) und der (mit ihr verwandten) Binomialverteilung in der Statistik ist darauf zurückzuführen, dass beide als Idealformen zufallsbedingter Verteilungsprozesse angesehen werden. Wie bereits erwähnt, wird bei empirischen Variablen angenommen, dass sich ihre Werte aus einer wahren Komponente und einer zufälligen Fehlerkomponente zusammensetzen.

Um den „Schwerpunkt“ von mehreren Variablenwerten zu bestimmen, werden Maße der „Zentraltendenz“ („Lageorientierung“) herangezogen, wie etwa der Mittelwert (m) bzw. „Durchschnittswert“, nämlich die Summe (Σ) aller Werte (x) dividiert durch die Anzahl der Werte (n):


Ebenfalls als Maß der Zentraltendenz gebräuchlich ist der Median (jener Wert, von dem aus etwa 50 % aller Werte größer oder kleiner sind).

Eine zweite wichtige Kennzeichnung von Variablen sind statistische Kennwerte, die den „Streubereich“ („Dispersion“) der Ausprägungen von Variablen aufzeigen. Maße dafür sind etwa die Streubreite (Bereich vom maximalen Wert bis zum minimalen Wert), die Varianz


oder die Standardabweichung:


Die Varianz (v) ist als Durchschnittswert für die Abweichungsquadrate aller Werte (x) vom Mittelwert (m) definiert. Die Standardabweichung (s) als Wurzel der Varianz bezeichnet jene Abweichungen vom Zentrum der Normalverteilung, innerhalb derer etwa 68 % aller Werte liegen.

Um nun Variablen (mit verschiedenen Mittelwerten und Streuungen) besser miteinander vergleichen und auf wechselseitigen Zusammenhang (Korrelation) überprüfen zu können, werden sie oft durch einen einfachen Rechenvorgang in sogenannte Standardvariablen mit jeweils einem Mittelwert von 0,0 und einer Streuung von 1,0 umgewandelt (Standardisierung). Dies wird erreicht, indem alle Werte einer Variablen um ihren Mittelwert reduziert und durch die Streuung dividiert werden („lineare Transformation“, s. auch Abb. 8.19):


Um das Ausmaß der linearen „Ko-Relation“ zwischen zwei Variablen abschätzen zu können, bedient man sich seit etwa hundert Jahren des Pearson’schen Korrelationskoeffizienten (r), der bei einem maximal positiven Zusammenhang zwischen den zwei Variablen den Wert +1,0 annimmt (wenn beide gleichsinnig zu- oder abnehmen). Bei Fehlen einer linearen Beziehung wird er 0,0, bei einem maximal gegensätzlichen Zusammenhang dagegen erhält man

–1,0. Dieser in den Sozialwissenschaften häufig verwendete statistische Kennwert wird auch als „Produkt-Moment-Korrelation“ bezeichnet und lässt sich für zwei Standardvariablen sehr einfach, nämlich als mittleres Produkt der z-Werte, bestimmen (gebräuchliche Formeln zur Berechnung einer Korrelation findet man in statistischen Lehrbüchern oder im Internet):


(Σ = Summenzeichen, n = Anzahl der Fälle, z und z = Standardwerte der Variablen Y und X)

Eine praxisrelevante Nutzanwendung dieser Statistik besteht in ihrer Vorhersagefunktion für die Ausprägungen einer Variablen (Y), wenn die Werte einer anderen, mit ihr (linear) korrelierenden Variablen (X) bekannt sind:

zy = r · zx

lat. regredere: zurückgehen, zurückführen

Da mittels dieser (linearen) Funktion die Werte einer Variablen auf jene einer anderen Variablen zurückgeführt werden können (Abb. 3.8), nennt man diese Bezugsherstellung Regression - und das statistische Verfahren Regressionsrechnung. Mittels der Korrelation lässt sich somit der vermutete Einfluss einer Variablen auf eine andere Variable abschätzen. Das Ausmaß des statistischen Effektes einer Variablen auf eine oder mehrere andere Variablen wird als Effektstärke bezeichnet. So etwa kann man aus dem Quadrat des Korrelationswertes die Stärke des vermuteten Einflusses einer Variablen auf eine andere abschätzen (z.B. r = 0,5, r2 = 0,25, d.h. 25 % Prädiktion), wenn es sich um eine bidirektionale (notwendige und hinreichende) Beziehung handelt (s. Abb. 3.3), was bei psychologischen Effekten eher selten der Fall ist. Neben dem Korrelationskoeffizienten existieren noch weitere Kennwerte für Effektstärken (s. Bortz & Döring, 1995; Westermann, 2000).

Abb 3.8 |


Wenn zwei Variablen (X, Y) durch zwei Einheitsvektoren symbolisiert werden (d.h. als Standardvariablen mit Standardabweichung von s = 1), und die Variablen miteinander im Ausmaß von r = 0,80 korrelieren, dann kann diese Relation durch einen Winkel von 37° zwischen den Vektoren und im Variablenraum dargestellt werden: r = 0,80 = Cos (37°). Der Wert r entspricht somit der Abbildung einer Variablen auf eine andere.

Eine Besonderheit der geometrischen Betrachtungsweise von Variablen besteht darin, dass das Ausmaß ihrer linearen Beziehung (Korrelation) durch den Winkel ihrer Vektordarstellungen im Variablen- bzw. Merkmalsraum dargestellt werden kann (Andres, 1996; Abb. 3.8). Da jeder Vektor eine variablenspezifische Eigenschaft symbolisiert und gleichgerichtete Bündelungen von Vektoren somit auf Eigenschaftsüberlappungen der entsprechenden Variablen hinweisen, können für solche Variablencluster gewissermaßen „Schwerpunktvektoren“ berechnet werden, die man Faktoren nennt und die als oberbegriffliche Beschreibungen der durch die Variablen symbolisierten Eigenschaften aufzufassen sind (Abb. 3.9).

Mittels solcher faktorieller Beschreibungen kann man nicht nur komplexe Variablensysteme auf ihre „Hauptkomponenten“ reduzieren, sondern auch den korrelativen Zusammenhang zwischen verschiedenen Gruppen von Variablen (mit ähnlicher Eigenschaftsbedeutung) bestimmen. (Statistische Verfahren, die auf diesem Prinzip basieren, sind etwa die „Faktorenanalyse“, die „Multivariate Varianzanalyse“, die „Kanonische Korrelation“ oder die „Diskriminanzanalyse“.)

| Abb 3.9


Das Prinzip der „Faktorenanalyse“: Wenn zwischen je zwei dieser acht Variablen der Korrelationskoeffizient berechnet wird und die Variablen in den entsprechenden Winkeln zueinander grafisch dargestellt werden, können Bündel davon durch sogenannte Faktoren (I, II) charakterisiert werden. Die vorliegenden acht Variablen lassen sich relativ gut in nur zwei Dimensionen darstellen, wobei die Länge der Variablenvektoren das Ausmaß ihrer Charakterisierbarkeit durch die beiden senkrecht zueinander stehenden Faktoren widerspiegelt. Im Beispiel könnten die vier Variablen A, B, C und D etwa die Eigenschaften schön, vielfältig, harmonisch und heiter von architektonischen Objekten symbolisieren und aufgrund ihrer vektoriellen Bündelung einen Faktor (I) beschreiben, den man ästhetischer Eindruck nennen könnte.

Eine Erweiterung dieser Verfahren ist die sogenannte „topologische Datenanalyse“ (Wasserman, 2018; Morris, 2015), bei der Daten an empirische Formen oder Strukturen angepasst werden (z.B. Protein-Strukturen, Kommunikationsnetze).

Inferenzstatistik – schließende und prüfende Statistik| 3.6.2

Wie mehrfach erwähnt, müssen in der Psychologie Schlussfolgerungen über die allgemeine Gültigkeit von Gesetzen auf Basis von Stichproben gezogen werden. Dies geschieht zumeist unter Verwendung der Wahrscheinlichkeitstheorie, mittels derer man zu bestimmen versucht, ob die in den Daten festgestellten Variablenrelationen nur zufällig oder doch durch Einwirkung eines Gesetzes zustande gekommen sind.

Vereinfacht, aber sehr prägnant kann das Bestreben empirischer Sozialforschung anhand des mathematischen Bayes-Theorems illustriert werden:


lat. a posteriori: von dem, was nachher kommt

lat. a priori: von vornherein, ohne Einbezug von Erfahrungen

In empirischen Wissenschaften geht es um die Einschätzung der Wahrscheinlichkeit p(H|D) für die Gültigkeit einer Hypothese (H) unter der Bedingung, dass hypothesenbestätigende (oder widerlegende) empirische Daten (D) berücksichtigt werden. Die „Aposteriori-Wahrscheinlichkeit“ p(H|D) für eine Hypothese (d.h. nach Einbezug der Daten) nimmt zu, wenn die „Apriori-Wahrscheinlichkeit“ für die Hypothese p(H) größer wird und/oder wenn die Wahrscheinlichkeit p(D|H) für das Auftreten hypothesenbestätigender Daten ebenfalls zunimmt. Sie nimmt hingegen ab, wenn die hypothesenrelevanten Daten auch unabhängig von der Hypothese häufiger auftreten, das heißt, wenn p(D) größer wird.

Die Plausibilität dieses Ansatzes kann am Beispiel einer medizinischen Diagnose über das Vorliegen einer Covid-19-Infektion illustriert werden: Die Annahme, dass eine Person an Covid-19 (C) erkrankt ist, wenn sie Fieber hat (p(C/F)), stimmt umso eher, (1) je größer p(C) ist, das heißt, je mehr Personen bereits an Covid-19 erkrankt sind (z.B. bei einer Epidemie), (2) je größer p(F|C), die Wahrscheinlichkeit von Fieber bei dieser Viruserkrankung, ist und (3) je kleiner p(F) ist, nämlich die Erwartung des Auftretens von Fieber im Allgemeinen (s. auch 8.5.3; Tschirk, 2019).

Merksatz

Die möglichst stabile Kennzeichnung von Personen oder Personengruppen hinsichtlich wichtiger Eigenschaften, Einstellungen oder Handlungsweisen („Punktschätzungen“) ist eine zentrale sozialwissenschaftliche Zielsetzung.

Eine zentrale sozialwissenschaftliche Zielsetzung besteht in der möglichst stabilen Kennzeichnung von Personen oder Personengruppen hinsichtlich wichtiger Eigenschaften, Einstellungen oder Handlungsweisen („Punktschätzungen“). Da solche Kennwerte immer fehlerbehaftet sind, wird mittels statistischer Techniken ein Vertrauensintervall bzw. Konfidenzintervall für sie bestimmt, innerhalb dessen mit 95%iger (99%iger) Wahrscheinlichkeit der „wahre“ Kennwert vermutet wird.

Es ist leicht einzusehen, dass der Schätzfehler für einen statistischen Kennwert mit zunehmender Größe der Stichprobe immer kleiner wird und schließlich gegen Null geht, wenn alle möglichen Fälle in die Berechnung einbezogen sind (Abb. 3.10).

| Abb 3.10


Der Schätzfehler (se ) für die Bestimmung des Mittelwertes einer Population von Fällen aufgrund einer Stichprobe ist eine Funktion der Stichprobenstreuung (s) und des Stichprobenumfanges (n): . Je mehr Fälle für eine Schätzung zur Verfügung stehen, desto genauer wird die Vorhersage. Wenn etwa geschätzt werden sollte, wie viel Zeit Arbeiterinnen und Arbeiter durchschnittlich für einen bestimmten Arbeitsgang in einem Produktionsprozess benötigen, dann wird die Schätzung des Mittelwertes anhand einer Stichprobe von 100 Personen eine nur halb so große Fehlerstreuung aufweisen (in Einheiten der Standardabweichung) wie jene auf Basis einer Stichprobe von 25 Personen.

lat. inferre: hineintragen

Die mathematisch begründeten Methoden der Inferenzstatistik sollen also eine Einschätzung erlauben, ob überhaupt und in welchem Ausmaß statistische Resultate von Stichproben auf die jeweilige Population übertragbar sind.

Merksatz

Inferenzstatistische Verfahren zielen darauf ab, den Grad der Allgemeingültigkeit von Gesetzmäßigkeiten zu prüfen, die auf Basis von Stichproben gewonnen werden.

Wenn die Wahrscheinlichkeit dafür, dass bestimmte Variablenrelationen zufällig zu erklären sind, einen vereinbarten Wert unterschreitet (z.B. p = 0,05, p = 0,01 oder p = 0,001), dann spricht man von statistischer Signifikanz des Ergebnisses. Bortz und Döring (1995, 27) definieren statistische Signifikanz als ein „per Konvention festgelegtes Entscheidungskriterium für die vorläufige Annahme von statistischen Populationshypothesen“. Wenn also ein statistisches Ergebnis nur mehr zu 5 % (oder weniger) durch Zufallsprozesse erklärt werden kann, wird es als statistisch signifikant angesehen („überzufällig“ oder „unterzufällig“). Die restliche, für eine Zufallserklärung verbleibende Unsicherheit von 5 % (oder weniger) nennt man Irrtumswahrscheinlichkeit („Fehler 1. Art“, „Alpha-Fehler“), die dazugehörige den Zufallsprozess charakterisierende Annahme (über die Datenverteilung) heißt Nullhypothese.

Da die praktische Bedeutsamkeit eines signifikanten Ergebnisses aber auch von dessen Effektstärke abhängt, müssen abgesehen von der Nullhypothese auch Alternativhypothesen statistisch getestet werden. Das Ausmaß, in dem die Datenverteilungen mit den Vorhersagen einer Alternativhypothese übereinstimmen, wird als Teststärke (engl. power) bezeichnet. Um diese berechnen zu können, ist es nötig, die jeweilige Alternativhypothese zu spezifizieren, indem man die erwartete Effektgröße präzisiert, d.h. schätzt, wie stark die jeweilige unabhängige Variable auf die abhängige Variable einwirken dürfte. Der Vorteil einer solchen Vorgangsweise besteht vor allem darin, dass man nicht nur vage auf „Über- oder Unterzufälligkeit“ von statistischen Ergebnissen schließt, sondern sogar die Wahrscheinlichkeit bestimmen kann, mit der die Daten für die Alternativhypothese sprechen.

Forschungsmethoden der Psychologie| 3.7
Laborexperiment| 3.7.1

Mittels eines Experiments ist es möglich, hypothetische Wirkfaktoren gezielt zu manipulieren, um ihre Auswirkungen unter verschiedenen Bedingungen zu analysieren. Experimente werden bevorzugt zur Prüfung von Kausalhypothesen eingesetzt (Stapf, 1987). Im Experiment wird eine künstliche Realität konstruiert, um die vermuteten Einflussfaktoren in ihrer Wirksamkeit unter Abschirmung von möglichen Störeinflüssen zu untersuchen.

Häufig wird in psychologischen Experimenten der (den) Experimentalgruppe(n) (Versuchsbedingungen) eine Kontrollgruppe (Kontrollbedingung) gegenübergestellt. Den Fällen der Experimentalgruppen sind solche Ausprägungen der unabhängigen Variablen (Ursachenvariablen) zugeordnet, von denen ein Effekt auf die abhängigen Variablen (Wirkungsvariablen) erwartet wird, während den Fällen der Kontrollgruppe Ausprägungen der unabhängigen Variablen zugeteilt sind, denen kein systematischer Effekt zugeschrieben wird. Diese Gruppe dient somit nur dazu, Veränderungen zu erfassen, die entweder auf natürliche Weise auftreten (Zeiteffekte, Gewöhnungsprozesse etc.) oder durch die experimentellen Umstände selbst zustande kommen, nämlich durch die künstliche Situation oder den Eindruck, beobachtet zu werden.

Die künstliche Realität des Experiments ist einerseits ein Vorteil, weil durch die Beseitigung von Störeinflüssen der Zusammenhang zwischen unabhängigen und abhängigen Variablen klarer erkannt werden kann (hohe „interne Validität“), andererseits aber auch ein Nachteil, weil die Ergebnisse nur mit Vorsicht auf den Alltag übertragbar sind (geringe „externe“ bzw. „ökologische Validität“).

Ein wesentliches Merkmal psychologischer Experimente ist die Randomisierung. Durch die Randomisierung sollen sich Störeffekte ausmitteln, die eventuell durch unausgewogene Stichproben zustande kommen. In der zuvor erwähnten Studie über die Wirkung des Alkohols auf das Fahrverhalten (Box 3.1) würden zum Beispiel die sich meldenden Versuchspersonen per Zufall den Gruppen mit unterschiedlicher Alkoholaufnahme zugewiesen werden.

Die Störeffekte in psychologischen Experimenten haben im Wesentlichen drei verschiedene Quellen (Gniech, 1976):

Randomisierung meint die zufällige Zuordnung von Personen (oder Gruppen) zu den jeweiligen Ausprägungen der unabhängigen Variablen.

1. Versuchssituation: Der sogenannte „Aufforderungscharakter“ eines experimentellen Umfelds, nämlich die Art der Information über den Zweck der Untersuchung, die Rahmenbedingungen, die Art der Instruktion, die gestellten Fragen und Ähnliches hinterlassen bei den Versuchspersonen Eindrücke, die ihr experimentell induziertes Verhalten beeinflussen können.

2. Versuchspersonen: Eine unüberlegte, nicht randomisierte Auswahl der Stichprobe kann Verfälschungen in den Ergebnissen bewirken. Ein nicht zu unterschätzendes Problem bei der Interpretation von Untersuchungsergebnissen ist zum Beispiel die oft notwendige Beschränkung der Teilnahme auf Freiwilligkeit und das Ausscheiden von Teilnehmenden aus dem Experiment („drop out“), wodurch natürlich die erwünschte Zufallsauswahl einer Stichprobe beeinträchtigt ist. Personen, die sich freiwillig für ein Experiment melden, sind im Allgemeinen besser gebildet, haben einen höheren gesellschaftlichen Status, sind stärker sozial orientiert und haben ein stärkeres Bedürfnis nach Anerkennung (Rosenthal & Rosnow, 1975; zit. nach Gniech, 1976). Natürlich wirken sich auch Einstellungsunterschiede der Teilnehmerinnen und Teilnehmer gegenüber der Untersuchung aus, je nachdem, ob es sich um kooperierende, sabotierende oder neutrale Versuchspersonen handelt.

3. Versuchsleitung: Vonseiten der Forscherinnen und Forscher sollten beobachterabhängige Urteilsverzerrungen (engl.: observer bias) beachtet werden, die durch persönliche Motive und Erwartungen entstehen. Besonders störend sind unbewusste Einflussnahmen (z.B. über nonverbale Kommunikation) im Sinne eigener theoretischer Vorstellungen („Erwartungseffekte“, „Rückschaufehler“, Selbsterfüllende Prophezeiung). In Experimenten mit Volksschulkindern (Box 3.4) konnte etwa nachgewiesen werden, dass Lehrpersonen gegenüber fremden Kindern, die ihnen aufgrund von Testresultaten als angeblich begabt ausgewiesen wurden (als „Spätentwickler“), sich sympathischer, förderlicher und entgegenkommender verhielten, sodass sie mit ihrem Verhalten de facto dazu beitrugen, die Fähigkeiten der Kinder zu steigern (Rosenthal & Jacobson, 1968).

lat. placebo: „Ich werde gefallen.“

Dass Erwartungshaltungen, zum Beispiel hinsichtlich der Wirksamkeit eines Medikamentes, beachtliche Auswirkungen haben können, ist seit Langem aus der Medizin unter der Bezeichnung Placebo-Effekt bekannt. Darunter versteht man die positive Wirkung auf Befinden oder Gesundheit ausgehend von medizinisch unwirksamen Substanzen – sogenannten „Placebos“ (z.B. Milchzucker, Stärke, Salzlösungen) –, allein durch Herstellung einer Erwartung von Wirksamkeit.

| Box 3.4 Selbsterfüllende Prophezeiung

Die Selbsterfüllende Prophezeiung wird auch Pygmalion-Effekt genannt, nach dem Bildhauer der griechischen Mythologie, der die Statue einer perfekten Frau schuf („Galatea“) und sie durch seinen festen Glauben und seine Sehnsucht nach ihr zum Leben erweckte (Göttin Aphrodite soll allerdings mitgeholfen haben).

In einem Experiment der Sechzigerjahre waren 18 Klassen einer Volksschule einbezogen. Bei allen Schülerinnen und Schülern wurde ein nonverbaler Intelligenztest durchgeführt, den man als Indikator für eine zu erwartende intellektuelle Entwicklung der Kinder in den nächsten acht Monaten ausgab. Aus allen Klassen wurden 20 % der Kinder zufällig (!) ausgewählt, die den Lehrpersonen mit dem Hinweis genannt wurden, dass von diesen Kindern aufgrund des durchgeführten Tests in der nächsten Zeit ein intellektueller Fortschritt zu erwarten sei. Nach acht Monaten zeigten die mit dem positiven Vorurteil bedachten Kinder im Intelligenztest deutliche Verbesserungen! Der gleiche Effekt konnte auch in Tierexperimenten nachgewiesen werden (Rosenthal, 2002).

Das Gegenteil vom Placebo-Effekt ist der Nocebo-Effekt, nämlich die durch Erwartung hervorgerufene negative Auswirkung eines eigentlich unwirksamen Medikaments oder einer Behandlung.

Um die genannten Artefakte in Experimenten zu reduzieren, werden Doppel-blind-Verfahren eingesetzt, bei denen weder die Versuchspersonen noch die unmittelbar das Experiment betreuenden Forscherinnen und Forscher über die Art der experimentell gesetzten Einwirkungen Bescheid wissen dürfen. Da natürlich auch in Blindstudien die Probandinnen und Probanden über die Intention einer Studie Vermutungen entwickeln, müssen in der psychologischen Forschung manchmal auch Täuschungen eingesetzt werden. Selbstverständlich sind diese nach Ende des Experiments aufzuklären.

Merksatz

In einem Experiment werden unter abgeschirmten Bedingungen die Effekte (abhängige Variablen) systematisch variierter Wirkfaktoren (unabhängige Variablen) registriert, wobei durch eine zufällige Zuteilung der Fälle zu den Bedingungen der Wirkfaktoren etwaige Verfälschungen der Ergebnisse minimiert werden sollen.

Experimente sowie andere Forschungsdesigns können sowohl als Querschnittuntersuchung (engl.: cross sectional study) als auch als Längsschnittuntersuchung (engl.: longitudinal study) durchgeführt werden. Bei der häufig eingesetzten Querschnittstudie werden an einzelnen Fällen (Personen, Gruppen, Situationen etc.) die interessierenden Variablen nur einmalig erhoben, sodass strukturelle Gesetze von Variablen analysiert werden können, während bei einer Längsschnittstudie zwei oder mehr Datenerhebungen zu den gleichen Variablen stattfinden und somit auch deren zeitliche Dynamik erfassbar ist. Ein großer Vorteil der Längsschnittmethode liegt auch darin, dass intraindividuelle Veränderungen beobachtet werden können und Verfälschungen durch unausgewogene Stichproben, wie sie bei der interindividuellen Querschnittmethode vorkommen, reduziert sind (Daumenlang, 1987). Nachteilig ist hingegen über einen längeren Zeitraum der Schwund an Versuchspersonen und die Problematik der mehrmaligen Anwendung gleichartiger Testverfahren (Gefahr von „Serialeffekten“).

3.7.2 |Quasiexperiment

Merksatz

Ein Quasiexperiment gleicht vom Aufbau her einem Experiment – mit dem Unterschied, dass die Fallzuordnung zu den Bedingungen nicht zufällig erfolgt.

Artefakt: In Psychologie und Nachrichtentechnik steht dieser Ausdruck für verfälschte Ergebnisse.

Diese Untersuchungstechnik gleicht vom Design her dem Experiment, nur verzichtet man auf eine zufällige Zuordnung der Versuchspersonen zu den Versuchs- bzw. Kontrollbedingungen und nimmt das Risiko von Stichprobeneffekten in Kauf. In manchen Forschungsbereichen ist eine zufällige Zuteilung zu den verschiedenen Bedingungen entweder nicht realisierbar oder ethisch nicht zu rechtfertigen; so etwa die zufällige Zuordnung von Schülerinnen und Schülern zu Schultypen, von Mitarbeiterinnen und Mitarbeitern zu Betrieben oder von Patientinnen und Patienten zu Behandlungsverfahren. Um die aus dem Verzicht einer Randomisierung resultierenden Artefakte zu kompensieren, werden in solchen Untersuchungen einerseits größere Probandengruppen angestrebt und andererseits zusätzliche Personenmerkmale erhoben, denen ein direkter oder indirekter Einfluss auf die abhängigen Variablen zugeschrieben werden kann. Zu diesen gehören die soziodemografischen Merkmale (Geschlecht, Alter, Schulbildung, Beruf ...), aber auch andere individuelle Charakteristika, die aufgrund ihrer Ungleichverteilung in den Bedingungen der unabhängigen Variablen zu systematischen Verfälschungen von Ergebnissen führen könnten. Mittels statistischer Korrekturverfahren lassen sich einige solcher Verfälschungen kompensieren bzw. aus den Ergebnissen herausrechnen („auspartialisieren“).

Feldforschung| 3.7.3

Im Gegensatz zum Experiment versucht man in der Feldforschung, Phänomene unter möglichst natürlichen Bedingungen zu beobachten und zu erklären. Dem Vorteil der Natürlichkeit steht hier der Nachteil gegenüber, dass Störvariablen weniger gut kontrolliert werden können. Da Forschungsphänomene „im Feld“ wesentlich komplexer in Erscheinung treten als im Labor, kommt bei der Feldforschung der Entwicklung von genauen und effizienten Beschreibungsmethoden sowie der Ausarbeitung von Verhaltensregeln zur optimalen Datengewinnung besondere Bedeutung zu (s. Flick et al., 1995).

Merksatz

Methoden der Feldforschung bezwecken eine Untersuchung von Phänomenen unter natürlichen Rahmenbedingungen bzw. unter minimierter versuchsbedingter Beeinflussung.

Sogenannte Fallstudien („single case studies“) sind häufig erste Erfahrungsquellen und als solche nur Anregungen für weitere Forschungstätigkeiten. Obwohl Forschungsphänomene durch Fallstudien hervorragend konkretisiert und plastisch vorstellbar gemacht werden können, mangelt es ihren Ergebnissen logischerweise an Verallgemeinerbarkeit.

Einen Katalog möglicher Verhaltensweisen in natürlichen Umweltbedingungen nennt man in der Verhaltensforschung Ethogramm, innerhalb dessen ein „behavior mapping“ charakterisiert, wer was wo tut (Hellbrück & Fischer, 1999).

Non-reaktive Verfahren bezwecken eine Analyse psychologischer Problemstellungen, ohne dass die untersuchten Personen bemer-ken, dass sie untersucht werden, was insbesondere bei Inhaltsanalysen von schriftlichen Dokumenten (z.B. Tagebüchern, Archiven), bei Auszählungen von Unfall-, Krankheits- und Fehlzeitstatistiken, Verkaufsstatistiken oder Abnützungen von Bodenbelägen, Pfaden oder Gebrauchsgegenständen („Spurenanalyse“) gut gelingt.

In der Feldforschung werden häufig, aber nicht ausschließlich, qualitative Methoden verwendet, weil diese flexibler auf die Eigenarten von Personen oder von Situationen anzupassen sind.

3.7.4 |Test und Rating

Merksatz

Eine Standardisierung besteht aus Maßnahmen, die eine Vergleichbarkeit von verschiedenen Personen, Objekten, Situationen oder von Variablenwerten ermöglichen.

Ein Test ist ein wissenschaftlich normiertes und standardisiertes Prüfverfahren, welches stabile Eigenschaften eines komplexen Systems (Person, Gegenstand, Organisation) ermitteln soll. Unter Standardisierung versteht man Maßnahmen, aufgrund derer Situationen, Aktionen oder Objekte unter Bezugnahme auf Normen oder Regeln miteinander verglichen werden können. So etwa müssen in Experimenten Instruktionen und Rahmenbedingungen der Durchführung für alle Versuchspersonen standardisiert, d.h. als maximal ähnlich aufgefasst werden; Gleiches gilt für die Diagnostik, wo Tests verschiedenen Kandidatinnen oder Kandidaten vorgegeben werden. Bei standardisierten Fragebögen müssen die Fragen immer den gleichen Wortlaut haben, auch die möglichen Antworten sind fix vorgegeben (z.B. in Form von Antwortalternativen). Bei statistischen Auswertungen gelten Variablen dann als standardisiert, wenn ihre Werte als Differenz zu ihrem Mittelwert - und in Einheiten ihrer Streuung dargestellt werden (s. 3.6.1), wodurch auch inhaltlich sehr verschiedenartige Variablen miteinander in Relation gesetzt werden können. Bei Leistungs-, Intelligenz- oder Persönlichkeitstests bedeutet eine Standardisierung, dass die Ergebnisse der Probandinnen und Probanden auf die Verteilungen von sogenannten Referenz- oder Normstichproben bezogen sind.

Merksatz

Eine Skala soll Ausprägungen einer spezifischen Eigenschaft eines empirischen Sachverhaltes exakt (anhand von Zahlen) charakterisieren.

Da die in einem Test zu erfassenden Konstrukte aus Teilaspekten bzw. verschiedenen Inhaltskomponenten bestehen, setzen sich Tests aus entsprechend vielen Subtests bzw. Skalen zusammen, die jeweils ein homogenes Merkmal feststellen oder „messen“ sollen. Eine Skala ordnet somit empirischen Objekten (z.B. Personen) Zahlen zu, ähnlich wie dies bei der Längenmessung physikalischer Objekte anhand einer Meterskala geschieht (Niederée & Narens, 1996). Die Prüfung, ob zur Vermessung eines empirischen Objekts eine quantitative Skala akzeptiert werden kann, erfolgt auf Basis mathematisch-statistischer Messtheorien (s. auch 3.6.1, Skalenqualität).

engl. scale: Maßstab, Anzeige, Skala; ital. scala: Maßstab, Treppe, Leiter, Skala

Subtests oder Skalen bestehen selbst meist wieder aus zwei, drei oder mehr Elementen, den Items. Je nach inhaltlicher Orientierung des Tests oder der Skala können sich die Items aus Leistungsaufgaben, Fragen mit Antwortalternativen oder aus Skalierungen, nämlich Einschätzungen von Merkmalen anhand von Zahlen, zusammensetzen. Die Art der Reaktion einer Person auf ein Item wird über (Zahlen-)Symbole kodiert, welche unter Verwendung mathematisch-statistischer Modelle zu quantitativen Werten (z.B. Mittelwert über die einzelnen Items) für die einzelnen Skalen verrechnet werden. Je mehr Items für eine Skala zur Verfügung stehen, d.h., je mehr unabhängige elementare „Messinstrumente“ für eine Eigenschaft vorliegen, desto größer ist im Allgemeinen die Zuverlässigkeit der entsprechenden Skala.

engl. item: Datenelement, Einheit, Einzelheit, Element, Punkt, Nummer

Eine Aufzählung nach Bühner (2010) soll illustrieren, in welch verschiedenen Bereichen psychologische Tests eingesetzt werden: psychische und psychosomatische Störungen, Befindlichkeitsstörungen, Therapie- und Heilungsverlauf, Familien-, Ehe- und Erziehungsberatung, Berufsberatung und Personalauslese, Verkehrseignung (TÜV), Strafvollzug (Haftentlassung), Entwicklungsstörungen, Schulreife, Leistungsstörungen, Hochschuleignung, Produktbeurteilung, Einstellungs- und Motivationsmessung (Arbeitszufriedenheit, Leistungsmotivation) usw. „Die Auswahl und Interpretation von Test- und Fragebogenergebnissen zählen zu den Routineaufgaben in der späteren Berufspraxis“ von Psychologinnen und Psychologen (Bühner, 2010, 11).

Die Genauigkeit, die Aussagekraft und der Vorhersageerfolg von Testergebnissen hängen von sogenannten Gütekriterien der Tests ab. Allgemeine und unverzichtbare Gütekriterien von Datenerhebungsinstrumenten sind Objektivität, Reliabilität sowie Validität.

Die Objektivität eines Tests kennzeichnet die Unabhängigkeit seines Ergebnisses von der Person, die den Test durchführt. Sie ist besonders hoch, wenn verschiedene Testanwender zu gleichen Testergebnissen kommen. Dafür ist es allerdings nötig, dass die Anwenderinnen und Anwender fundierte testpsychologische Grundkenntnisse und Fertigkeiten besitzen (s. DIN-Norm 33430 für „Berufsbezogene Eignungsdiagnostik“, Hornke & Winterfeld, 2004; Bühner, 2010). Objektivitätsmängel können sowohl durch fehlende Sorgfalt bei der Testdurchführung als auch durch Unterschiede bei der Auswertung oder Interpretation entstehen.

Reliabilität bedeutet Zuverlässigkeit und Genauigkeit eines Tests und ist gegeben, wenn bei wiederholter Anwendung des Tests bei gleichen Probanden auch weitgehend gleiche Ergebnisse zustande kommen. Hinweise auf die Zuverlässigkeit von Tests bekommt man, indem man (1) einen Test (falls möglich) wiederholt vorgibt und dessen Ergebnisse auf Übereinstimmung prüft („Retest-Methode“), oder indem man (2) sogenannte Paralleltests, nämlich Tests mit gleicher Aussagekraft, entwickelt und deren Übereinstimmung bei ein und derselben Personengruppe kontrolliert („ParalleltestMethode), oder indem man (3) die Teile eines Tests auf Homogenität, d.h. auf inhaltliche Ähnlichkeit prüft („Konsistenzmethode“).

Die Validität (Gültigkeit), das wichtigste Gütekriterium eines Tests, gibt an, wie gut er in der Lage ist, das zu messen, was er zu messen vorgibt (z.B. Intelligenz, Motivation, Persönlichkeitsmerkmale). „Inhaltliche Validität“ oder „Augenscheinvalidität“ besitzt ein Test dann, wenn es aufgrund der Art der Testung (Fragen, Leistungen usw.) offensichtlich ist, welcher Aspekt sich im Testergebnis hauptsächlich niederschlägt (z.B. Additionstest für Rechenfertigkeit, Bildermerktest für Vorstellungsfähigkeit). Die empirische Validitätsprüfung eines Tests geschieht hauptsächlich durch Berechnung des statistischen Zusammenhanges (Korrelation) seiner Werte mit einem plausiblen Kennwert („Kriteriumsvalidität“) oder mit einem anderen Test, der den gleichen Aspekt zu messen vorgibt („Konstruktvalidität“). Beispielsweise könnte bei Schülerinnen und Schülern für einen Test über rechnerische Intelligenz die Mathematiknote als Validitätskriterium oder ein ebenfalls auf Rechenleistungen bezogener anderer Test als Validitätskonstrukt herangezogen werden.

Merksatz

Ein Test ist ein wissenschaftlich begründetes, normiertes und bestimmten Gütekriterien unterworfenes Verfahren mit dem Ziel einer quantitativen Erfassung von Merkmalen.

Zwischen den genannten drei Gütekriterien besteht allerdings eine Implikationsbeziehung: Wenn ein Test nicht objektiv ist, kann er nicht reliabel sein, und wenn er nicht reliabel ist, ist er nicht valide. Wenn nämlich bereits die Datenerhebung stark fehlerbehaftet ist, können bei wiederholten Messungen keine gleichen Resultate auftreten, und wenn Letzteres nicht gesichert ist, kann auch die zu messende empirische Eigenschaft nicht befriedigend von anderen Eigenschaften unterschieden werden.

Insbesondere bei der Konstruktion von Tests werden neben Objektivität, Reliabilität und Validität noch weitere, ebenfalls wichtige Gütekriterien überprüft (s. Kubinger, 2003): Skalierung (quantitative Interpretierbarkeit der Testwerte), Normierung (Vergleichsmöglichkeit mit Bevölkerungsgruppen), Fairness (Chancengleichheit für alle Bevölkerungsgruppen), Ökonomie (Minimum an Ressourcenverbrauch), Zumutbarkeit (Minimum an zeitlicher, emotionaler und psychischer Belastung der Probandinnen und Probanden) und Unverfälschbarkeit (geringe Möglichkeit zur willkürlichen Beeinflussung der Testergebnisse durch die Testpersonen).

| Tab 3.1


Das Polaritätsprofil ist eine in der Psychologie sehr verbreitete Methode zur Erfassung einstellungsbezogener oder gefühlsmäßiger Reaktionen auf Objekte, Personen oder Situationen. Dabei wird von den Versuchspersonen eine Reihe von Eigenschaften oder Eigenschaftspaaren (ca. 5–25) hinsichtlich ihres Zutreffens zahlenmäßig eingestuft.

In der Philosophie den Tests sehr ähnlich und ebenfalls sehr verbreitet sind Ratingverfahren, mittels derer Eigenschaften von Personen, Objekten oder Situationen (z.B. Wahrnehmungen, Ausdruckswirkungen oder Einstellungsintensitäten) anhand von Zahlenzuordnungen quantitativ eingestuft werden. Ein Beispiel dafür ist das Polaritätsprofil („Semantisches Differential“; Tab. 3.1). In anderen Ratings bzw. Skalierungen wird etwa der Grad an Zustimmung zu Meinungen in Prozentpunkten, die Bewertung von Objekten oder Aspekten in Schulnoten oder eine Präferenzentscheidung mittels Punktesystem angegeben.

3.7.5 |Beobachtung

Die Selbst- und Fremdbeobachtung zählt zu den ältesten Forschungsinstrumenten der Psychologie. Die wissenschaftliche Beobachtung unterscheidet sich von jener des Alltags durch ihre Theoriegeleitetheit und Systematik. „Unter Beobachtung versteht man das systematische Erfassen von wahrnehmbaren Verhaltensweisen, Handlungen oder Interaktionen einer Person oder Personengruppe zum Zeitpunkt ihres Auftretens“ (Ebster & Stalzer, 2003, 221). Grundsätzlich sollte die Beobachtung als Mittel der Informationsgewinnung in allen Untersuchungen zumindest begleitend eingesetzt werden, und auch die beschriebenen Gütekriterien von Tests sollten eigentlich für alle Datengewinnungsverfahren in der Psychologie gelten. So sind auch Beobachtungen einer Objektivitätsprüfung zu unterziehen, indem die Übereinstimmung verschiedener, unabhängiger Beobachterinnen oder Beobachter festgestellt wird.

Merksatz

Wissenschaftliche Formen der Selbst- und Fremdbeobachtung sind theoriegeleitet, systematisiert und den allgemeinen Gütekriterien der Datenerhebung unterworfen.

Die teilnehmende Beobachtung ist ein Verfahren, bei dem die forschende Person selbst am untersuchten Geschehen teilnimmt und von den erforschten Personengruppen wie ihresgleichen behandelt werden möchte. Man erwartet sich dadurch sowohl eine lebensnähere Perspektive des beforschten Phänomens als auch tiefere Einblicke in die jeweilige Problematik. Bei nichtteilnehmender Beobachtung ist man als Forscher den Untersuchungspersonen gegenüber distanzierter eingestellt und an objektiven Ergebnissen interessiert. Verdeckte Beobachtungen haben den Vorteil, dass der beobachtete Prozess natürlich und ungestört ablaufen kann, aber unter Umständen ist mit Unmut (z.B. bei Täuschungen) und Verweigerung der Zustimmung zur Datennutzung zu rechnen (gemäß „Ethikrichtlinien“ der Psychologie ist eine Einverständniserklärung durch die Betroffenen erforderlich). Offene Beobachtungen haben häufig den Nachteil, dass sich die Beobachteten imageorientiert, skeptisch, übertrieben oder sonst irgendwie unnatürlich verhalten. In einer frühen Forschungsphase, wenn noch keine konkreten Vorstellungen über gesetzmäßige Zusammenhänge im Forschungsfeld vorhanden sind, werden unstrukturierte Beobachtungen überwiegen, während bei zunehmender Klarheit über die zu erwartenden Gesetzmäßigkeiten immer mehr zu strukturierten Beobachtungen übergegangen werden kann. Dies bedeutet dann, dass Schemata und Eintragslisten entwickelt werden, anhand derer Beobachterinnen und Beobachter ihre Wahrnehmungen steuern und kategorisieren können.

Befragung (Interview)| 3.7.6

Da die verschiedenen Varianten der Befragung zu den häufigsten Methoden der Datengewinnung in den Sozialwissenschaften zählen, werden sie auch manchmal als deren „Königsweg“ bezeichnet (Ebster & Stalzer, 2003). „Befragung bedeutet Kommunikation zwischen zwei oder mehreren Personen. Durch verbale Stimuli (Fragen) werden verbale Reaktionen (Antworten) hervorgerufen: Dies geschieht in bestimmten Situationen und wird geprägt durch gegenseitige Erwartungen.“ (Atteslander, 2003, 120)

Merksatz

Die Befragung ist ein sehr häufig eingesetztes sozialwissenschaftliches Verfahren der Datenerhebung, welches in strukturierter Form auch einer statistischen Auswertung zugeführt werden kann.

Texttranskription: Exakte schriftliche Protokollierung mündlicher Äußerungen

Ein wichtiges Unterscheidungsmerkmal von Befragungen ist der Grad ihrer Standardisierung. Hinsichtlich der Freiheitsgrade bei der Durchführung von Gesprächen mit Untersuchungspersonen unterscheidet man standardisierte, teilstandardisierte - und nichtstandardisierte Befragungen (Interviews). Nichtstandardisierte Interviews (mit wissenschaftlicher Basis) werden auch als „qualitative Befragungsmethoden“ zusammengefasst. Dazu zählen etwa das Intensiv- oder Tiefeninterview, das Gruppeninterview, das narrative Interview - und die qualitative Inhaltsanalyse (Flick et al., 1995). Da bei diesen Befragungen nur wenige Einschränkungen für den Ablauf des Interviews gegeben sind (z.B. hinsichtlich der Thematik), laufen die Gespräche relativ ungezwungen und spontan ab, und es kommen viele Inhalte und Gedanken zur Sprache, die sonst kaum genannt worden wären. Allerdings erfordert diese Art von Datenerhebung beträchtliche kommunikative Fertigkeiten bei den interviewführenden Personen bzw. entsprechende Schulungen, da natürlich der Output des Interviews sowohl vom Inhalt als auch vom Umfang her durch das (auch nonverbale) Verhalten des Interviewers verfälscht werden kann (z.B. in Richtung eigener theoretischer Annahmen).

Anamnese: Vorgeschichten einer seelischen oder körperlichen Erkrankung

Bei standardisierten (strukturierten) Befragungen hingegen sind die Formulierungen der Fragen fix vorgegeben, sodass alle Befragungspersonen zu den gleichen Inhalten Stellung nehmen müssen. Die Beantwortungen der Fragen können im offenen Antwortmodus erfolgen, das heißt mit eigenen Worten. Dies bedeutet zwar einerseits (wie bei den qualitativen Befragungsmethoden) eine Chance auf mehr Information, ist aber andererseits mit größerem Auswertungsaufwand (z.B. Texttranskription) und erschwerter Vergleichbarkeit der Aussagen verbunden. Bei einem geschlossenen Antwortmodus sind für die einzelnen Fragen auch deren Antwortmöglichkeiten vorgegeben und die befragten Personen müssen sich für eine oder mehrere davon entscheiden („multiple choice“). In diesem Fall ist die Objektivität der Ergebnisse fast immer höher, aber der unmittelbare Lebensbezug und die Spontaneität der Meinungswiedergabe reduziert. Ein wesentlicher Vorteil des geschlossenen Antwortmodus in Fragebögen ist allerdings auch seine bessere Verwertbarkeit für statistische Analysen, sodass sich in den letzten Jahrzehnten diese Form in vielen Bereichen der Sozialforschung durchgesetzt hat.

3.7.7 |Textanalyse

In keiner Wissenschaft kann auf die Bedeutungsanalyse sprachlicher Aussagen verzichtet werden. Besonders trifft dies auf die Psychologie zu, wenn es um die Beschreibung spontaner Beobachtungen geht, wenn Schilderungen von Erlebnissen ausgewertet werden sollen, wenn schriftliches Material über Nachrichten oder Gespräche vorliegt (Mitschriften, Protokolle, Tagebücher, Archive, Zeitungsberichte etc.) oder wenn zur Diagnose von Störungen Anamnesen angefertigt werden.

Merksatz

Textanalysen bezwecken eine abstrakte und komprimierte Beschreibung des Aussagegehalts alltagssprachlicher Texte.

Daten dieser Art können – wie aus der Kommunikationsforschung bekannt ist – sehr unterschiedlich interpretiert werden, sodass für die Bedeutungsanalyse unstrukturierter Texte Auswertungsmethoden entwickelt wurden, die auch die oben genannten Gütekriterien der Datengewinnung erfüllen sollten. Diesem Anspruch entsprechen insbesondere die qualitative - und die quantitative Inhaltsanalyse, mittels derer der Bedeutungsgehalt von umfangreichen Textteilen in Form von prägnanten Aussagen („Propositionen“) zusammengefasst oder aber eine Auszählung der am häufigsten vorkommenden Begriffe und Begriffs kombinationen in den Textdaten vorgenommen werden kann. Diese quantitative Inhaltsanalyse wurde bereits in den Dreißigerjahren zur Analyse von Massenmedien verwendet, etwa um die politische Orientierung in einem Land durch die Frequenz positiver oder negativer Charakterisierungen von Themen in Tageszeitungen zu belegen.

Für die Inhaltsanalyse von gespeicherten Texten stehen Computerprogramme zur Verfügung, die z. T. kostenlos als Demoversionen aus dem Internet zu beziehen sind (z.B. www.atlasti.de, www.winmax.de).

Die qualitative Inhaltsanalyse (s. Mayring, 2000) knüpft an diesen Ansatz an und versucht durch Einführung verbindlicher methodischer Regeln bei der Textanalyse deren Objektivität, Reliabilität und Validität zu verbessern. Dabei wird der Aussagegehalt von Sätzen oder Absätzen eines Textes mit Begriffen versehen, die entweder schrittweise aus dem Textmaterial herausentwickelt („induktive Kategorienentwicklung“) oder aufgrund theoretischer Überlegungen und Auswertungsinteressen sukzessive an die Textinhalte angepasst werden („deduktive Kategorienanwendung“). Das Ergebnis solcher Analysen ist eine oberbegriffliche, abstrakte Darstellung des Aussagegehalts von Textmengen durch Begriffe, Begriffskombinationen oder einfache Aussagen („Propositionen“), welche bei Bedarf auch noch einer statistischen Auswertung (z.B. einer Häufigkeitsauszählung mit Computer) unterzogen werden können.

Simulationsstudie (Computersimulationen)| 3.7.8

Ein moderner wissenschaftlicher Ansatz für die Analyse komplexer Systeme ist die Systemtheorie (Bossel, 1992; Bischof, 2016), „eine interdisziplinäre Wissenschaft, deren Gegenstand die formale Beschreibung und Erklärung der strukturellen und funktionalen Eigenschaften von natürlichen, sozialen oder technischen Systemen ist“ (Bibliogr. Institut & Brockhaus, 2002). Ihr theoretisches Gerüst wurde bereits in verschiedenen Bereichen erfolgreich erprobt und angewendet (z.B. in Politik, Biologie, Ökonomie, Technik, Verkehrsplanung, Flugverkehrsleitung, Epidemiologie). Auf der Grundlage systemanalytisch konstruierter Modelle wurden Computersimulationen auch für komplexe Anwendungsbereiche erstellt, etwa: „Waldwachstum“, „Mondlandung“, „Ressourcennutzung“, „Tourismus und Umwelt“, „Lagerhaltung“, ökologische Simulationsspiele wie „Ökolopoly“, „Ökopolicy“ (Vester, 1997), Entwicklungsmodelle für Länder (Bossel, Hornung & Müller-Reißmann, 1989) oder „Weltmodelle“ (Meadows, Meadows & Randers, 1992).

Frühe Simulationsmodelle der Psychologie stammten aus dem Forschungsgebiet Denken und Problemlösen (Kap. 8) und dienten dazu, komplexe Problemsituationen des Alltags auch in Laborsituationen zu untersuchen. Putz-Osterloh und Lüer (1981) entwickelten eine Computersimulation eines Schneiderladens („Taylorshop“), anhand derer Versuchspersonen über die betriebswirtschaftliche Situation einer fiktiven Firma informiert wurden und in verschiedenen Durchgängen nach eigenem Ermessen betriebliche Maßnahmen setzen konnten. Ein wesentlich komplexeres Beispiel ist ein programmiertes Bürgermeisterspiel, in dem eine fiktive Kleinstadt namens „Lohhausen“ von Versuchspersonen mit weitgehenden (diktatorischen) Vollmachten nach gewissen Zielkriterien (z.B. Wirtschaftsdaten, Bevölkerungszufriedenheit, Umweltsituation) zu regieren war (s. 8.2). Ein jüngeres Projekt des „Institutes für theoretische Psychologie“ der Universität Bamberg ist „PSI“, eine Computersimulation einer „beseelten Dampfmaschine“, die „ihr schweres Leben“ auf einer Insel in einer „labyrinthartigen Landschaft“ nach menschlicher Logik fristet (Dörner & Schaub, 2006).

Die Übersetzung einer Theorie in ein Computerprogramm bedeutet eine präzise Prüfung der Widerspruchsfreiheit, Vollständigkeit und Nachvollziehbarkeit ihrer Annahmen (Box 3.5). Die simulierten Entscheidungen eines Computermodells menschlicher Informationsverarbeitung können mit jenen von Versuchspersonen in gleichen Situationen verglichen werden, um die zugrunde liegende Theorie zu verbessern (Dörner & Gerdes, 2003).

Merksatz

Simulationsstudien in der Psychologie bezwecken eine formale, systemanalytische und kybernetische Beschreibung von Mensch- und Umweltsystemen.

Computerprogramme und Simulationsmodelle, die für kognitionspsychologische Forschungszwecke eingesetzt werden, sind über das Internet kostenlos zu beziehen (z.B. ACT-R: „Adaptive Control of Thought“; COGENT: „Cognitive Objects within a Graphical EnviroNmenT“; SOAR: „States Operators And Results“; PSI: eine psychologische Theorie als Computerprogramm). Das allgemeine Ziel solcher Programme und Konzepte darf darin gesehen werden, für kognitive und mentale Prozesse eine vereinheitlichende psychologische Theorie zu entwickeln.

Entwicklungsschritte für Simulationsmodelle | Box 3.5

Bei der Entwicklung eines Simulationsmodells für ein empirisches System gelten im Wesentlichen folgende Schritte:

1. Das System im Detail verbal beschreiben („Wortmodell“)

2. Für das System die Systemgrenzen bestimmen (zur Umwelt oder anderen Systemen)

3. Wichtige Untersysteme (Module) und ihre Wirkungsbeziehungen identifizieren

4. Die Wirkungsdynamik des Modells spezifizieren (Systemelemente und Beziehungen zwischen den Elementen und Variablen des Systems festlegen, Zustandsgrößen definieren, Rückkoppelungen erfassen, exogene Einflüsse bestimmen etc.)

5. Die Systemstruktur und die Systemdynamik in ein formales Modell übertragen (Erstellung des Computerprogramms)

6. Strukturgültigkeit des Modells überprüfen (z.B. den Grad der Übereinstimmung seiner Elemente und Elementrelationen mit jenen des empirischen Systems)

7. Verhaltensgültigkeit prüfen (die Modelldynamik soll robust sein und plausible Verläufe bei den Outputvariablen zeigen)

8. Empirische Modellgültigkeit testen (Zeitreihen des Modells werden mit solchen des abgebildeten Systems verglichen, Eingaben von bekannten, realistischen Szenarien müssen erwartete Ergebnisse liefern)

(In Anlehnung an Bossel, 1992)

3.8 |Forschungsablauf

Hinsichtlich der Entwicklung eines Forschungsprojekts werden grob drei Phasen unterschieden (Friedrichs, 1990; Atteslander, 2003):

(1) Die Phase des „Entdeckungszusammenhangs“ kennzeichnet, in welcher Weise der Zugang zur Thematik gefunden wurde und welche Gründe für das Aufgreifen der Fragestellung maßgeblich waren.

(2) In der Phase des „Begründungszusammenhanges“ sollen die in der Fragestellung angesprochenen Gesetzmäßigkeiten einer empirischen Untermauerung zugeführt werden. Dabei geht man von bereits bewährten psychologischen Theorien - und Gesetzmäßigkeiten aus, um für die Fragestellung ein solides theoretisches Konzept zu entwerfen, welches widerspruchsfrei (konsistent), empirisch prüfbar (verifizierbar- oder falsifizierbar) und sparsam in der Erklärung (effizient) zu sein hat. Aufgrund fachwissenschaftlicher Erfahrungswerte über die Zweckentsprechung spezieller wissenschaftlicher Forschungsansätze und Forschungsmethoden wird sodann für die Fragestellung ein Forschungsdesign entworfen, welches die Hypothesenformulierung, die Wahl der Untersuchungsmethode, die Ausarbeitung der Operationalisierungen - und die Stichprobenselektion inkludiert. Nachdem das Forschungsdesign in Voruntersuchungen auf seine Eignung getestet wurde, kommt es zur Durchführung der Untersuchung und zur (meist statistischen) Auswertung der gewonnenen Daten, wobei insbesondere auf Verteilung - und Skalenqualität der Variablen zu achten ist. Nach der Interpretation der Auswertungsergebnisse sowie nach deren theoriebezogener Diskussion (z.B. über Widersprüche zu Annahmen, Verallgemeinerbarkeit der Ergebnisse, Gefahr von Artefakten) werden die wichtigsten Schlussfolgerungen aus der Untersuchung in theoretisch-abstrakter Form zusammengefasst.

(3) Die Phase des „Verwertungs- oder Wirkungszusammenhangs“ schließlich bezieht sich auf die verschiedenartigen Nutzungsmöglichkeiten der Forschungsergebnisse, wie etwa auf deren Beitrag zur Verbesserung theoretischer Positionen, deren Verbreitung über Publikationen und Vorträge sowie deren Umsetzung im gesellschaftlichen Bereich.

| Abb 3.11


Der Forschungsablauf empirischer Untersuchungen lässt sich in verschiedene Stadien gliedern: Den Ausgangspunkt liefert die Fragestellung, die theoretisch oder praktisch begründet sein kann. Für die ausgewählte Thematik wird der bisherige wissenschaftliche Erkenntnisstand festgestellt und eine theoretische Basis in Form relevanter psychologischer Gesetze oder Theorien gesucht. Danach wird ein Forschungsdesign entworfen (dunkles Feld), indem für die theoretisch untermauerte Fragestellung empirisch überprüfbare Hypothesen, eine geeignete Untersuchungsform, konzeptspezifische Operationalisierungen, eine sinnvolle Fallstichprobe sowie eine datenadäquate Datenauswertungsmethode gefunden werden. In einem Vortest wird das Forschungsdesign auf Tauglichkeit überprüft und danach zumeist einer Revision unterzogen. Nun erst erfolgen die Durchführung der Untersuchung, die Datensammlung, die Datenauswertung, die Diskussion und die Interpretation der Ergebnisse. Den Abschluss bildet die zusammenfassende Präsentation der Forschungsresultate in einer prägnanten und theoriebezogenen Form.

Was die wissenschaftliche Qualität von Veröffentlichungen betrifft, so ergeben sich die Kriterien dafür zunächst aus den bisher beschriebenen formalen und inhaltlichen Anforderungen des Forschungsablaufs. In den letzten Jahrzehnten orientiert man sich bei der Bewertung von Publikationen – wie übrigens in den Naturwissenschaften auch – am fachlichen Image des Publikationsorgans. Besonders hoch bewertet werden dabei solche Zeitschriften, deren Artikel in der Fachwelt (scientific community) stark beachtet, d.h. häufig zitiert werden. Diese Betonung des Wahrheitskriteriums Konsensus drückt sich im sogenannten Impact Factor einer Zeitschrift aus. Dieser gibt an, wie oft die Artikel einer bestimmten Zeitschrift der letzten beiden Jahrgänge im nachfolgenden Jahr in anderen Zeitschriften zitiert werden. Für eine solche statistische Analyse bedient man sich spezifischer Datenbanken, in denen nicht nur die Titel und die Autorenschaften von periodischen Veröffentlichungen gespeichert sind, sondern auch die in ihnen vorkommenden Verweise auf andere Publikationen („Social Sciences Citation Index“ – SCI; „Science Citation Index“ – SSI; „Web of Science“). Wenn Veröffentlichungen in Zeitschriften mit hohem Impact Factor erscheinen, haben sie eine größere Chance, zitiert zu werden und bei wissenschaftlichen Leistungsbeurteilungen zu punkten. Jene psychologischen Zeitschriften mit dem höchsten Impact Factor sind „Annual Review of Psychology“, „Psychological Bulletin“, „Psychological Methods“.

Zusammenfassung

Die wissenschaftliche Beschreibung und Erklärung menschlicher Erlebnisse, Bewusstseinsabläufe und Verhaltensweisen kann ganz allgemein als Versuch der Abbildung eines empirischen, konkreten Systems in ein theoretisches, abstraktes System verstanden werden. Die Überbrückungsfunktion leistet ein Korrespondenzsystem (Forschungsmethoden), mittels dessen ein Bezug zwischen den empirischen Tatsachen und den sie erklärenden psychologischen Gesetzen und Theorien hergestellt wird.

Ebenso wie in anderen empirischen Wissenschaften werden auch in der Psychologie Gesetzmäßigkeiten vorerst an Stichproben gewonnen und überprüft, um sie danach für die Grundgesamtheit von Sachverhalten (Population) verallgemeinern zu können. Gesetze werden statistisch als Relationen zwischen unabhängigen und abhängigen Variabeln formuliert, wobei diese Relationen oft durch Moderatorvariablen beeinflusst und durch Störvariablen verfälscht sind. Die vielfältigen Vernetzungen von Wirkungsbeziehungen im psychologischen Forschungsbereich können durch direkte oder durch indirekte Kausalbeziehungen erklärt werden, die beobachteten Effekte lassen sich zumeist auf mehrere Ursachen (Multikausalität) und/oder auf bedingt wirksame Ursachen zurückführen. Aufgrund der vielfältigen Effekt- und Fehlerüberlagerungen hat man es in der Regel mit multivariaten Wahrscheinlichkeitsgesetzen zu tun.

Die Deskriptivstatistik liefert statistische Kennwerte für die Verteilung von Variablenausprägungen und transformiert Variablen – zur besseren Vergleichbarkeit – in Standardvariablen mit gleichem Mittelwert und gleicher Streuung. Die statistischen Relationen zwischen Variablen können, in Abhängigkeit von ihrer quantitativen Interpretierbarkeit, mithilfe von Vektoren als grafische Darstellungen von Korrelationsbeziehungen charakterisiert werden. Bei Bedarf lassen sich komplexe Variablensysteme, etwa mittels Faktorenanalyse, auch in einfachere Strukturen überführen.

Um festzustellen, ob die anhand einer Stichprobe gewonnenen Variablenrelationen als Gesetze verallgemeinert werden können, benötigt man die Inferenzstatistik, welche unter Heranziehung von Wahrscheinlichkeits- oder Zufallsmodellen die statistische Signifikanz (Bedeutsamkeit) von Untersuchungsergebnissen feststellt. Die Inferenzstatistik wird also dafür eingesetzt, den Grad der allgemeinen Gültigkeit von Hypothesen anhand von Stichproben zu prüfen.

Die wichtigsten Forschungsmethoden sind das Experiment, das Quasiexperiment, die Feldforschung, Testverfahren, Ratings, die Beobachtung, die Befragung, die Textanalyse und die Computersimulation. Allen Datenerhebungsinstrumenten der Psychologie ist gemeinsam, dass sie wissenschaftlichen Gütekriterien genügen müssen (Objektivität, Reliabilität, Validität usw.).

Ein typisches Forschungsprojekt beginnt mit einer Fragestellung, für die thematisch angrenzende Theorien und Erklärungsansätze aus der Fachliteratur zu recherchieren sind. Für die Fragestellung wird jenes Forschungsdesign ausgewählt, das am ehesten eine empirische Evaluation der Fragestellung erlaubt. Vor- und Hauptuntersuchungen werden durchgeführt, die Daten statistisch ausgewertet, die Ergebnisse interpretiert, analysiert, diskutiert und schließlich in ihrer theoretischen und praktischen Bedeutung zusammenfassend dargestellt.

Fragen

1. Welche allgemeinen Kriterien für Wissenschaftlichkeit werden von Wissenschaftstheoretikerinnen und -theoretikern vorgeschlagen?

2. Welche Schritte und Konzepte kennzeichnen in der empirischen Sozialforschung die wissenschaftliche „Abbildung“ von Empirie in einer Theorie?

3. Was versteht man unter Konstrukten und unter Operationalisierungen?

4. Erklären Sie die Funktion von Stichproben in der Forschung und das Problem ihrer Repräsentativität!

5. Welche wichtigen Variablentypen gibt es in den empirischen Sozialwissenschaften?

6. Schildern Sie verschiedene Arten von Kausalbeziehungen und die INUS-Analyse!

7. Weshalb können die meisten psychologischen Gesetze nur wahrscheinlichkeitstheoretisch beschrieben werden?

8. Welche Schlüsse können aus dem Skalenniveau von Variablen gezogen werden?

9. Welche Bedeutung haben statistische Kennwerte von Variablen und Standardvariablen?

10. Wie lassen sich Variablen räumlich darstellen?

11. Erklären Sie die Korrelation als statistisches Zusammenhangsmaß und ihre Nutzanwendungen!

12. Worauf zielen inferenzstatistische Verfahren ab?

13. Erläutern Sie wichtige Forschungsmethoden der Psychologie!

14. Was versteht man unter Randomisierung?

15. Welche drei Hauptgütekriterien sollten allgemein in Datenerhebungsverfahren der Psychologie beachtet werden?

16. Was ist ein psychologischer Test und welchen Anforderungen sollte er genügen?

17. Welche wissenschaftlichen Ziele werden in der Psychologie mit Computersimulationen verfolgt?

18. Welche wichtigen Stadien weist der empiriewissenschaftliche Forschungsablauf auf?

Literatur

Bischof, N. (2014). Psychologie – Ein Grundkurs für Anspruchsvolle. Stuttgart.

Bischof, N. (2016). Struktur und Bedeutung. Göttingen

Bortz, J. & Döring, N. (2016). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Berlin

Bühner, M. (2011). Einführung in die Test- und Fragebogenkonstruktion. München

Erdfelder, E., Mausfeld, R., Meiser, T. & Rudinger, G. (1996). Handbuch Quantitative Methoden. Weinheim

Flick, U., Kardorff, E., Keupp, H., Rosenstiel, L. & Wolff, S. (Ed.) (1995). Handbuch qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen. München

Holling, H. & Schmitz, B. (Hrsg.) (2010). Handbuch Statistik, Methoden und Evaluation. Göttingen.

Kubinger, K. D. & Jäger, R. S. (Ed.) (2003). Schlüsselbegriffe der Psychologischen Diagnostik. Weinheim

Lamnek, S. (1995). Qualitative Sozialforschung. Bd. 1: Methodologie. Weinheim Maderthaner, R. (in Vorbereitung). Relationsanalyse (RELAN) – Systematik und Programm zur logischen und statistischen Analyse von Hypothesen und Daten in statistisch-empirischen Wissenschaften.

Rost, D. H. (2005). Interpretation und Bewertung pädagogisch-psychologischer Studien. Weinheim

Schnell, R., Hill, P.B. & Esser, E. (2005). Methoden der empirischen Sozialforschung. München

Steyer, R. (2003). Wahrscheinlichkeit und Regression. Berlin

Westermann, R. (2000). Wissenschaftstheorie und Experimentalmethodik. Göttingen

Psychologie

Подняться наверх