Experimentelle Theorie, experimentelle Planung. Entstehungsgeschichte der experimentellen Planung Grundkonzepte und Definitionen

heim / Kleinbetrieb

1 Designs für eine unabhängige Variable

Das Design einer „echten“ experimentellen Studie unterscheidet sich in folgenden wichtigen Punkten von anderen:

1) Verwendung einer der Strategien zur Bildung gleichwertiger Gruppen, am häufigsten Randomisierung;

2) die Anwesenheit einer Versuchsgruppe und mindestens einer Kontrollgruppe;

3) Abschluss des Experiments durch Testen und Vergleichen des Verhaltens der Gruppe, die die experimentelle Intervention (X1) erhalten hat, mit der Gruppe, die die Intervention X0 nicht erhalten hat.

Die klassische Variante des Plans ist der Plan für 2 unabhängige Gruppen. In der Psychologie begann man in den ersten Jahrzehnten des 20. Jahrhunderts mit der experimentellen Planung zu beginnen.

Es gibt drei Hauptversionen dieses Plans. Bei der Beschreibung verwenden wir die von Campbell vorgeschlagene Symbolisierung.

Tabelle 5.1

Hier ist R die Randomisierung, X die Exposition, O1 testet die erste Gruppe, O2 testet die zweite Gruppe.

1) Zwei randomisierte Gruppendesigns mit Tests nach der Exposition. Sein Autor ist der berühmte Biologe und Statistiker R. A. Fisher. Die Struktur des Plans ist in der Tabelle dargestellt. 5.1.

Die Gleichheit zwischen Versuchs- und Kontrollgruppe ist eine unbedingt notwendige Voraussetzung für die Anwendung dieses Designs. Um Gruppenäquivalenz zu erreichen, wird am häufigsten das Randomisierungsverfahren verwendet (siehe Kapitel 4). Dieser Plan wird für den Einsatz empfohlen, wenn es nicht möglich oder notwendig ist, Vortests an Probanden durchzuführen. Wenn die Randomisierung gut durchgeführt wird, ist dieses Design das beste und ermöglicht Ihnen die Kontrolle der meisten Artefaktquellen. Darüber hinaus sind darauf verschiedene Varianten der Varianzanalyse anwendbar.

Nach der Randomisierung oder einem anderen Verfahren zur Gruppengleichstellung erfolgt eine experimentelle Intervention. In der einfachsten Variante werden nur zwei Abstufungen der unabhängigen Variablen verwendet: Es gibt eine Auswirkung, es gibt keine Auswirkung.

Wenn es erforderlich ist, mehr als eine Expositionsstufe zu verwenden, werden Pläne mit mehreren Versuchsgruppen (entsprechend der Anzahl der Expositionsstufen) und einer Kontrollgruppe verwendet.

Wenn es notwendig ist, den Einfluss einer der zusätzlichen Variablen zu kontrollieren, wird ein Design mit 2 Kontrollgruppen und 1 Versuchsgruppe verwendet. Die Messung des Verhaltens liefert Material für den Vergleich der beiden Gruppen. Die Datenverarbeitung wird auf die Verwendung traditioneller Schätzungen für die mathematische Statistik reduziert. Betrachten wir den Fall, dass die Messung anhand einer Intervallskala durchgeführt wird. Der Student-T-Test wird verwendet, um Unterschiede in den Gruppenmitteln zu bewerten. Unterschiede in der Variation des gemessenen Parameters zwischen Experimental- und Kontrollgruppe werden anhand des F-Kriteriums bewertet. Die entsprechenden Verfahren werden in Lehrbüchern der mathematischen Statistik für Psychologen ausführlich besprochen.


Die Verwendung eines 2-randomisierten Gruppendesigns mit Tests nach der Exposition ermöglicht die Kontrolle der Hauptquellen der internen Validität (wie von Campbell definiert). Da es keine Vorprüfung gibt, ist der Wechselwirkungseffekt des Testverfahrens und des Inhalts der experimentellen Intervention sowie der Testeffekt selbst ausgeschlossen. Mit dem Plan können Sie den Einfluss der Gruppenzusammensetzung, des spontanen Abbruchs, des Einflusses des Hintergrunds und der natürlichen Entwicklung sowie der Wechselwirkung der Gruppenzusammensetzung mit anderen Faktoren kontrollieren und außerdem den Regressionseffekt aufgrund der Randomisierung und des Vergleichs von Daten eliminieren Experimental- und Kontrollgruppen. Bei der Durchführung der meisten pädagogischen und sozialpsychologischen Experimente ist es jedoch notwendig, das Ausgangsniveau der abhängigen Variablen streng zu kontrollieren, sei es Intelligenz, Angst, Wissen oder der Status eines Individuums in einer Gruppe. Die Randomisierung ist das bestmögliche Verfahren, bietet jedoch keine absolute Garantie für die richtige Wahl. Wenn Zweifel an den Ergebnissen der Randomisierung bestehen, wird ein Vortestdesign verwendet.

Tabelle 5.2

2) Design für zwei randomisierte Gruppen mit Vortest und Nachtest. Betrachten wir die Struktur dieses Plans (Tabelle 5.2).

Das Pretest-Design ist bei Psychologen beliebt. Biologen haben mehr Vertrauen in das Randomisierungsverfahren. Der Psychologe weiß sehr gut, dass jeder Mensch einzigartig und anders ist als andere und versucht unbewusst, diese Unterschiede mithilfe von Tests zu erfassen, ohne auf das mechanische Randomisierungsverfahren zu vertrauen. Die Hypothese der meisten psychologischen Forschungen, insbesondere im Bereich der Entwicklungspsychologie („formatives Experiment“), beinhaltet jedoch die Vorhersage einer bestimmten Veränderung des Eigentums eines Individuums unter dem Einfluss eines externen Faktors. Daher sind Test-Exposition-Retest-Designs mit Randomisierung und einer Kontrollgruppe sehr verbreitet.

In Ermangelung eines Gruppen-Matching-Verfahrens wird dieser Entwurf zu einem quasi-experimentellen Entwurf (siehe Abschnitt 5.2).

Die Hauptquelle für Artefakte, die die externe Validität eines Verfahrens untergraben, ist die Wechselwirkung zwischen Tests und experimentellen Effekten. Beispielsweise kann die Prüfung des Wissensstandes zu einem bestimmten Thema vor der Durchführung eines Experiments zum Auswendiglernen von Material zu einer Aktualisierung des Ausgangswissens und zu einer allgemeinen Steigerung der Produktivität beim Auswendiglernen führen. Dies wird durch die Aktualisierung der mnemonischen Fähigkeiten und die Schaffung einer Denkweise zum Auswendiglernen erreicht.

Mit Hilfe dieses Plans können jedoch auch andere externe Variablen kontrolliert werden. Der Faktor „Vorgeschichte“ („Hintergrund“) wird kontrolliert, da in der Zeitspanne zwischen der ersten und zweiten Testung beide Gruppen den gleichen („Hintergrund“)-Einflüssen ausgesetzt sind. Campbell weist jedoch auf die Notwendigkeit hin, „Gruppeninterne Ereignisse“ zu kontrollieren, sowie auf die Auswirkungen nicht gleichzeitiger Tests in beiden Gruppen. In der Realität kann bei ihnen nicht sichergestellt werden, dass die Prüfung und die Wiederholungsprüfung gleichzeitig durchgeführt werden. Der Entwurf wird quasi-experimentell, zum Beispiel:

Typischerweise werden nicht-simultane Tests dadurch gesteuert, dass zwei Experimentatoren zwei Gruppen gleichzeitig testen. Das optimale Verfahren besteht darin, die Testreihenfolge zu randomisieren: Die Tests der Mitglieder der Versuchs- und Kontrollgruppe werden in zufälliger Reihenfolge durchgeführt. Das Gleiche gilt für die Präsentation oder Nichtpräsentation experimentellen Einflusses. Natürlich erfordert ein solches Verfahren eine erhebliche Anzahl von Probanden in den Versuchs- und Kontrollproben (jeweils mindestens 30-35 Personen).

Naturverlaufs- und Testeffekte werden kontrolliert, indem sichergestellt wird, dass sie in der Versuchs- und Kontrollgruppe gleichermaßen auftreten, und Gruppenzusammensetzung und Regressionseffekte [Campbell, 1980] werden durch das Randomisierungsverfahren kontrolliert.

Die Ergebnisse der Anwendung des Test-Exposition-Retest-Plans sind in der Tabelle dargestellt.

Bei der Verarbeitung von Daten werden üblicherweise parametrische Tests t und F (für Daten auf einer Intervallskala) verwendet. Es werden drei t-Werte berechnet: Vergleich 1) O1 und O2; 2) O3 und O4; 3) O2 und O4. Die Hypothese über den signifikanten Einfluss der unabhängigen Variablen auf die abhängige Variable kann akzeptiert werden, wenn zwei Bedingungen erfüllt sind: a) die Unterschiede zwischen O1 und O2 sind signifikant und zwischen O3 und O4 sind unbedeutend und b) die Unterschiede zwischen O2 und O4 sind von Bedeutung. Es ist viel bequemer, nicht absolute Werte zu vergleichen, sondern das Ausmaß des Anstiegs der Indikatoren vom ersten zum zweiten Test (δ(i)). δ(i12) und δ(i34) werden mithilfe des Student-t-Tests berechnet und verglichen. Bei signifikanten Unterschieden wird die experimentelle Hypothese über den Einfluss der unabhängigen Variablen auf die abhängige Variable akzeptiert (Tabelle 5.3).

Es wird auch empfohlen, die Kovarianzanalyse nach Fisher zu verwenden. In diesem Fall werden die Vortestindikatoren als zusätzliche Variable herangezogen und die Probanden in Abhängigkeit von den Vortestindikatoren in Untergruppen eingeteilt. Daraus ergibt sich die folgende Tabelle für die Datenverarbeitung mit der MANOVA-Methode (Tabelle 5.4).

Durch die Verwendung eines „Test-Exposition-Retest“-Designs können Sie den Einfluss von „Neben“-Variablen kontrollieren, die die interne Validität des Experiments verletzen.

Unter externer Validität versteht man die Übertragbarkeit von Daten auf eine reale Situation. Der Hauptpunkt, der die experimentelle Situation von der realen unterscheidet, ist die Einführung von Vorversuchen. Wie wir bereits festgestellt haben, erlaubt uns das „Test-Exposition-Retest“-Design nicht, die Wirkung des Zusammenspiels von Test und experimentellem Einfluss zu kontrollieren: Das zuvor getestete Subjekt „sensibilisiert“ – wird empfindlicher für den Einfluss, da im In einem Experiment messen wir genau die abhängige Variable, deren Einfluss wir messen wollen, indem wir die unabhängige Variable variieren.

Tabelle 5.5

Um die externe Gültigkeit zu kontrollieren, wird der Plan von R.L. Solomon verwendet, den er 1949 vorgeschlagen hat.

3) Der Solomon-Plan wird verwendet, wenn ein Experiment mit vier Gruppen durchgeführt wird:

1. Experiment 1: R O1 X O2

2. Kontrolle 1: R O3 O4

3. Experiment 2: R X O5

4. Kontrolle 2: R O6

Das Design umfasst eine Studie mit zwei Versuchs- und zwei Kontrollgruppen und ist im Wesentlichen mehrgruppenorientiert (2 x 2-Typ), wird aber zur einfacheren Darstellung in diesem Abschnitt besprochen.

Solomons Design ist eine Kombination aus zwei zuvor besprochenen Designs: das erste, bei dem kein Vortest durchgeführt wird, und das zweite, Test-Exposition-Retest. Durch die Verwendung des „ersten Teils“ des Designs kann der Interaktionseffekt des ersten Tests und der experimentellen Behandlung gesteuert werden. Solomon enthüllt anhand seines Plans die Wirkung experimenteller Exposition auf vier verschiedene Arten: durch Vergleich von 1) O2 - O1; 2) O2 - O4; 3) O5 – O6 und 4) O5 – O3.

Wenn wir O6 mit O1 und O3 vergleichen, können wir den gemeinsamen Einfluss der Effekte der natürlichen Entwicklung und der „Geschichte“ (Hintergrundeinflüsse) auf die abhängige Variable erkennen.

Campbell kritisiert die von Solomon vorgeschlagenen Datenverarbeitungsschemata und schlägt vor, den vorläufigen Tests keine Beachtung zu schenken und die Daten auf ein 2 x 2-Schema zu reduzieren, das für die Anwendung der Varianzanalyse geeignet ist (Tabelle 5.5).

Der Vergleich der Spaltenmittelwerte ermöglicht es, den Effekt des experimentellen Einflusses zu identifizieren – den Einfluss der unabhängigen Variablen auf die abhängige Variable. Zeile bedeutet, dass der Vortesteffekt angezeigt wird. Der Vergleich der Zellmittelwerte charakterisiert die Wechselwirkung zwischen Testeffekt und experimentellem Effekt, was das Ausmaß der Verletzung der externen Validität anzeigt.

Für den Fall, dass die Auswirkungen von Vortests und Interaktionen vernachlässigt werden können, fahren Sie mit dem Vergleich von O4 und O2 mithilfe der Methode der Kovarianzanalyse fort. Als zusätzliche Variable werden Daten aus Voruntersuchungen nach dem Schema des „Test-Exposition-Retest“-Plans herangezogen.

Schließlich ist es in manchen Fällen notwendig, die Beständigkeit der Wirkung der unabhängigen Variablen auf die abhängige Variable über die Zeit zu überprüfen: um beispielsweise herauszufinden, ob eine neue Lehrmethode zu einer langfristigen Speicherung des Stoffes führt. Für diese Zwecke , wird folgender Plan verwendet:

1 Experiment 1 R O1 X O2

2 Steuerung 1 R O3 O4

3 Experiment 2 R O5 X O6

4 Steuerung 2 R O7 O8

2. Designs für eine unabhängige Variable und mehrere Gruppen

Manchmal reicht der Vergleich zweier Gruppen nicht aus, um eine experimentelle Hypothese zu bestätigen oder zu widerlegen. Dieses Problem tritt in zwei Fällen auf: a) wenn es notwendig ist, externe Variablen zu steuern; b) wenn es notwendig ist, quantitative Beziehungen zwischen zwei Variablen zu identifizieren.

Zur Steuerung externer Variablen werden verschiedene Versionen des faktoriellen Versuchsplans verwendet. Was die Identifizierung einer quantitativen Beziehung zwischen zwei Variablen betrifft, so besteht die Notwendigkeit, diese festzustellen, wenn eine „exakte“ experimentelle Hypothese getestet wird. In einem Experiment mit zwei Gruppen lässt sich bestenfalls ein kausaler Zusammenhang zwischen den unabhängigen und abhängigen Variablen nachweisen. Aber zwischen zwei Punkten kann man unendlich viele Kurven zeichnen. Um sicherzustellen, dass zwischen zwei Variablen eine lineare Beziehung besteht, müssen mindestens drei Punkte vorhanden sein, die den drei Ebenen der unabhängigen Variablen entsprechen. Daher muss der Experimentator mehrere randomisierte Gruppen auswählen und sie verschiedenen experimentellen Bedingungen aussetzen. Die einfachste Möglichkeit ist ein Design für drei Gruppen und drei Ebenen der unabhängigen Variablen:

Experiment 1: R X1 O1

Experiment 2: R X2 O2

Kontrolle: R O3

Die Kontrollgruppe ist in diesem Fall die dritte Versuchsgruppe, für die das Niveau der Variablen X = 0 ist.

In diesem Design wird jeder Gruppe nur eine Ebene der unabhängigen Variablen präsentiert. Es ist auch möglich, die Anzahl der Versuchsgruppen entsprechend der Anzahl der Stufen der unabhängigen Variablen zu erhöhen. Zur Verarbeitung der mithilfe eines solchen Plans gewonnenen Daten werden dieselben statistischen Methoden wie oben aufgeführt verwendet.

Einfache „systemexperimentelle Designs“ werden in der modernen experimentellen Forschung überraschenderweise nur sehr selten verwendet. Vielleicht ist es Forschern „peinlich“, einfache Hypothesen aufzustellen, wenn sie sich an die „Komplexität und Multidimensionalität“ der mentalen Realität erinnern? Die Tendenz, Designs mit vielen unabhängigen Variablen zu verwenden, ja sogar multivariate Experimente durchzuführen, trägt nicht unbedingt zu einer besseren Erklärung der Ursachen menschlichen Verhaltens bei. Wie Sie wissen, „verblüfft ein kluger Mensch mit der Tiefe seiner Idee und ein Narr mit der Tragweite seiner Konstruktion.“ Es ist besser, eine einfache Erklärung einer komplexen Erklärung vorzuziehen, obwohl Regressionsgleichungen, bei denen alles gleich alles ist, und komplizierte Korrelationsdiagramme einige Dissertationskomitees beeindrucken können.

3 Faktorielle Designs

Faktorielle Experimente werden verwendet, wenn es darum geht, komplexe Hypothesen über die Beziehungen zwischen Variablen zu testen. Die allgemeine Form einer solchen Hypothese lautet: „Wenn A1, A2,..., An, dann B.“ Solche Hypothesen werden komplex, kombiniert usw. genannt. In diesem Fall können verschiedene Beziehungen zwischen unabhängigen Variablen bestehen: Konjunktion, Disjunktion, lineare Unabhängigkeit, additiv oder multiplikativ usw. Faktorielle Experimente sind ein Sonderfall der multivariaten Forschung, bei der sie versuchen Beziehungen zwischen mehreren unabhängigen und mehreren abhängigen Variablen herzustellen. In einem faktoriellen Experiment werden in der Regel zwei Arten von Hypothesen gleichzeitig getestet:

1) Hypothesen über den separaten Einfluss jeder der unabhängigen Variablen;

2) Hypothesen über die Interaktion von Variablen, nämlich wie sich das Vorhandensein einer der unabhängigen Variablen auf die Wirkung auf die andere auswirkt.

Ein faktorielles Experiment basiert auf einem faktoriellen Design. Beim faktoriellen Design eines Experiments werden alle Ebenen unabhängiger Variablen miteinander kombiniert. Die Anzahl der Versuchsgruppen ist gleich der Anzahl der Stufenkombinationen aller unabhängigen Variablen.

Heutzutage sind faktorielle Designs in der Psychologie am weitesten verbreitet, da einfache Beziehungen zwischen zwei Variablen darin praktisch nicht vorkommen.

Es gibt viele Möglichkeiten für faktorielle Designs, aber nicht alle werden in der Praxis verwendet. Die am häufigsten verwendeten faktoriellen Designs sind für zwei unabhängige Variablen und zwei Ebenen vom Typ 2x2. Bei der Planerstellung kommt das Abwägungsprinzip zur Anwendung. Ein 2x2-Design wird verwendet, um die Wirkung zweier unabhängiger Variablen auf eine abhängige Variable zu identifizieren. Der Experimentator manipuliert mögliche Kombinationen von Variablen und Ebenen. Die Daten werden in einer einfachen Tabelle dargestellt (Tabelle 5.6).

Weniger häufig werden vier unabhängige randomisierte Gruppen verwendet. Zur Verarbeitung der Ergebnisse wird die Varianzanalyse nach Fisher verwendet.

Andere Versionen des faktoriellen Designs, nämlich 3x2 oder 3x3, werden ebenfalls selten verwendet. Das 3x2-Design wird in Fällen verwendet, in denen die Art der Abhängigkeit einer abhängigen Variablen von einer unabhängigen Variablen ermittelt werden muss und eine der unabhängigen Variablen durch einen dichotomen Parameter dargestellt wird. Ein Beispiel für einen solchen Plan ist ein Experiment, um den Einfluss externer Beobachtung auf den Erfolg der Lösung intellektueller Probleme zu ermitteln. Die erste unabhängige Variable variiert einfach: Es gibt einen Beobachter, es gibt keinen Beobachter. Die zweite unabhängige Variable ist der Schwierigkeitsgrad der Aufgabe. In diesem Fall erhalten wir einen 3x2-Plan (Tabelle 5.7).

Die 3x3-Designoption wird verwendet, wenn beide unabhängigen Variablen mehrere Ebenen haben und es möglich ist, die Beziehungstypen zwischen der abhängigen Variablen und den unabhängigen Variablen zu identifizieren. Dieser Plan ermöglicht es, den Einfluss der Verstärkung auf den Erfolg der Erledigung von Aufgaben unterschiedlicher Schwierigkeitsgrade zu ermitteln (Tabelle 5.8).

Im Allgemeinen sieht das Design für zwei unabhängige Variablen wie folgt aus: N x M. Die Anwendbarkeit solcher Pläne wird nur durch die Notwendigkeit eingeschränkt, eine große Anzahl randomisierter Gruppen zu rekrutieren. Der Umfang der experimentellen Arbeit nimmt mit der Hinzufügung jeder Stufe einer unabhängigen Variablen übermäßig zu.

Designs zur Untersuchung der Auswirkungen von mehr als zwei unabhängigen Variablen werden selten verwendet. Für drei Variablen haben sie die allgemeine Form L x M x N.

Am häufigsten werden 2x2x2-Pläne verwendet: „drei unabhängige Variablen – zwei Ebenen“. Offensichtlich erhöht das Hinzufügen jeder neuen Variablen die Anzahl der Gruppen. Ihre Gesamtzahl beträgt 2, wobei n die Anzahl der Variablen im Fall von zwei Intensitätsstufen und K die Anzahl der Variablen im Fall der K-Stufenintensität ist (wir gehen davon aus, dass die Anzahl der Stufen für alle unabhängigen Variablen gleich ist). Ein Beispiel für diesen Plan könnte eine Weiterentwicklung des vorherigen sein. Für den Fall, dass wir am Erfolg der Bewältigung einer experimentellen Aufgabenreihe interessiert sind, der nicht nur von der allgemeinen Stimulation abhängt, die in Form von Bestrafung – Elektroschock – erfolgt, sondern auch vom Verhältnis von Belohnung und Bestrafung, wir Verwenden Sie einen 3x3x3-Plan.

Eine Vereinfachung eines vollständigen Plans mit drei unabhängigen Variablen der Form L x M x N ist die Planung nach der Methode des „Lateinischen Quadrats“. „Lateinisches Quadrat“ wird verwendet, wenn der gleichzeitige Einfluss von drei Variablen mit zwei oder mehr Ebenen untersucht werden muss. Das lateinische Quadratprinzip besagt, dass zwei Ebenen unterschiedlicher Variablen in einem experimentellen Design nur einmal vorkommen. Dadurch wird das Verfahren erheblich vereinfacht, ganz zu schweigen davon, dass dem Experimentator die Arbeit mit riesigen Proben erspart bleibt.

Angenommen, wir haben drei unabhängige Variablen mit jeweils drei Ebenen:

Der Plan nach der Methode „Lateinisches Quadrat“ ist in der Tabelle dargestellt. 5.9.

Die gleiche Technik wird zur Steuerung externer Variablen (Gegengewicht) verwendet. Es ist leicht zu erkennen, dass die Ebenen der dritten Variablen N (A, B, C) in jeder Zeile und in jeder Spalte einmal vorkommen. Durch die Kombination der Ergebnisse über Zeilen, Spalten und Ebenen hinweg ist es möglich, den Einfluss jeder der unabhängigen Variablen auf die abhängige Variable sowie den Grad der paarweisen Interaktion zwischen den Variablen zu identifizieren.

Mit „Latin Square“ können Sie die Anzahl der Gruppen deutlich reduzieren. Insbesondere wird der 2x2x2-Plan zu einer einfachen Tabelle (Tabelle 5.10).

Die Verwendung lateinischer Buchstaben in Zellen zur Angabe der Ebenen der 3. Variablen (A – ja, B – nein) ist traditionell, weshalb die Methode „Lateinisches Quadrat“ genannt wird.

Ein komplexerer Plan nach der Methode des „griechisch-lateinischen Quadrats“ wird sehr selten verwendet. Es kann verwendet werden, um den Einfluss von vier unabhängigen Variablen auf eine abhängige Variable zu untersuchen. Sein Kern ist wie folgt: Zu jeder lateinischen Gruppe eines Plans mit drei Variablen wird ein griechischer Buchstabe hinzugefügt, der die Ebenen der vierten Variablen angibt.

Schauen wir uns ein Beispiel an. Wir haben vier Variablen mit jeweils drei Intensitätsstufen. Der Plan nach der Methode „Griechisch-lateinisches Quadrat“ sieht wie folgt aus (Tabelle 5.11).

Zur Verarbeitung der Daten kommt die Fisher-Varianzanalyse-Methode zum Einsatz. Die Methoden des „lateinischen“ und „griechisch-lateinischen“ Quadrats kamen aus der Agrarbiologie in die Psychologie, fanden jedoch keine breite Anwendung. Eine Ausnahme bilden einige Experimente zur Psychophysik und Wahrnehmungspsychologie.

Das Hauptproblem, das in einem faktoriellen Experiment gelöst werden kann und nicht durch mehrere gewöhnliche Experimente mit einer unabhängigen Variablen gelöst werden kann, ist die Bestimmung der Wechselwirkung zweier Variablen.

Betrachten wir die möglichen Ergebnisse des einfachsten 2x2-Fakultätsexperiments unter dem Gesichtspunkt der Wechselwirkungen von Variablen. Dazu müssen wir die Ergebnisse der Experimente in einem Diagramm darstellen, wobei auf der Abszissenachse die Werte der ersten unabhängigen Variablen und auf der Ordinatenachse die Werte der abhängigen Variablen aufgetragen sind. Jede der beiden Geraden, die die Werte der abhängigen Variablen bei verschiedenen Werten der ersten unabhängigen Variablen (A) verbinden, charakterisiert eine der Ebenen der zweiten unabhängigen Variablen (B). Der Einfachheit halber wenden wir die Ergebnisse einer Korrelationsstudie anstelle einer experimentellen an. Wir sind uns einig, dass wir die Abhängigkeit des Status eines Kindes in einer Gruppe von seinem Gesundheitszustand und seinem Intelligenzniveau untersucht haben. Betrachten wir Optionen für mögliche Beziehungen zwischen Variablen.

Erste Möglichkeit: Die Geraden sind parallel – es gibt keine Wechselwirkung der Variablen (Abb. 5.1).

Kranke Kinder haben unabhängig von ihrem Intelligenzniveau einen niedrigeren Status als gesunde Kinder. Intellektuelle haben immer einen höheren Status (unabhängig von der Gesundheit).

Die zweite Möglichkeit: Körperliche Gesundheit bei hoher Intelligenz erhöht die Chance auf einen höheren Status in der Gruppe (Abbildung 5.2).

In diesem Fall wird der Effekt einer divergenten Interaktion zwischen zwei unabhängigen Variablen erhalten. Die zweite Variable verstärkt den Einfluss der ersten auf die abhängige Variable.

Dritte Option: konvergente Interaktion – körperliche Gesundheit verringert die Chance eines Intellektuellen, einen höheren Status in der Gruppe zu erlangen. Die Variable „Gesundheit“ verringert den Einfluss der Variable „Intelligenz“ auf die abhängige Variable. Es gibt weitere Fälle dieser Interaktionsoption:

Die Variablen interagieren so, dass eine Erhöhung des Wertes der ersten zu einer Verringerung des Einflusses der zweiten mit einer Änderung des Vorzeichens der Abhängigkeit führt (Abb. 5.3).

Kranke Kinder mit hoher Intelligenz erhalten seltener einen hohen Status als kranke Kinder mit geringer Intelligenz, während bei gesunden Kindern ein positiver Zusammenhang zwischen Intelligenz und Status besteht.

Theoretisch ist es vorstellbar, dass kranke Kinder bei hoher Intelligenz größere Chancen haben, einen hohen Status zu erreichen, als ihre gesunden Altersgenossen mit geringer Intelligenz.

Die letzte, vierte mögliche Variante der in der Forschung beobachteten Beziehungen zwischen unabhängigen Variablen: der Fall, bei dem es eine überlappende Wechselwirkung zwischen ihnen gibt, dargestellt in der letzten Grafik (Abb. 5.4).

Somit sind folgende Wechselwirkungen von Variablen möglich: Null; divergent (mit unterschiedlichen Anzeichen von Abhängigkeit); kreuzend.

Das Ausmaß der Interaktion wird mithilfe einer Varianzanalyse bewertet, und der Student-t-Test wird verwendet, um die Signifikanz der Unterschiede in Gruppe X zu bewerten.

Bei allen betrachteten experimentellen Gestaltungsmöglichkeiten kommt eine Ausgleichsmethode zum Einsatz: Verschiedene Probandengruppen werden unterschiedlichen Versuchsbedingungen ausgesetzt. Das Verfahren zur Angleichung der Gruppenzusammensetzung ermöglicht einen Vergleich der Ergebnisse.

In vielen Fällen ist es jedoch notwendig, ein Experiment so zu gestalten, dass alle Teilnehmer alle möglichen Expositionen gegenüber unabhängigen Variablen erhalten. Dann kommt die Ausgleichstechnik zur Rettung.

McCall nennt Pläne, die die Strategie „Alle Probanden, alle Behandlungen“ umsetzen, „Rotationsexperimente“, und Campbell nennt sie „ausgewogene Pläne“. Um Verwechslungen zwischen den Begriffen „Ausgleich“ und „Gegenausgleich“ zu vermeiden, verwenden wir den Begriff „Rotationsplan“.

Rotationspläne werden nach der Methode des „lateinischen Quadrats“ erstellt, aber anders als im oben diskutierten Beispiel geben die Zeilen Gruppen von Subjekten an, nicht die Ebenen der Variablen, die Spalten geben die Einflussebenen der ersten unabhängigen Variablen (oder Variablen) an. , und die Zellen der Tabelle geben die Einflussgrade der zweiten unabhängigen Variablen an.

Nachfolgend finden Sie ein Beispiel für einen Versuchsaufbau für drei Gruppen (A, B, C) und zwei unabhängige Variablen (X, Y) mit drei Intensitätsstufen (1., 2., 3.). Es ist leicht zu erkennen, dass dieser Plan so umgeschrieben werden kann, dass die Zellen die Ebenen der Y-Variablen enthalten (Tabelle 5.12).

Campbell schließt dieses Design als quasi-experimentelles Design ein, da nicht bekannt ist, ob es die externe Validität kontrolliert. Tatsächlich ist es unwahrscheinlich, dass ein Proband im wirklichen Leben eine Reihe solcher Einflüsse wie im Experiment erfahren kann.

Was die Interaktion der Gruppenzusammensetzung mit anderen externen Variablen, Artefaktquellen und Randomisierung von Gruppen betrifft, sollte laut Campbell der Einfluss dieses Faktors minimiert werden.

Spaltensummen in einem Rotationsdesign zeigen Unterschiede in der Effektgröße für verschiedene Werte einer unabhängigen Variablen (X oder Y) an, und Zeilensummen sollten Unterschiede zwischen Gruppen anzeigen. Wenn die Gruppen erfolgreich randomisiert werden, sollte es keine Unterschiede zwischen den Gruppen geben. Wenn die Zusammensetzung der Gruppe eine zusätzliche Variable darstellt, wird es möglich, diese zu steuern. Das Ausgleichsschema vermeidet den Trainingseffekt nicht, obwohl Daten aus zahlreichen Experimenten mit dem lateinischen Quadrat eine solche Schlussfolgerung nicht zulassen.

Wir fassen die Betrachtung verschiedener Optionen für Versuchspläne zusammen und schlagen deren Klassifizierung vor. Experimentelle Designs unterscheiden sich aus folgenden Gründen:

1. Anzahl unabhängiger Variablen: eine oder mehrere. Abhängig von ihrer Anzahl wird entweder ein einfacher oder ein faktorieller Versuchsplan verwendet.

2. Die Anzahl der Ebenen unabhängiger Variablen: Bei 2 Ebenen sprechen wir von der Herstellung eines qualitativen Zusammenhangs, bei 3 oder mehr von einem quantitativen Zusammenhang.

3. Wer hat die Wirkung? Wenn das Schema „Jede Gruppe hat ihre eigene Kombination“ verwendet wird, handelt es sich um einen Intergruppenplan. Wenn das Schema „Alle Gruppen – alle Einflüsse“ verwendet wird, handelt es sich um einen Rotationsplan. Gottsdanker nennt es einen interindividuellen Vergleich.

Das Design eines Experiments kann homogen oder heterogen sein (je nachdem, ob die Anzahl der unabhängigen Variablen gleich der Anzahl der Ebenen ihrer Änderung ist oder nicht).

4 Versuchspläne für ein Thema

Experimente an Stichproben unter Kontrolle von Variablen sind ein Verfahren, das in der Psychologie seit den 1910er bis 1920er Jahren weit verbreitet ist. Experimentelle Studien zu ausgeglichenen Gruppen erlangten besondere Verbreitung, nachdem der herausragende Biologe und Mathematiker R. A. Fisher die Theorie der Planung von Experimenten und der Verarbeitung ihrer Ergebnisse (Varianz- und Kovarianzanalyse) entwickelt hatte. Aber Psychologen nutzten Experimente schon lange vor der Theorie des Musterdesigns. Die ersten experimentellen Studien wurden unter Beteiligung eines Probanden durchgeführt – er war selbst der Experimentator oder sein Assistent. Beginnend mit G. Fechner (1860) gelangte die Technik des Experimentierens in die Psychologie, um theoretische quantitative Hypothesen zu testen.

Die klassische experimentelle Untersuchung eines Themas war die Arbeit von G. Ebbinghaus, die 1913 durchgeführt wurde. Ebbinghaus untersuchte das Phänomen des Vergessens durch das Erlernen unsinniger Silben (die er selbst erfunden hatte). Er lernte eine Reihe von Silben und versuchte sie nach einer gewissen Zeit wiederzugeben. Als Ergebnis wurde eine klassische Vergessenskurve erhalten: die Abhängigkeit des Volumens des gespeicherten Materials von der seit dem Auswendiglernen verstrichenen Zeit (Abb. 5.5).

In der empirischen wissenschaftlichen Psychologie interagieren und kämpfen drei Forschungsparadigmen. Vertreter einer von ihnen, die traditionell aus naturwissenschaftlichen Experimenten stammen, halten die einzig verlässlichen Erkenntnisse für jene, die in Experimenten an äquivalenten und repräsentativen Proben gewonnen wurden. Das Hauptargument der Befürworter dieser Position ist die Notwendigkeit, externe Variablen zu kontrollieren und individuelle Unterschiede auszugleichen, um allgemeine Muster zu finden.

Vertreter der Methodik der „experimentellen Verhaltensanalyse“ kritisieren Befürworter der statistischen Analyse und Versuchsplanung an Proben. Ihrer Meinung nach ist es notwendig, Studien unter Beteiligung eines Probanden und mit bestimmten Strategien durchzuführen, die es ermöglichen, die Artefaktquellen während des Experiments zu reduzieren. Befürworter dieser Methodik sind so berühmte Forscher wie B. F. Skinner, G. A. Murray und andere.

Schließlich wird der klassischen idiografischen Forschung sowohl Einzelsubjektexperimente als auch Designs gegenübergestellt, die das Verhalten in repräsentativen Stichproben untersuchen. Bei der Idiographieforschung geht es um die Untersuchung einzelner Fälle: Biographien oder Verhaltensmerkmale einzelner Menschen. Ein Beispiel sind Lurias wunderbare Werke „The Lost and Returned World“ und „A Little Book of a Big Memory“.

In vielen Fällen ist ein Ein-Fächer-Studium die einzige Option. Die Methodik der Einzelsubjektforschung wurde in den 1970er und 1980er Jahren entwickelt. viele Autoren: A. Kasdan, T. Kratochwill, B.F. Skinner, F.-J. McGuigan et al.

Während des Experiments werden zwei Artefaktquellen identifiziert: a) Fehler in der Planungsstrategie und in der Durchführung der Studie; b) individuelle Unterschiede.

Wenn Sie die „richtige“ Strategie für die Durchführung eines Experiments mit einem Probanden entwickeln, besteht das gesamte Problem darin, nur individuelle Unterschiede zu berücksichtigen. Ein Experiment mit einem Probanden ist möglich, wenn: a) individuelle Unterschiede in Bezug auf die im Experiment untersuchten Variablen vernachlässigt werden können, alle Probanden als gleichwertig betrachtet werden, sodass Daten auf jedes Mitglied der Bevölkerung übertragen werden können; b) Das Thema ist einzigartig und das Problem der direkten Datenübertragung ist irrelevant.

Die Einzelsubjekt-Experimentierstrategie wurde von Skinner entwickelt, um das Lernen zu untersuchen. Daten während der Studie werden in Form von „Lernkurven“ im Koordinatensystem „Zeit“ – „Gesamtzahl der Antworten“ (Summenkurve) dargestellt. Die Lernkurve wird zunächst visuell analysiert; seine Veränderungen im Laufe der Zeit werden berücksichtigt. Wenn sich die die Kurve beschreibende Funktion ändert, wenn sich der Einfluss von A auf B ändert, kann dies auf das Vorliegen einer kausalen Abhängigkeit des Verhaltens von äußeren Einflüssen (A oder B) hinweisen.

Einzelsubjektforschung wird auch als Zeitreihendesign bezeichnet. Der Hauptindikator für den Einfluss der unabhängigen Variablen auf die abhängige Variable bei der Umsetzung eines solchen Plans ist die Änderung der Art der Antworten des Probanden aufgrund der Auswirkungen von Änderungen der Versuchsbedingungen im Laufe der Zeit auf ihn. Es gibt eine Reihe grundlegender Schemata zur Anwendung dieses Paradigmas. Die einfachste Strategie ist das A-B-Schema. Der Proband führt die Aktivität zunächst unter den Bedingungen A und dann unter den Bedingungen B aus (siehe Abb. 5.8).

Bei der Verwendung dieses Plans stellt sich natürlich die Frage: Hätte die Reaktionskurve ihre vorherige Form beibehalten, wenn es keine Auswirkungen gegeben hätte? Einfach ausgedrückt: Dieses Design kontrolliert nicht den Placebo-Effekt. Darüber hinaus ist unklar, was zu dem Effekt geführt hat: Vielleicht war es nicht die Variable B, die den Effekt hatte, sondern eine andere Variable, die im Experiment nicht berücksichtigt wurde.

Daher wird häufiger ein anderes Schema verwendet: A-B-A. Zunächst wird das Verhalten des Probanden unter den Bedingungen A aufgezeichnet, dann ändern sich die Bedingungen (B) und in der dritten Phase kehren die vorherigen Bedingungen zurück (A). Die Änderung der funktionalen Beziehung zwischen den unabhängigen und abhängigen Variablen wird untersucht. Wenn sich bei einer Änderung der Bedingungen im dritten Stadium die frühere Art der funktionalen Beziehung zwischen der abhängigen und der abhängigen Variablen wiederherstellt, gilt die unabhängige Variable als Ursache, die das Verhalten des Subjekts verändern kann (Abb. 5.9).

Sowohl die erste als auch die zweite Möglichkeit zur Planung von Zeitreihen erlauben jedoch keine Berücksichtigung des Faktors der Kumulierung von Auswirkungen. Möglicherweise führt eine Kombination – eine Abfolge von Bedingungen (A und B) – zu der Wirkung. Es ist auch nicht offensichtlich, dass die Kurve nach der Rückkehr zu Situation B die gleiche Form annehmen wird wie beim ersten Vorliegen der Bedingungen B.

Ein Beispiel für ein Design, das denselben experimentellen Effekt zweimal reproduziert, ist das A-B-A-B-Design. Wenn beim 2. Übergang von den Bedingungen A zu den Bedingungen B eine Änderung der funktionalen Abhängigkeit der Antworten des Probanden von der Zeit reproduziert wird, wird dies zum Beweis der experimentellen Hypothese: Die unabhängige Variable (A, B) beeinflusst das Verhalten des Probanden .

Betrachten wir den einfachsten Fall. Als abhängige Variable wählen wir das Gesamtwissen des Schülers. Als eigenständige Aktivität - Sportunterricht am Morgen (z. B. Wushu-Gymnastik). Nehmen wir an, dass sich der Wushu-Komplex positiv auf den allgemeinen Geisteszustand des Schülers auswirkt und ein besseres Auswendiglernen fördert (Abb. 5.10).

Es ist offensichtlich, dass Gymnastik einen positiven Einfluss auf die Lernfähigkeit hatte.

Für die Planung mit der Zeitreihenmethode gibt es verschiedene Möglichkeiten. Es gibt Schemata des regelmäßigen Serienwechsels (AB-AB), Serien stochastischer Folgen und Positionsanpassungsschemata (Beispiel: ABBA). Modifikationen des A-B-A-B-Schemas sind das A-B-A-B-A-Schema oder ein längeres: A- B- A- B- A- B- A.

Die Verwendung längerer Zeitrahmen erhöht die Sicherheit bei der Erkennung eines Effekts, führt jedoch zu Ermüdung des Probanden und anderen kumulativen Effekten.

Darüber hinaus lösen der A-B-A-B-Plan und seine verschiedenen Modifikationen drei Hauptprobleme nicht:

1. Was würde mit dem Probanden passieren, wenn es keinen Effekt gäbe (Placebo-Effekt)?

2. Ist die Folge der Einflüsse A-B selbst nicht ein weiterer Einfluss (Kollateralvariable)?

3. Welche Ursache führte zur Wirkung: Wenn es an Ort B keine Wirkung gäbe, würde sich die Wirkung wiederholen?

Um den Placeboeffekt zu kontrollieren, enthält die A-B-A-B-Reihe Bedingungen, die entweder Exposition A oder Exposition B „simulieren“. Betrachten Sie die Lösung des letzten Problems. Aber analysieren wir zunächst diesen Fall: Nehmen wir an, ein Schüler übt ständig Wushu. Aber von Zeit zu Zeit erscheint ein hübsches Mädchen (nur ein Zuschauer) im Stadion oder in der Turnhalle – Auswirkung B. Plan A-B-A-C zeigte eine Steigerung der Wirksamkeit der Bildungsaktivitäten des Schülers in den Zeiträumen, in denen Variable B erscheint. Was ist der Grund? : die Anwesenheit eines Zuschauers als solcher oder eines bestimmten hübschen Mädchens? Um die Hypothese über das Vorliegen einer bestimmten Ursache zu testen, ist das Experiment nach folgendem Schema aufgebaut: A-B-A-C-A. Zum Beispiel kommt im vierten Zeitabschnitt ein anderes Mädchen oder ein gelangweilter Rentner ins Stadion. Wenn die Effektivität des Unterrichts deutlich nachlässt (nicht gleiche Motivation), deutet dies auf einen konkreten Grund für die Verschlechterung der Lernfähigkeit hin. Es ist auch möglich, die Auswirkungen von Bedingung A (Wushu-Kurse ohne Zuschauer) zu testen. Dazu müssen Sie den A-B-C-B-Plan anwenden. Lassen Sie den Schüler in Abwesenheit des Mädchens für einige Zeit mit dem Lernen unterbrechen. Führt ihr wiederholter Auftritt im Stadion zum gleichen Effekt wie beim ersten Mal, dann liegt der Grund für die Leistungssteigerung bei ihr und nicht nur im Wushu-Unterricht (Abb. 5.11).

Bitte nehmen Sie dieses Beispiel nicht ernst. In Wirklichkeit passiert genau das Gegenteil: Die Verliebtheit in Mädchen schmälert die Leistungen der Schüler drastisch.

Es gibt viele Techniken zur Durchführung von Einzelfachstudien. Ein Beispiel für die Entwicklung eines A-B-Plans ist der „Alternative Impact Plan“. Die Expositionen A und B sind zufällig über die Zeit verteilt, beispielsweise nach Wochentagen, wenn es um verschiedene Methoden zur Raucherentwöhnung geht. Dann werden alle Momente bestimmt, in denen es zum Aufprall A kam; Es wird eine Kurve konstruiert, die die entsprechenden aufeinanderfolgenden Punkte verbindet. Alle Zeitpunkte, in denen es einen „alternativen“ Einfluss B gab, werden identifiziert und in zeitlicher Reihenfolge auch miteinander verbunden; Die zweite Kurve wird konstruiert. Anschließend werden beide Kurven verglichen und festgestellt, welcher Effekt wirksamer ist. Der Wirkungsgrad wird durch die Größe des Anstiegs oder Abfalls der Kurve bestimmt (Abb. 5.12).

Synonyme für den Begriff „alternativer Wirkungsplan“ sind: „Serienvergleichsplan“, „synchronisierter Wirkungsplan“, „Mehrfachplan“ usw.

Eine weitere Möglichkeit ist der umgekehrte Plan. Es wird verwendet, um zwei alternative Verhaltensformen zu untersuchen. Zunächst wird ein Ausgangsniveau der Manifestation beider Verhaltensweisen erfasst. Das erste Verhalten kann mit Hilfe eines bestimmten Einflusses verwirklicht werden, das zweite, damit nicht vereinbare, wird gleichzeitig durch eine andere Art von Einfluss provoziert. Die Wirkung zweier Interventionen wird bewertet. Nach einer gewissen Zeit kehrt sich die Kombination der Einflüsse um, sodass die erste Verhaltensform den Einfluss erhält, der die zweite Verhaltensform ausgelöst hat, und die zweite den Einfluss, der für die erste Verhaltensform relevant ist. Dieses Design wird beispielsweise bei der Untersuchung des Verhaltens kleiner Kinder verwendet (Abb. 5.13).

In der Lernpsychologie wird die Methode der Kriterienänderung oder der „Plan zur Erhöhung der Kriterien“ verwendet. Sein Wesen besteht darin, dass eine Verhaltensänderung des Subjekts als Reaktion auf eine Zunahme (Phase) des Einflusses aufgezeichnet wird. Der Anstieg des registrierten Verhaltensparameters wird aufgezeichnet und der nächste Aufprall erfolgt erst, wenn der Proband das angegebene Kriteriumsniveau erreicht. Nachdem sich das Leistungsniveau stabilisiert hat, wird dem Probanden folgende Einflussabstufung präsentiert. Die Kurve eines erfolgreichen Experiments (Bestätigung einer Hypothese) ähnelt einer von Absätzen heruntergerissenen Treppe, wobei der Beginn der Stufe mit dem Beginn des Einflussniveaus und ihr Ende mit dem Erreichen des nächsten Kriteriums durch die Versuchsperson zusammenfällt.

Eine Möglichkeit, den „Sequenzeffekt“ auszugleichen, besteht darin, die Reihenfolge der Einflüsse umzukehren – Plan A-B-B-A. Sequenzeffekte sind mit dem Einfluss eines vorherigen Einflusses auf einen nachfolgenden verbunden (ein anderer Name ist Ordnungseffekte oder Transfereffekte). Die Übertragung kann positiv oder negativ, symmetrisch oder asymmetrisch sein. Die Folge A-B-B-A wird als ortsentzerrte Schaltung bezeichnet. Wie Gottsdanker feststellt, sind die Auswirkungen der Variablen A und B auf frühe oder späte Übertragungseffekte zurückzuführen. Exposition A ist mit einem späten Transfer verbunden, während B mit einem frühen Transfer verbunden ist. Wenn darüber hinaus ein kumulativer Effekt vorliegt, können sich zwei aufeinanderfolgende B-Expositionen auf das Subjekt als eine einzige kumulative Exposition auswirken. Ein Experiment kann nur dann erfolgreich sein, wenn diese Effekte unbedeutend sind. Die oben besprochenen Planvarianten mit regelmäßigem Wechsel oder mit zufälliger Abfolge sind meist sehr lang und daher schwierig umzusetzen.

Zusammenfassend kann man sagen, dass die Schemata zur Darstellung des Einflusses abhängig von den Fähigkeiten des Experimentators verwendet werden.

Durch die Randomisierung von Aufgaben entsteht eine zufällige Abfolge von Einflüssen. Es wird in Experimenten verwendet, die eine große Anzahl von Proben erfordern. Der zufällige Wechsel der Einflüsse schützt vor der Entstehung von Sequenzeffekten.

Für eine kleine Anzahl von Proben wird ein regelmäßiges Wechselschema vom Typ A-B-A-B empfohlen. Dabei ist auf die Periodizität der Hintergrundeinflüsse zu achten, die mit der Wirkung der unabhängigen Variablen zusammenfallen können. Wenn Sie beispielsweise morgens einen Intelligenztest durchführen und den zweiten immer abends, dann nimmt unter dem Einfluss von Müdigkeit die Wirksamkeit des zweiten Tests ab.

Eine positionell ausgeglichene Sequenz kann nur dann geeignet sein, wenn die Anzahl der Einflüsse (Aufgaben) gering ist und der Einfluss von früher und später Übertragung unbedeutend ist.

Keines der Schemata schließt jedoch die Manifestation einer differentiellen asymmetrischen Übertragung aus, wenn der Einfluss der vorherigen Exposition A auf die Wirkung von Exposition B größer ist als der Einfluss der vorherigen Exposition B auf die Wirkung von Exposition A (oder umgekehrt).

Eine Vielzahl von Designs für ein Thema wurden von D. Barlow und M. Hersen in der Monographie „Experimental Designs for Single Cases“ (Single Case Experimental Designs, 1984) zusammengefasst (Tabelle 5.13).

Tabelle 5.13

Größere Artefakte sind in einer Einzelsubjektstudie praktisch unvermeidbar. Es ist schwer vorstellbar, wie die mit der Irreversibilität von Ereignissen verbundenen Auswirkungen beseitigt werden können. Wenn die Auswirkungen der Ordnung oder Interaktion von Variablen einigermaßen kontrollierbar sind, kann der bereits erwähnte Effekt der Asymmetrie (differentielle Übertragung) nicht beseitigt werden.

Nicht weniger Probleme ergeben sich bei der Ermittlung des anfänglichen Intensitätsniveaus des aufgezeichneten Verhaltens (des Niveaus der abhängigen Variablen). Das anfängliche Maß an Aggressivität, das wir bei einem Kind in einem Laborexperiment festgestellt haben, kann für es untypisch sein, da es durch kürzliche frühere Ereignisse verursacht wurde, beispielsweise einen Streit in der Familie, Unterdrückung seiner Aktivität durch Gleichaltrige oder Lehrer im Kindergarten.

Das Hauptproblem besteht in der Möglichkeit, die Ergebnisse der Untersuchung eines Faches auf jeden Vertreter der Bevölkerung zu übertragen. Es geht um die Berücksichtigung individueller Unterschiede, die für die Studie von Bedeutung sind. Theoretisch ist folgender Schritt möglich: Darstellung einzelner Daten in „dimensionsloser“ Form; In diesem Fall werden einzelne Parameterwerte auf einen Wert normalisiert, der der Streuung der Werte in der Grundgesamtheit entspricht.

Schauen wir uns ein Beispiel an. In den frühen 1960er Jahren. Im Labor von B. N. Teplov trat ein Problem auf: Warum sind alle Diagramme, die Änderungen der Reaktionszeit in Abhängigkeit von der Intensität des Reizes beschreiben, für die Probanden unterschiedlich? V. D. Nebylitsyn [Nebylitsyn V. D., 1966] schlug vor, den Probanden ein Signal zu präsentieren, das dies tut Änderung nicht in Einheiten der körperlichen Intensität, sondern in Einheiten einer zuvor gemessenen individuellen absoluten Schwelle („eine Schwelle“, „zwei Schwellenwerte“ usw.). Die Ergebnisse des Experiments bestätigten auf brillante Weise Nebylitsyns Hypothese: Die Kurven der Abhängigkeit der Reaktionszeit vom Einflussniveau, gemessen in Einheiten der individuellen absoluten Schwelle, erwiesen sich für alle Probanden als identisch.

Ein ähnliches Schema wird bei der Interpretation von Daten verwendet. Am Institut für Psychologie der Russischen Akademie der Wissenschaften erforschte A. V. Drynkov den Prozess der Bildung einfacher künstlicher Konzepte. Die Lernkurven zeigten die Abhängigkeit des Erfolgs von der Zeit. Sie erwiesen sich bei allen Probanden als unterschiedlich: Sie wurden durch Potenzfunktionen beschrieben. Drynkov schlug vor, dass die Normalisierung einzelner Indikatoren auf den Wert des anfänglichen Trainingsniveaus (entlang der Y-Achse) und auf die individuelle Zeit bis zum Erreichen des Kriteriums (entlang der X-Achse) es ermöglicht, eine funktionale Abhängigkeit des Erfolgs von der Zeit zu erhalten für alle Fächer gleich. Dies wurde bestätigt: Die in „dimensionsloser“ Form dargestellten Indikatoren für Veränderungen der individuellen Ergebnisse der Probanden gehorchten dem quadratischen Potenzgesetz.

Folglich wird die Identifizierung eines allgemeinen Musters durch Nivellierung individueller Unterschiede jedes Mal auf der Grundlage einer sinnvollen Hypothese über den Einfluss einer zusätzlichen Variablen auf die interindividuelle Variation der Ergebnisse des Experiments entschieden.

Lassen Sie uns noch einmal auf ein Merkmal von Experimenten unter Beteiligung eines Probanden eingehen. Die Ergebnisse dieser Experimente hängen stark von den Vorurteilen des Experimentators und der Beziehung ab, die sich zwischen ihm und dem Probanden entwickelt. Bei der Durchführung einer langen Reihe aufeinanderfolgender Einflüsse kann der Experimentator unbewusst oder bewusst so handeln, dass die Versuchsperson ein Verhalten aktualisiert, das die experimentelle Hypothese bestätigt. Aus diesem Grund wird bei dieser Art von Forschung empfohlen, „Blindexperimente“ und „Doppelblindexperimente“ zu verwenden. Bei der ersten Option weiß der Experimentator, die Versuchsperson jedoch nicht, wann diese das Placebo erhält und wann die Wirkung eintritt. Bei einem „doppelblinden“ Experiment wird das Experiment von einem Forscher durchgeführt, der mit der Hypothese nicht vertraut ist und nicht weiß, wann der Proband ein Placebo oder eine Behandlung erhält.

Experimente mit einem Probanden spielen in der Psychophysiologie, Psychophysik, Lernpsychologie und Kognitionspsychologie eine wichtige Rolle. Die Methodik solcher Experimente ist in die Psychologie des programmierten Trainings und des Sozialmanagements, in die klinische Psychologie, insbesondere in die Verhaltenstherapie, eingedrungen, deren Hauptförderer Eysenck ist [Eysenck G. Yu., 1999].

Probleme der experimentellen Planung (EP). Grundkonzepte von PE. Experimentelles Design als Methode zur Ermittlung der Kopplungsfunktion. Vollfaktorielles Experiment (FFE). Statistische Verarbeitung der PFE-Ergebnisse. Optimierung erneuerbarer Energien mithilfe der Steilanstiegsmethode. Optimierung von RES mit der Simplex-Methode.

KonzeptPlanung eines Experiments (Frage 25)

Experimentplanungsmethoden ermöglichen die Lösung der Probleme der Identifizierung kritischer Primärparameter (Screening-Experimente: Ein-Faktor-Experiment, Zufallsbilanzmethode), der Erlangung einer mathematischen Beschreibung der Kopplungsfunktion (CFE) und der Optimierung des RES (Steep-Ascent-Methode und Simplex-Methode).

Das gewählte Optimierungskriterium muss eine Reihe von Anforderungen erfüllen.

Die PFE wird nach einem spezifischen Plan (PFE-Matrix) durchgeführt. Um die Größe des Experiments zu reduzieren, werden Teilreplikate verwendet.

Die statistische Verarbeitung der PFE-Ergebnisse umfasst die Überprüfung der Reproduzierbarkeit des Experiments, die Bewertung der Signifikanz der Modellkoeffizienten und die Überprüfung der Angemessenheit des Modells.

Es ist notwendig, die Merkmale der Steilaufstiegsmethode, der Simplex-Optimierungsmethode und die Reihenfolge des Experiments für jede dieser Methoden zu berücksichtigen.

Die Idee, dass ein Experiment entworfen werden kann, reicht bis in die Antike zurück. Unser entfernter Vorfahre, der davon überzeugt war, dass sogar ein Mammut mit einem scharfen Stein getötet werden könnte, hat dies zweifellos vorgebracht Hypothesen, was danach gezielte experimentelle Prüfung führte zur Entstehung des Speers, des Speers und dann von Pfeil und Bogen. Allerdings nutzte er keine statistischen Methoden, sodass unklar bleibt, wie er überlebte und damit unsere Existenz sicherte.

Ende der 20er Jahre Im 20. Jahrhundert zeigte Ronald Fisher als erster, dass es möglich ist, alle Faktoren gleichzeitig zu variieren.

Die Idee der Box-Wilson-Methode ist einfach: Der Experimentator wird gebeten, Einstellungen vorzunehmen der Reihe nach kleine Versuchsreihe, in jedem von ihnen gleichzeitigändern alles nach bestimmten Regeln Faktoren. Serien sind so organisiert, dass danach mathematische Verarbeitung der vorherige konnte ausgewählt werden Bedingungen für die Durchführung(d. h. planen) die nächste Folge. So konsequent Schritt für Schritt erreicht optimale Fläche. Der Einsatz von PE macht das Verhalten des Experimentators zielgerichtet und organisiert, erhöht die Produktivität und Zuverlässigkeit der Ergebnisse.

PE ermöglicht:

– die Anzahl der Experimente reduzieren;

– das Optimum finden;

– quantitative Schätzungen des Einflusses von Faktoren erhalten;

– Fehler erkennen.

Versuchsplanung (PE) nach GOST 24026–80 – Auswahl eines Versuchsplans, der die spezifizierten Anforderungen erfüllt. Ansonsten ist PE eine wissenschaftliche Disziplin, die sich mit der Entwicklung und Untersuchung optimaler Programme zur Durchführung experimenteller Forschung beschäftigt.

Experimenteller Plan– ein Datensatz, der die Anzahl, Bedingungen und Reihenfolge der Durchführung von Experimenten bestimmt.

PE stellt das Konzept vor Studienobjekt– ein System, das in einer bestimmten Weise auf die für den Forscher interessante Störung reagiert.

Bei der Gestaltung von ES kann das Untersuchungsobjekt eine beliebige REU sein (Abbildung 42).

Abbildung 42 – Untersuchungsobjekt

Das Forschungsobjekt muss zwei Grundvoraussetzungen erfüllen:

– Reproduzierbarkeit (Wiederholbarkeit von Experimenten);

– Kontrollierbarkeit (eine Bedingung für die Durchführung eines aktiven Experiments, die in der Möglichkeit besteht, die erforderlichen Werte von Faktoren festzulegen und auf diesem Niveau zu halten).

Der Einsatz von PE-Methoden zur Untersuchung von RES basiert auf der Tatsache, dass der Untersuchungsgegenstand (RES) durch ein kybernetisches Modell – eine „Black Box“ (siehe Abbildung 2) – dargestellt werden kann, für die eine Kommunikationsfunktion geschrieben werden kann (siehe). Formel 1.1).

Für das Untersuchungsobjekt (den Verstärker in Abbildung 42) hat Formel 1.1 die Form:
,

Wo
,
,
,…,
.

In PE sind die Kommunikationsfunktion oder das mathematische Modell des Forschungsobjekts die numerischen Merkmale der Forschungsziele (Ausgaben der „Black Box“), Ausgabeparameter der REU, Optimierungsparameter.

Der Zustand der „Black Box“ wird durch eine Reihe von Faktoren bestimmt, Variablen, die den Wert des Ausgabeparameters beeinflussen.

Gemäß GOST 24026–80 Faktor– eine variable Größe, von der angenommen wird, dass sie das Ergebnis des Experiments beeinflusst.

Um PE-Methoden anzuwenden, muss der Faktor sein:

– kontrollierbar (durch Wahl des gewünschten Wertes des Faktors kann dieser während des Experiments eingestellt und konstant gehalten werden);

– eindeutig;

– unabhängig (nicht von einem anderen Faktor abhängig sein);

– kompatibel in Kombination mit anderen Faktoren (d. h. alle Kombinationen von Faktoren sind möglich);

– quantitativ;

– Die Genauigkeit der Einstellung (Messung) des Faktorwerts muss hoch sein.

Jeder Faktor in einem Experiment kann einen oder mehrere Werte annehmen – Faktorstufen. Gemäß GOST 24026–80 Faktorebene– fester Wert des Faktors relativ zum Ursprung. Es kann sich herausstellen, dass ein Faktor unendlich viele Werte annehmen kann – eine kontinuierliche Reihe. In der Praxis wird davon ausgegangen, dass ein Faktor eine bestimmte Anzahl diskreter Stufen aufweist.

Ein fester Satz von Faktorstufen bestimmt einen der möglichen Zustände der „Black Box“ – die Bedingungen für die Durchführung eines Experiments.

Wenn wir alle möglichen Sätze von Faktorstufen durchgehen, erhalten wir einen vollständigen Satz verschiedener Zustände der „Black Box“ – ,

Wo P– Anzahl der Ebenen,

N– Anzahl der Faktoren.

Wenn das Experiment für 2 Faktoren mit 2 Variationsniveaus durchgeführt wird, dann haben wir 2 2 = 4 Zustände;

für 3 Faktoren auf 2 Ebenen – 2 3 = 8;

für 3 Faktoren auf 3 Ebenen – 3 3 = 27;

für 5 Faktoren auf 5 Ebenen – 5 5 = 3125 „Black-Box“-Zustände oder Experimente.

Das PE führt das Konzept des „Faktorraums“ ein. Raum heißt Faktor, deren Koordinatenachsen den Werten der Faktoren entsprechen. Für eine Blackbox mit zwei Faktoren X 1 , X 2 können Sie den Faktorraum geometrisch in Form von Abbildung 43 darstellen. Hier ändern (variieren) die Faktoren auf 2 Ebenen.

Um die Anzahl der Experimente zu reduzieren, ist es notwendig, auf Experimente zu verzichten, die enthalten Alle mögliche Experimente. Auf die Frage: „Wie viele Experimente sollen in das Experiment einbezogen werden?“ PE-Methoden liefern die Antwort.

Es ist bekannt, dass wir eine Mindestanzahl an Experimenten mit zweistufiger Variation haben.

Die Anzahl der Experimente beträgt also 2 N .

Anzahl der Faktoren N Die Teilnahme am Experiment wird anhand von Screening-Experimenten (Ein-Faktor-Experiment, Random-Balance-Methode) ermittelt.

Abbildung 43 – Reaktionsfläche

Da jeder Satz von Faktorwerten einem bestimmten (bestimmten) Wert des Ausgabeparameters entspricht j(Optimierungsparameter), dann haben wir einige geometrische Reaktionsfläche– geometrische Darstellung der Antwortfunktion.

Antwortfunktion – Abhängigkeit der mathematischen Erwartung der Antwort von Faktoren.

Antwort– eine beobachtete Zufallsvariable, von der angenommen wird, dass sie von Faktoren abhängt.

Mathematische Beschreibung der Antwortfläche (mathematisches Modell) – Gleichung bezüglich des Optimierungsparameters j mit Faktoren (Verbindungsgleichung, Antwortfunktion, Formel 1.1). Das PE macht folgende Annahmen über die Antwortfunktion (Antwortoberfläche):

– Ansprechfläche – glatte, kontinuierliche Funktion,

– Die Funktion hat ein einziges Extremum.

Planung eines Experiments als Methode zur Ermittlung der Kopplungsfunktion (Frage 27)

Die Frage der Minimierung der Anzahl der Experimente hängt also mit der Wahl der Anzahl der Ebenen der Faktorvariation zusammen P. PE akzeptiert P=2, während die Anzahl der Experimente N = 2 N .

Bei der Auswahl eines Teilbereichs für PE durchlaufen zwei Schritte:

– Auswahl der Hauptfaktorebene ( x ich 0);

– Auswahl des Variationsintervalls (λ ich).

Führen wir die folgende Notation ein:


– natürlicher Wert der Grundstufe ich- Faktor (Basiswert, Basisniveau),

ich– Faktorzahl.

Beispiel wenn R 1 = 10 kOhm (siehe Abbildung 42), also
kOhm,

für R 2 = 3 kOhm –
kOhm usw.;


– natürlicher Wert der oberen Ebene des Faktors, der durch die Formel bestimmt wird x imax = x ich 0 + λ i ,

Wo – natürlicher Wert des Variationsintervalls ich- Faktor.

Im Beispiel (siehe Abbildung 42) wird davon ausgegangen = 20 kOhm also

x 1 max = 120 kOhm;


– natürlicher Wert der unteren Ebene des Faktors, der durch die Formel bestimmt wird x ich bin dabei = x ich 0 - λ I , in unserem Beispiel x 1 Mindest = 80 kOhm.

Durch den Wert des Variationsintervalls Es werden natürliche Einschränkungen auferlegt:

– Variationsintervall es darf nicht kleiner sein als der Messfehler des Faktors;

– Variationsintervall muss größer sein als der Definitionsbereich des Faktors.

Die Wahl des Variationsintervalls ist ein informeller Schritt, bei dem die folgenden A-priori-Informationen verwendet werden:

– hohe Genauigkeit der Einstellfaktorwerte;

– Annahme über die Krümmung der Reaktionsfläche;

– Bandbreite möglicher Faktorenänderungen.

Für RES akzeptieren sie = (0,1,…,0,3) x ich 0 .

Im Beispiel (siehe Abbildung 42) berechnen wir die Werte von drei Faktoren auf einem bestimmten Basisniveau ( x ich 0 ) und Variationsintervall ( ).

Tabelle 3.1 – Faktorwerte

Parameter

Nennwert
, kOhm

Intervall

, kOhm

, kOhm

, kOhm

PE verwendet nicht natürliche, aber codiert Faktorwerte.

Faktorkodierung(gemäß GOST 24026–80 – „Normalisierung von Faktoren“) erfolgt nach der Formel:

Dann wenn x 1 = x 1 max , dann haben wir X ich =+1 wenn x 1 = x 1 Mindest , – X ich = –1, X ich – codierter Wert des Faktors.

Im einfachsten Fall ermöglicht PE eine mathematische Beschreibung der Verbindungsfunktion (mathematisches Modell des Untersuchungsgegenstandes – REU) in Form eines unvollständigen quadratischen Polynoms:

.

In diesem Fall erfolgt die Variation auf zwei Ebenen ( P=2) und die Mindestanzahl an Experimenten beträgt N=2 N , Wo N– die Anzahl der einflussreichsten Faktoren, die nach Screening-Experimenten in das Experiment einbezogen wurden.

Ein Experiment, bei dem alle möglichen Kombinationen von Faktorstufen realisiert werden, heißt Vollfaktorielles Experiment(PFE).

PFE wird nach einem Plan durchgeführt, der PFE-Matrix oder Planmatrix genannt wird (Tabellen 3.2 und 3.3).

Planmatrix ist ein Standardformular zur Aufzeichnung von Versuchsbedingungen in Form einer rechteckigen Tabelle, deren Zeilen den Experimenten und die Spalten den Faktoren entsprechen.

Tabelle 3.2 – PFE-Matrix für zwei Faktoren

j J

j 1

j 2

j 3

j 4

In der PFE-Matrix entspricht das Vorzeichen „–“ (Minus) „+1“ und das Vorzeichen „+“ (Plus) entspricht „–1“.

In der PFE-Matrix für zwei Faktoren ( N= 2) (siehe Tabelle 3.2) Anzahl der Variationsstufen – P= 2, Anzahl der Experimente N= 2 2 = 4.

Tabelle 3.3 – PFE-Matrix für drei Faktoren

j J

In der PFE-Matrix für drei Faktoren ( N= 3) (siehe Tabelle 3.3) Anzahl der Variationsstufen – P= 2, Anzahl der Experimente N= 2 3 = 8.

Die PFE wird planmäßig durchgeführt. In Abbildung 42 nehmen wir zum Beispiel N=3 und implementieren Sie die PFE-Matrix gemäß Tabelle 3.3. Dafür:

X 1 , X 2 ,… X N auf Ebenen entlang der ersten Zeile der Matrix (siehe Tabelle 3.3) (–1, –1,…,–1);

– Messen Sie den ersten Wert des Ausgabeparameters y 1 ;

– Legen Sie die Werte der Faktoren fest X 1 , X 2 ,… X N zu Ebenen entlang der zweiten Zeile der Matrix (siehe Tabelle 3.3) (+1, –1,…,–1);

– Messen Sie den zweiten Wert des Ausgabeparameters j 2, und so weiter bis zum letzten Experiment N (j N).

Aufgrund des begrenzten experimentellen Materials birgt jedes Experiment ein gewisses Maß an Unsicherheit. Die Durchführung wiederholter (paralleler) Experimente kann aufgrund von Reproduzierbarkeitsfehlern zu unterschiedlichen Ergebnissen führen.

Nehmen wir an, dass das Verteilungsgesetz der Zufallsvariablen gilt j J– normal, dann können Sie den Durchschnittswert ermitteln bei wiederholten Experimenten (für jede Zeile der Matrix).

Statistische Hypothesenprüfung

ICHHypothese– über die Reproduzierbarkeit von Erfahrung.

Um diese Hypothese zu testen, wird eine Reihe wiederholter (paralleler) Experimente durchgeführt (Duplikatexperimente für jede Zeile der Matrix). Berechnen Sie den Durchschnittswert des Ausgabeparameters

,

Wo l– Anzahl wiederholter Experimente,

– die Anzahl der wiederholten (parallelen) Experimente.

Sie können die Varianz jedes einzelnen berechnen - te Erfahrung (für jede Zeile der Matrix):

.

Die Varianz eines Experiments wird durch Mittelung der Varianzen aller Experimente bestimmt:

.

Die Formel kann angewendet werden, wenn die Varianzen homogen sind, das heißt, keine Varianzen sind größer als die anderen.

Die Hypothese über die Gleichheit (Homogenität) der Varianzen wird überprüft durch G- Cochran-Kriterium:

.

Gemäß der Tabelle für Freiheitsgrade

,
finden
.

Wenn
, dann ist die Hypothese über die Homogenität der Dispersionen richtig, das Experiment ist reproduzierbar. Daher können die Varianzen gemittelt und die Varianz des Experiments geschätzt werden , aber für ein bestimmtes Maß an Bedeutung Q.

Signifikanzniveau Q– die Wahrscheinlichkeit, einen Fehler zu machen (eine korrekte Hypothese abzulehnen oder eine falsche Hypothese zu akzeptieren).

Die Erfahrung ist möglicherweise nicht reproduzierbar, wenn:

– das Vorhandensein unkontrollierbarer, unkontrollierbarer Faktoren;

– Faktordrift (Änderung im Zeitverlauf);

– Faktorkorrelationen.

Nachdem Sie die Modellkoeffizienten mithilfe der Formeln berechnet haben

,

Für
,

Für (
), überprüfen HypotheseII– Bedeutung der Koeffizienten für T- Schüler-T-Test.

.

Aus der Tabelle finden wir
Für
– Anzahl der Freiheitsgrade und Signifikanzniveau Q. Anzahl doppelter Experimente ( k) ist im allgemeinen Fall gleich N.

Wenn
, dann sind die Modellkoeffizienten signifikant.

Wenn
, dann sind die Modellkoeffizienten unbedeutend, d.h.
.

Statistische Bedeutungslosigkeit der Modellkoeffizienten B ich kann folgende Gründe haben:

– Höhe des Grundwertes des Faktors X ich 0 nahe dem partiellen Extremumpunkt für die Variable X ich ;

– Variationsintervall klein;

- Faktor X ich hat keinen Einfluss auf den Ausgabeparameter j(fälschlicherweise im Experiment enthalten);

– Der experimentelle Fehler ist aufgrund des Vorhandenseins unkontrollierbarer Faktoren groß.

Schreiben wir das Modell nur mit signifikanten Koeffizienten:

IIIHypothese– Angemessenheit des Modells.

Es wird die Hypothese über die Gleichheit (Homogenität) zweier Varianzen getestet. Die Varianz der Angemessenheit wird nach folgender Formel berechnet:

,

Wo D Anzahl signifikanter Koeffizienten des Modells;

– der vom Modell berechnete Wert des Ausgabeparameters. Berechnen X ich Und X ich h entspricht der ersten Zeile der Matrix. Berechnen Ersetzen Sie Werte mit signifikanten Koeffizienten im Modell X ich Und X ich h entsprechend der zweiten Zeile der Matrix usw.

Das Modell ist den experimentellen Ergebnissen angemessen, wenn die Bedingung erfüllt ist

.

– ermittelt aus der Tabelle für
,
und Signifikanzniveau Q.

Das Modell ist den experimentellen Ergebnissen nicht angemessen, wenn:

– die Form des Approximationspolynoms ist nicht geeignet;

– große Variationsbreite;

– Der experimentelle Fehler ist groß, da unkontrollierbare Faktoren vorhanden sind oder signifikante Faktoren nicht in das Experiment einbezogen werden.

Extreme Experimente planen

Steile Aufstiegsmethode

Untersuchungsobjekt – RES: Verstärker, Generator, Stromquelle.

Als Beispiel nehmen wir einen Verstärker (Abbildung 42).

Verfahren zur Steilaufstiegsmethode (F.30)

1 Zentriert am Ursprung (Basis, Null)
Hierzu führen wir PFE durch:

a) Bestimmen Sie das Variationsintervall für jeden Faktor und berechnen Sie das Ausmaß der Faktorvariation (siehe Tabelle 3.1);

b) Erstellen Sie eine PFE-Matrix N=2 N(siehe Tabelle 3.3);

c) Wir führen eine PFE durch und messen die Werte des Ausgabeparameters j J ;

d) Wir führen eine statistische Verarbeitung der Versuchsergebnisse durch (wir überprüfen die erste Hypothese über die Reproduzierbarkeit des Experiments);

e) Berechnen Sie die linearen Koeffizienten des Modells B 0 , B 1 , B 2 , B 3 und schreiben Sie die Gleichung als lineares Polynom.

Zum Beispiel

Wir prüfen die Signifikanz der Modellkoeffizienten und die Angemessenheit des Modells.

2 Schreiben Sie den Gradienten der Antwortfunktion:

Für das gegebene Beispiel: .

3 Stellen wir das Problem des Findens
.

Berechnen Sie das Produkt
für jeden Faktor, wo
– relativer Wert des Variationsintervalls (Tabelle 3.4).

Tabelle 3.4 – Parameter zur Durchführung der Steilaufstiegsmethode

Parameter

B ich

B ich λ ich

λ ich kv

Gerundet λ ich kv

, kOhm

4 Finden
und definieren Sie das Grundlegende ich Faktor mit
.

Im Beispiel der Basisfaktor .

Für den Basisfaktor nehmen wir einen steilen Aufstiegsschritt
.

5 Wir berechnen die Stufe des steilen Aufstiegs unter Verwendung anderer Faktoren mithilfe der Formel

,

im Zähler B ich kommt mit seinem Schild.

;

.

Aufrunden
.

Lassen Sie uns den relativen Wert der steilen Aufstiegsstufe in einen natürlichen Wert umwandeln:

.

6 „Wir gehen“ in Richtung des Maximums (Extremums) entlang des Gradienten.

Dazu müssen Sie Experimente an neuen Punkten des Plans durchführen.

Zuerst führen wir „mentale“ Experimente durch. „Mentale“ Experimente bestehen aus der Berechnung „vorhergesagter“ Werte des Ausgabeparameters
an bestimmten Punkten
Faktorraum.

Dafür:

a) Wir berechnen die Werte von Faktoren in „mentalen“ Experimenten anhand der Formel

,

Wo H = 1, 2, …, F–Nummer der steilen Aufstiegsstufe (Tabelle 3.5);

Tabelle 3.5 – „Stufen“ eines steilen Aufstiegs

N+ H

Schrittnummer ( H)

b) Wir kodieren die Werte der Faktoren für „mentale“ Experimente und tragen sie in Tabelle 3.6 ein:

;

;

;

;

;

;

;

;

;

;

Tabelle 3.6 – Werte der kodierten Faktoren

N+ H

X 2

c) Einsetzen der codierten Werte der Faktoren in die Gleichung

,

Berechnen Sie den Ausgabeparameter
(,nicht berechnen, sie stehen im PFE).

Lass uns zählen , , für das Beispielmodell:

7 Wir vergleichen die Ergebnisse „mentaler“ Experimente mit den Ergebnissen des Experiments.

Wählen
, korrespondierend zu ( N+ H) „geistige“ Erfahrung.

Wir prüfen das Untersuchungsobjekt (Verstärker)
(Punkt mit Parametern
).

Wir akzeptieren die Bedingungen ( N+ H)-te Erfahrung für das Zentrum des neuen PFE (Basispunkt).

Zum Beispiel, z
=
kOhm;
kOhm;
kOhm

8 Wir führen PFE und statistische Verarbeitung der Ergebnisse durch. Wir finden ein neues Modell (mit anderen Koeffizienten) und wiederholen die Bewegung in Richtung des Optimums.

Da wir mit jedem Zyklus dem Optimum näher kommen, müssen wir den Schritt reduzieren
oder 0,01.

Die Bewegung in Richtung des Optimums wird gestoppt, wenn alle Koeffizienten des Modells übereinstimmen
.

Simplex-Optimierungsmethode (Frage 31)

Das Hauptmerkmal der Simplex-Methode zur Suche nach einem Extremum ist die Kombination der Prozesse der Untersuchung der Reaktionsoberfläche und der Bewegung entlang dieser. Dies wird dadurch erreicht, dass Experimente nur an Punkten des Faktorraums durchgeführt werden, die den Eckpunkten des Simplex entsprechen.

Der Plan basiert nicht auf einem für PFE verwendeten Hyperwürfel, sondern auf einem Simplex – der einfachsten geometrischen Figur mit einer bestimmten Anzahl von Faktoren.

Was ist Simplex?

N-dimensionaler Simplex ist eine konvexe Figur, die gebildet wird durch ( N+ 1)te Punkte (Eckpunkte), die nicht gleichzeitig zu irgendeinem ( N 1)-dimensionaler Unterraum N-dimensionaler Raum ( X N).

Aus zwei Gründen X 1 und X 2 (N=2) ein zweidimensionaler Simplex sieht aus wie ein Dreieck auf einer Ebene (Abbildung 44).

Abbildung 44 – Zweidimensionaler Simplex mit drei Eckpunkten

Für drei Faktoren X 1 , X 2 und X 3 (N=3) Ein dreidimensionaler Simplex sieht aus wie eine dreieckige Pyramide (Abbildung 45).

Abbildung 45 – Dreidimensionaler Simplex mit vier Eckpunkten

Für einen Faktor X 1 (N=1) Ein eindimensionaler Simplex hat die Form eines Segments auf einer Geraden (Abbildung 46).

Abbildung 46 – Eindimensionaler Simplex mit zwei Eckpunkten

Die Verwendung eines Simplex basiert auf seiner Eigenschaft, dass man durch das Verwerfen eines der Scheitelpunkte mit dem schlechtesten Ergebnis und die Verwendung der verbleibenden Fläche einen neuen Simplex erhalten kann, indem man einen Punkt hinzufügt, der ein Spiegelbild des verworfenen ist. An den Eckpunkten des Simplex wird ein Experiment platziert, dann ein Punkt mit dem Minimalwert des Ausgabeparameters ( j J) werden verworfen und ein neuer Simplex mit einem neuen Scheitelpunkt erstellt – ein Spiegelbild des verworfenen. Es bildet sich eine Kette von Simplizes, die sich entlang der Reaktionsfläche bis zum Extremumbereich bewegen (Abbildung 47).

Abbildung 47 – Bewegung zum Optimum entlang der Reaktionsfläche

Um die Berechnungen zu vereinfachen, akzeptieren wir die Bedingung, dass alle Kanten des Simplex gleich sind.

Wenn einer der Scheitelpunkte des Simplex am Koordinatenursprung platziert wird und der Rest so positioniert wird, dass die von diesem Scheitelpunkt ausgehenden Kanten gleiche Winkel mit den entsprechenden Koordinatenachsen bilden (Abbildung 48), dann sind die Koordinaten der Scheitelpunkte des Simplex kann durch eine Matrix dargestellt werden.

Abbildung 48 – Zweidimensionaler Simplex mit einem Scheitelpunkt im Ursprung

Koordinatenmatrix der Eckpunkte eines mehrdimensionalen Simplex

Wenn der Abstand zwischen den Eckpunkten 1 beträgt, dann

;

.

Sequentielles Simplex-Verfahren

1 Lass dich finden
,

2 Legt den Variationsschritt fest für jeden Faktor X ich. Beispiel in Tabelle 3.7.

Tabelle 3.7 – Faktorwerte für den anfänglichen Simplex

Parameter

X ich

X 2

X 3

3 Legt die Größe des Simplex fest (Abstand zwischen den Eckpunkten).
regulärer Simplex.

4 Die Eckpunkte des Simplex werden bezeichnet MIT J, Wo J– Scheitelpunktnummer. Im Beispiel J=4.

5 Der anfängliche Simplex ist orientiert. Dazu wird einer der Eckpunkte des anfänglichen Simplex ( MIT J 0 ) wird am Ursprung platziert. Als Nullpunkt des anfänglichen Simplex werden nämlich die Nominalwerte der Faktoren angenommen.

Eine Koordinatenmatrix der Scheitelpunkte des Simplex wird mit dem ersten Scheitelpunkt im Ursprung erstellt und die Koordinatenwerte der Scheitelpunkte werden in die Tabelle eingetragen (Tabelle 3.8).

Tabelle 3.8 – Koordinaten der Scheitelpunkte des Simplex

Scheitelpunktkoordinaten

X ich

X N

Berechnen Sie die Koordinaten der verbleibenden Eckpunkte des anfänglichen Simplex ( MIT J 0 ):

Die Berechnungsergebnisse werden in die Tabelle (Tabelle 3.9) eingetragen.

Tabelle 3.9 – Koordinaten der Eckpunkte und experimentelle Ergebnisse

Simplex

(MIT j0)

Scheitelpunktkoordinaten

j J

X 11 =X 10

X 21 =X 20

X 31 =X 30

j 2

MIT J *

X 1 J *

X 2 J *

X 3 J *

j J *

Die Koordinatenwerte der Eckpunkte werden mithilfe von Formeln berechnet. Beispielsweise N=3 wir haben:

;
;
;

;
;
;

;
;
.

6 Das Experiment wird an den Eckpunkten des Simplex durchgeführt.

Stellen Sie dazu die Werte der Faktoren ein, die dem ersten Scheitelpunkt des anfänglichen Simplex entsprechen MIT 10 und messen Sie die Werte des Ausgabeparameters bei 1 . Legen Sie die Werte der Faktoren fest, die dem zweiten Scheitelpunkt entsprechen MIT 20, und messen bei 2 .

Die für das Beispiel berechneten Faktorwerte entsprechend den Koordinaten der Eckpunkte sind in Tabelle 3.10 angegeben.

Tabelle 3.10 – Faktorwerte an den Eckpunkten des Simplex

Simplex

(MIT j0)

Scheitelpunktkoordinaten

j J

j 1 (5V)

j 2 (6V)

j 3 (4 IN)

j 4 (8V)

j 3 * (9V)

j 1 *(5V)

Berechnung der Scheitelpunktkoordinaten für N=3:

,

MIT 20 X 12 = 10+0,95∙2=11,9 kOhm;

X 22 = 3,0+0,24∙0,6=3,144 kOhm;

X 32 = 100+0,24∙20=104,8 kOhm;

MIT 30 X 13 = 10+0,24∙2=10,48 kOhm;

X 23 = 3,0+0,95∙0,6=3,57 kOhm;

X 33 = 100+0,24∙20=104,8 kOhm;

MIT 40 X 14 = 10+0,24∙2=10,48 kOhm;

X 24 = 3,0+0,24∙0,6=3,144 kOhm;

X 34 = 100+0,95∙20=119 kOhm.

7 Vergleichen Sie die Werte des Ausgabeparameters und verwerfen Sie den Scheitelpunkt, der dem Mindestwert entspricht j.

8 Berechnen Sie die Koordinaten des neuen Scheitelpunkts des Spiegelbilds des schlechtesten Punktes („Sternpunkt“) mithilfe der Formel

Wo – Koordinatenbezeichnung J-ter Scheitelpunkt (Punkt), ich=1,2,…,N– Faktorzahl, J=1,2,…, (N+1) – Nummer des Scheitelpunkts des Simplex.

Im Beispiel
B ist der Mindestwert, daher wird es der Spiegelpunkt sein
. Dafür werden die Scheitelpunktkoordinaten berechnet als:

9 Führen Sie ein Experiment an einem neuen Scheitelpunkt durch MIT 3 * neuer Simplex (C 10, MIT 20 , MIT 3 *, MIT j 3 *.

10 Vergleichen Sie die Werte des Ausgabeparameters des neuen Simplex ( j 1 , j 2 , j 3 *, bei 4) und verwerfen Sie Scheitelpunkte mit minimalem Wert j(Zum Beispiel j 1 =5V). Wir bauen einen neuen Simplex mit einem neuen Scheitelpunkt MIT 1 *.

Berechnen Sie dazu die Koordinaten des Scheitelpunkts:

Führen Sie das Experiment erneut an einem neuen Scheitelpunkt durch MIT* 1 neuer Simplex (C 1 *, MIT 20 , MIT 3 *, MIT 40) und messen Sie den Wert des Ausgabeparameters j 1 *.

Vergleich von Punkten mit Ausgabeparametern j 1 *=5, j 2 =6, j 3 * =9, j 4 =8. Verwerfen Sie den Scheitelpunkt mit dem Minimum j 1 *=5. Und wieder legen wir einen neuen „Sternpunkt“ fest.

Die Bewegung in Richtung des Optimums wird gestoppt, wenn der Simplex zu rotieren beginnt, d. h. derselbe Scheitelpunkt kommt in mehr als ( N+1) aufeinanderfolgende Simplexe.

11 Abschließend erfolgt die PFE und die statistische Aufbereitung der Ergebnisse. Finden Sie ein Modell. Die Bewegung in Richtung des Optimums wird gestoppt, wenn alle Koeffizienten des Modells übereinstimmen
.

Technische Aufgabe (TK, Leistungsbeschreibung)(Frage 8) - das Quelldokument für den Entwurf eines Bauwerks oder Industriekomplexes, den Entwurf eines technischen Geräts (Gerät, Maschine, Steuerungssystem usw.), die Entwicklung von Informationssystemen, Standards oder die Durchführung wissenschaftlicher Forschungsarbeiten (F&E).

Die technische Spezifikation enthält die grundlegenden technischen Anforderungen an eine Struktur, ein Produkt oder eine Dienstleistung sowie die Ausgangsdaten für die Entwicklung; Die technische Spezifikation gibt den Zweck des Objekts, seinen Umfang, die Entwicklungsstadien der Entwurfsdokumentation (Design, Technologie, Software usw.), seine Zusammensetzung, Fristen usw. sowie besondere Anforderungen aufgrund der Besonderheiten des Objekts an Objekt selbst oder seine Bedingungen Operation. Technische Spezifikationen werden in der Regel auf der Grundlage einer Analyse der Ergebnisse von Vorstudien, Berechnungen und Modellierungen erstellt.

Als Kommunikationsinstrument in der Kommunikationsverbindung zwischen Kunde und Auftragnehmer ermöglichen Ihnen die Leistungsbeschreibungen Folgendes:

    beide Seiten

    • das fertige Produkt präsentieren

      Führen Sie eine Punkt-für-Punkt-Prüfung des fertigen Produkts durch (Abnahmeprüfung – Durchführung). Tests)

      Reduzieren Sie die Anzahl der Fehler, die mit sich ändernden Anforderungen aufgrund ihrer Unvollständigkeit oder ihres Fehlers verbunden sind (in allen Phasen und Phasen der Erstellung, mit Ausnahme von Tests)

    zum Kunden

    • erkennen, was genau er braucht

      vom Auftragnehmer die Einhaltung aller in den technischen Spezifikationen genannten Bedingungen verlangen

    zum Darsteller

    • den Kern der Aufgabe verstehen, dem Kunden das „technische Erscheinungsbild“ des zukünftigen Produkts, Softwareprodukts oder automatisierten Systems zeigen

      Planen Sie die Umsetzung des Projekts und arbeiten Sie gemäß dem Plan

      sich weigern, Arbeiten auszuführen, die nicht in den technischen Spezifikationen aufgeführt sind

Leistungsbeschreibung – das Originaldokument, das das Verfahren und die Bedingungen für die Ausführung der Arbeiten im Rahmen des Vertrags definiert und den Zweck, die Ziele, die Grundsätze der Umsetzung, die erwarteten Ergebnisse und die Fristen für die Fertigstellung der Arbeiten enthält.

Die Leistungsbeschreibung ist das grundlegende Dokument des gesamten Projekts und aller Beziehungen zwischen Kunde und Entwickler. Korrekte technische Spezifikationen, die von allen interessierten und verantwortlichen Personen verfasst und vereinbart werden, sind der Schlüssel zur erfolgreichen Umsetzung des Projekts.

Frage 9.

Entwicklungsstadium

Phasen der Arbeitsausführung

Technischer Vorschlag

Auswahl an Materialien. Entwicklung eines technischen Vorschlags mit Zuordnung des Buchstabens „P“ zu Dokumenten. Prüfung und Genehmigung des technischen Vorschlags

Vorläufiger Entwurf

Entwicklung eines Vorentwurfs mit Zuordnung des Buchstabens „E“ zu Dokumenten. Herstellung und Prüfung von Mock-ups (falls erforderlich). Überprüfung und Genehmigung des vorläufigen Entwurfs.

Technisches Projekt

Entwicklung eines technischen Projekts mit Zuordnung des Buchstabens „T“ zu Dokumenten. Herstellung und Prüfung von Mock-ups (falls erforderlich). Überprüfung und Genehmigung des technischen Entwurfs.

Detaillierte Konstruktionsdokumentation: a) ein Prototyp (Pilotcharge) eines Produkts, das für die Serien- (Massen-) oder Einzelproduktion (mit Ausnahme der einmaligen Produktion) bestimmt ist.

Entwicklung einer Konstruktionsdokumentation zur Herstellung und Prüfung eines Prototyps (Vorserie), ohne Vergabe eines Buchstabens. Herstellung und Vorprüfung eines Prototyps (Vorserie). Korrektur der Konstruktionsdokumentation basierend auf den Ergebnissen der Herstellung und Vorprüfung eines Prototyps (Pilotcharge) mit Zuordnung des Buchstabens „O“ zu den Dokumenten. Abnahmetests eines Prototyps (Pilotcharge). Korrektur der Konstruktionsdokumentation basierend auf den Ergebnissen der Abnahmetests eines Prototyps (Vorserie) mit Zuordnung des Buchstabens „O 1“ zu den Dokumenten. Für ein im Auftrag des Verteidigungsministeriums entwickeltes Produkt ggf. Neufertigung und Prüfung eines Prototyps (Pilotcharge) gemäß der Dokumentation mit dem Buchstaben „O 1“ und Anpassung der Konstruktionsunterlagen mit der Zuordnung des Buchstabens „O 2“.

b) Serienproduktion (Massenproduktion).

Herstellung und Prüfung der Installationsserie gemäß der Dokumentation mit dem Buchstaben „O 1“ (oder „O 2“). Korrektur der Konstruktionsdokumentation auf der Grundlage der Ergebnisse der Herstellung und Prüfung der Installationsserie sowie der Ausrüstung des technologischen Prozesses der Produktherstellung mit Zuordnung des Buchstabens „A“ zu den Konstruktionsdokumenten. Für ein im Auftrag des Verteidigungsministeriums entwickeltes Produkt ggf. - Herstellung und Prüfung der Leit-(Kontroll-)Serie gemäß Dokumentation mit dem Buchstaben „A“ und entsprechende Anpassung der Unterlagen mit der Zuordnung des Buchstabens „B“

Die verbindliche Umsetzung von Entwicklungsstufen und -phasen der Konstruktionsdokumentation wird durch die technischen Spezifikationen für die Entwicklung festgelegt.

Hinweise: 1. Die Phase „Technischer Vorschlag“ gilt nicht für die Konstruktionsdokumentation von Produkten, die im Auftrag des Verteidigungsministeriums entwickelt wurden. 2. Die Notwendigkeit, eine Dokumentation für die Herstellung und Prüfung von Prototypen zu entwickeln, wird vom Entwickler festgestellt. 3. Die Konstruktionsdokumentation für die Herstellung von Modellen wird zu folgenden Zwecken entwickelt: Überprüfung der Funktionsprinzipien des Produkts oder seiner Komponenten in der Vorentwurfsphase; Überprüfung der wichtigsten Designlösungen des zu entwickelnden Produkts oder seiner Komponenten in der technischen Designphase; vorläufige Überprüfung der Machbarkeit der Änderung einzelner Teile des hergestellten Produkts, bevor diese Änderungen in die Arbeitsentwurfsdokumente des Prototyps (Pilotcharge) übernommen werden. 4. Unter einmaliger Herstellung versteht man die gleichzeitige Herstellung eines oder mehrerer Exemplare eines Erzeugnisses, deren weitere Herstellung nicht vorgesehen ist.

2. Arbeitsentwurfsunterlagen für Einzelproduktionsprodukte, die zur einmaligen Produktion bestimmt sind, werden während ihrer Entwicklung, der die Umsetzung einzelner Entwicklungsstufen (technischer Vorschlag, Vorentwurf, technischer Entwurf) vorangehen kann, mit dem Buchstaben „I“ versehen , entsprechend die in der Tabelle angegebenen Arbeitsschritte.

1, 2. (Geänderte Ausgabe, Änderung Nr. 1).

3. (Gelöscht, Änderung Nr. 1).

4. Technischer Vorschlag- eine Reihe von Konstruktionsdokumenten, die technische Studien und Machbarkeitsstudien für die Machbarkeit der Entwicklung einer Produktdokumentation enthalten müssen, basierend auf einer Analyse der technischen Spezifikationen des Kunden und verschiedener Optionen für mögliche Produktlösungen, einer vergleichenden Bewertung von Lösungen unter Berücksichtigung der Konstruktions- und Betriebsmerkmale der entwickelten und bestehenden Produkte sowie Patentrecherche.

Der technische Vorschlag ist nach der Abstimmung und Genehmigung in der vorgeschriebenen Weise die Grundlage für die Entwicklung eines vorläufigen (technischen) Entwurfs. Arbeitsumfang - gemäß GOST 2.118-73.

5. Vorläufiger Entwurf- eine Reihe von Konstruktionsdokumenten, die grundlegende Konstruktionslösungen enthalten müssen, die einen allgemeinen Überblick über die Struktur und das Funktionsprinzip des Produkts geben, sowie Daten, die den Zweck, die Hauptparameter und die Gesamtabmessungen des zu entwickelnden Produkts definieren.

Der Vorentwurf dient nach der Abstimmung und Genehmigung in der vorgeschriebenen Weise als Grundlage für die Entwicklung eines technischen Projekts oder einer Arbeitsentwurfsdokumentation. Arbeitsumfang - gemäß GOST 2.119-73.

6. Technisches Projekt- eine Reihe von Konstruktionsdokumenten, die endgültige technische Lösungen enthalten müssen, die ein vollständiges Bild der Struktur des zu entwickelnden Produkts vermitteln, sowie Ausgangsdaten für die Entwicklung der Arbeitsdokumentation.

Der technische Entwurf dient nach Abstimmung und Genehmigung in der vorgeschriebenen Weise als Grundlage für die Erstellung einer funktionierenden Entwurfsdokumentation. Arbeitsumfang - gemäß GOST 2.120-73. 7. Zuvor entwickelte Konstruktionsunterlagen werden bei der Entwicklung neuer oder der Modernisierung hergestellter Produkte in folgenden Fällen verwendet:

a) in der Konstruktionsdokumentation (technischer Vorschlag, vorläufiger und technischer Entwurf) und der Arbeitsdokumentation eines Prototyps (Nullserie) – unabhängig von der Beschriftung der verwendeten Dokumente;

b) in der Konstruktionsdokumentation mit den Buchstaben „O 1“ („O 2“), „A“ und „B“, wenn der Buchstabe des verwendeten Dokuments gleich oder höher ist.

Die Beschriftung einer vollständigen Konstruktionsdokumentation richtet sich nach dem niedrigsten der Buchstaben, die in den im Satz enthaltenen Dokumenten angegeben sind, mit Ausnahme von Dokumenten zu gekauften Produkten.

(Geänderte Ausgabe, Änderung Nr. 1).

8. Konstruktionsunterlagen, deren Originalinhaber andere Unternehmen sind, dürfen nur in Form von registrierten Kopien oder Duplikaten verwendet werden.

Systematischer Ansatz (Ausgabe 10) - Dies ist die Richtung, ein Objekt im Gegensatz zu den bisher verwendeten (physisch, strukturell usw.) umfassend von verschiedenen Seiten zu untersuchen. Bei einem systemischen Ansatz im Rahmen der Systemmodellierung ist es zunächst notwendig, den Zweck der Modellierung klar zu definieren. Es ist zu bedenken, dass es unmöglich ist, ein wirklich funktionierendes System (Originalsystem) vollständig zu simulieren, sondern dass bei der Lösung eines konkreten Problems ein Modell (Modellsystem) für das gestellte Problem erstellt werden muss. Letztendlich sollte die Modellierung die realen Verhaltensprozesse der untersuchten Systeme angemessen widerspiegeln. Eines der Ziele der Modellierung ist ihre kognitive Ausrichtung. Die Erfüllung dieses Ziels wird durch die richtige Auswahl der Systemelemente, der Struktur und Verbindungen zwischen ihnen sowie durch Kriterien zur Beurteilung der Angemessenheit des Modells in das erstellte Modell erleichtert. Dieser Ansatz vereinfacht die Klassifizierung realer Systeme und ihrer Modelle.

Daher umfasst der systematische Ansatz im Allgemeinen die folgenden Schritte zur Lösung des Problems:

    Studium des Fachgebiets (qualitative Analyse).

    Das Problem identifizieren und formulieren.

    Mathematische (quantitative) Formulierung des Problems.

    Vollständige und/oder mathematische Modellierung der untersuchten Objekte und Prozesse.

    Statistische Verarbeitung von Simulationsergebnissen.

    Suche und Bewertung alternativer Lösungen.

    Formulierung von Schlussfolgerungen und Vorschlägen zur Lösung des Problems.

Frage 17Anforderungen an ES-Designs und Indikatoren für deren Qualität Bei der Lösung von Problemen beim Entwurf kundenspezifischer LSIs und Mikrowellen-IC-Kristalle werden die Aufgaben der Eingangskontrolle von Quelldaten, Beschichtung, Layout, relativer Anordnung von Komponenten mit einer minimalen Anzahl von Schnittpunkten, Routing, Topologiekontrolle, Herstellung von Fotomaskenentwürfen und deren Originalen gelöst . Das Wichtigste ist, dass ein Funkingenieur-Designer-Technologe ein Benutzer von Computertechnologie ist und nicht deren Entwickler und Programmierer. Daher benötigt er die Grundlagen dieses Wissens, um seine Probleme im automatisierten Design kompetent zu lösen. Zu den Hauptanforderungen an ES-Designs gehören hochwertige (elektrische) Energieinformationsindikatoren, Zuverlässigkeit, Festigkeit, Steifigkeit, Herstellbarkeit, Kosteneffizienz und Serialisierbarkeit des Designs bei geringem Material- und Stromverbrauch. Konstruktionen, die diese Anforderungen erfüllen, müssen eine Mindestmasse m, ein Volumen V, einen Stromverbrauch P, eine Ausfallrate l, Kosten C und Entwicklungszeit T aufweisen, müssen vibrations- und stoßfest sein, unter normalen thermischen Bedingungen funktionieren und einen ausreichend hohen Ertragsprozentsatz aufweisen Herstellung geeigneter Produkte. Indikatoren, die diese Eigenschaften charakterisieren, können in die folgenden Gruppen eingeteilt werden: absolut (in absoluten Einheiten), komplex (dimensionslos, verallgemeinert), spezifisch (in spezifischen Werten) und relativ (dimensionslos, normalisiert). Zu den absoluten Indikatoren zählen das Gewicht der Struktur, ihr Volumen, der Stromverbrauch, die Ausfallrate, die Kosten und die Entwicklungszeit. Manchmal wird diese Gruppe von Indikatoren als Materialindikatoren (M) bezeichnet und beantwortet die Frage, was und wie das Gerät hergestellt wird. Die Gruppe energieinformativer Parameter wird in diesen Fällen als Funktionsindikatoren (F) bezeichnet und beantwortet die Frage, warum und was das Gerät tun kann. Aus diesen beiden Gruppen können allgemeinere Qualitätsindikatoren gewonnen werden, beispielsweise ein komplexer Indikator und spezifische Qualitätsindikatoren. Ein komplexer Qualitätsindikator ist die Summe normalisierter privater Materialindikatoren mit ihren „Gewichtungs“-Koeffizienten als Signifikanzkoeffizienten dieses Parameters für die Gesamtqualität der Struktur: K=j m m o +j V V o +j l l o +j P P o +j C C o +j T T o , ( 1) wobei m o , V o , l o , P o , C o , T o normalisierte Werte von Materialparametern relativ zu den in den technischen Spezifikationen angegebenen Werten oder das Verhältnis dieser Materialparameter für verschiedene sind vergleichende Designoptionen, j m , j V , j l , j P , j C , j T – Signifikanzkoeffizienten privater Materialparameter, bestimmt durch die Methode der Expertenbewertung; normalerweise wird ihr Wert im Bereich von 0 bis 1 gewählt. Ausdruck (1) zeigt, dass die Qualität des Designs bei gleichen Funktionsparametern umso höher ist, je kleiner jeder der Materialparameter ist. Signifikanzkoeffizienten werden von einer Gruppe von Experten (vorzugsweise mindestens 30 Personen) ermittelt, die je nach Zweck und Gegenstand der Installation des RES den Parametern jeweils den einen oder anderen Wert des Signifikanzkoeffizienten zuordnen. Als nächstes werden ihre Bewertungsergebnisse zusammengefasst, die Durchschnittswerte und der quadratische Mittelwert dieser Koeffizienten ermittelt, die akzeptablen Abweichungsfelder gefunden und die „Fehler“ der Experten eliminiert, die ausgeschlossen werden die Gesamtheit und dann werden die gleichen Datenverarbeitungsvorgänge wiederholt. Als Ergebnis erhält man die durchschnittlichen, „zuverlässigen“ Werte dieser Koeffizienten und damit die Gleichung für die Berechnungen selbst. Spezifische Indikatoren für die Qualität einer Struktur umfassen spezifische Strukturkoeffizienten: Packungsdichte von Elementen in einer Fläche oder einem Volumen, spezifische Verlustleistung in einer Fläche oder einem Volumen (thermische Spannung einer Struktur), spezifische Masse (Dichte) einer Struktur usw Menge des Gasflusses vom Volumen einer Struktur (Grad der Dichtheit). Spezifische Koeffizienten bewerten den Fortschritt der Entwicklung neuer Designs im Vergleich zu früheren Analoga und Prototypen. Sie werden als k=M/F ausgedrückt und haben für jeden Typ von Funkgerät oder Box einen spezifischen Ausdruck für die Dimension der Größen. Wenn wir also für Antennengeräte die Masse als Hauptparameter nehmen, ist der spezifische Koeffizient k A = m/G [kg/Gewinneinheit], wobei G der Antennengewinn ist; für Sendegeräte k per =m/P out [kg/W], wobei P out die Ausgangsleistung des Senders ist. Da Sendegeräte durch eine Vielzahl funktionaler Parameter (Verstärkung, Rauschzahl, Bandbreite, Ausgangsleistung usw.) gekennzeichnet sind, kann die funktionale Komplexität und Qualität der für Mikrobaugruppen ausgeführten Funktionen anhand der Anzahl der entwickelten Mikrobaugruppen (n KMU) beurteilt werden. , dann k pro = m/ n MSB [kg/MSB]. Ebenso können Sie die spezifischen Koeffizienten in Bezug auf andere Materialparameter berechnen und deren Werte zum Vergleich von Analoga erhalten, ausgedrückt in [cm 3 /Verstärkungseinheit], [cm 3 /W], [cm 3 /MSB], [rub/unit. Gain], [RUB/W], [RUB/SME] usw. Solche Einschätzungen sind am offensichtlichsten und erfordern keinen Nachweis, was ohne Emotionen besser und was schlechter ist. Die Packungsdichte von Elementen in einer Fläche oder einem Volumen wird durch die folgenden Ausdrücke geschätzt: g S = N/S und g V = N/V, wobei N die Anzahl der Elemente und S und V die Fläche bzw. das Volumen sind, die sie einnehmen . Die Anzahl der Elemente wird als N=N IC *n e +n ERE bestimmt, wobei N IC die Anzahl der ICs im Gerät ist, n e die Anzahl der Elemente in einem IC (Kristall oder Gehäuse) ist und n ERE die Anzahl von ist montierte elektrische Funkelemente im Design einer Zelle, eines Blocks, eines Gestells. Die Packungsdichte ist der Hauptindikator für den Integrationsgrad von Strukturen einer bestimmten Ebene. Wenn also für Halbleiter-ICs mit einem Kristallvolumen von 1 mm 3 und einer Anzahl von darin enthaltenen Elementen von 40 Einheiten g IC = 40 * 10 3 el/cm 3 gilt, dann ist auf der Ebene einer digitalen RES-Einheit g b = 40 el/cm3 . Dies geschieht aufgrund der Tatsache, dass die Kristalle verpackt werden, dann werden die verpackten ICs mit einem bekannten Spalt auf der Platine platziert, und wenn der FC zu einem Block zusammengebaut wird, entstehen erneut zusätzliche Lücken zwischen dem FC-Gehäuse und den Innenwänden des Paket. Und das Gehäuse selbst hat ein Volumen (Volumen der Wände und der Frontplatte), in dem sich keine nützlichen (Schaltungs-)Elemente befinden. Mit anderen Worten: Beim Übergang von einer Layoutebene zur anderen kommt es zu einem Verlust (Zerfall) an nutzbarem Volumen. Wie weiter unten erläutert wird, wird der Zerfallskoeffizient durch das Verhältnis des Gesamtvolumens zum Nutzvolumen bestimmt. Für einen Block vom digitalen Typ wird es ausgedrückt alsq V =V b /N IC *V IC, wobei V IC das Volumen einer Mikroschaltung ist (entweder unverpackt oder verpackt, abhängig von der Entwurfsmethode). Unter Berücksichtigung dieses Ausdrucks können wir schreiben, dass g b = (N IS *n e)/(q V * N IS *V IS) =g IS / q V, (2) wobei g IS =n e / V IS – Dichtepackung Elemente in ICs. Wie oben gezeigt, beträgt dieser Wert bei unverpackten digitalen ICs mit geringem Integrationsgrad 40.000 Zellen/cm 3 . Beim Einbau von unverpackten ICs in ein Gehäuse, zum Beispiel vom Typ IV, erhöht sich das Volumen um etwa das 200-fache, beim Einbau von gehäusten ICs auf eine Platine und deren anschließender Anordnung im Gehäusevolumen noch einmal um das Fünffache, d. h. Der Gesamtzerfallskoeffizient liegt bereits bei 10 3, was zu g b = 40 el/cm 3 führt, was typisch für digitale RES-Anlagen der dritten Generation ist. Aus Ausdruck (2) folgt, dass der Entwurf hochintegrierter digitaler Geräte vom Entwickler nicht nur die Verwendung von LSI und VLSI, sondern auch ein recht kompaktes Layout erfordert. Für Designs analoger ECs, bei denen es keine klar definierten regelmäßigen Strukturen aktiver Elemente gibt und deren Anzahl der Anzahl der passiv montierten ECs entspricht oder sogar darunter liegt (normalerweise wird ein analoger IC von bis zu 10 passiven Elementen „umrahmt“): Kondensatoren zusammen mit Spulen und Filtern), erhöhen sich die Volumenzerfallskoeffizienten sogar noch mehr (3…4-fach). Daraus folgt, dass es unmöglich ist, Konstrukte unterschiedlicher Hierarchieebenen und unterschiedlicher Zweck- und Funktionsprinzipien zu vergleichen, d.h. Dieser Qualitätsindikator ist nicht für alle ES universell. Darüber hinaus fügen wir hinzu, dass, wenn in einem kompakten Design ein IC mit geringem Integrationsgrad (bis zu 100 Elemente pro Gehäuse) und in einem anderen ein schlecht konfigurierter, aber auf einem LSI verwendeter IC verwendet wurde, dies möglicherweise der Fall ist Dies ist ein Indikator dafür, dass das zweite Design besser ist, obwohl deutlich zu erkennen ist, dass es schlechter ist. Daher ist im Falle der Verwendung einer Elementbasis mit unterschiedlichem Integrationsgrad ein Vergleich von Strukturen hinsichtlich der Layoutdichte rechtswidrig. Somit ist die Packungsdichte von Elementen im Volumen einer Struktur eine gültige Beurteilung der Qualität der Struktur, dieses Kriterium muss jedoch kompetent und objektiv zum Vergleich herangezogen werden. Die spezifische Verlustleistung bestimmt die thermische Intensität im Volumen der Struktur und wird berechnet als P spezifische Verlustleistung = P Verlustleistung /V, wobei P Verlustleistung @(0,8…0,9) P für digitale reguläre Strukturen ist. Im Analogbereich, insbesondere in Empfangsverstärkerzellen und -blöcken, sind Verlustleistung und thermische Belastung gering und das thermische Regime ist normalerweise normal und weist einen großen Spielraum für diesen Parameter auf. Bei digitalen Geräten ist dies in der Regel nicht zu beobachten. Je höher die Anforderungen an die Geschwindigkeit von Rechenanlagen sind, desto mehr Strom wird verbraucht, desto höher ist die thermische Intensität. Bei erneuerbaren Energien in nicht strukturierten KMU verschärft sich dieses Problem noch mehr, da das Volumen beim Übergang von der III. zur IV. Generation, wie oben erwähnt, um das 5- bis 6-fache abnimmt. Daher ist bei der Konstruktion digitaler Blöcke in Open-Frame-KMU das Vorhandensein leistungsstarker Kühlkörper (Metallrahmen, Kupferschienen usw.) zwingend erforderlich. In einigen Fällen werden Kühlsysteme auch in Bord-RES verwendet. Der Typ wird nach dem Kriterium der spezifischen Verlustleistung von der Oberfläche des Blocks ausgewählt (P¢ ud.rass =P rass /S, W/cm 2). Für digitale Blöcke der III. Generation beträgt die zulässige Wärmeintensität 20...30 W/dm 3 unter Bedingungen natürlicher Konvektion und wenn das Gehäuse gegenüber der Umgebung um nicht mehr als 40 °C überhitzt ist, und für Blöcke der IV. Generation beträgt etwa 40 W/dm 3 oder mehr. Das spezifische Gewicht der Struktur wird als m¢=m/V ausgedrückt. Dieser Parameter galt früher als Hauptkriterium zur Beurteilung der Qualität der Ausrüstung, und dann gab es eine bedingte Einteilung der Strukturen in „sinkendes REA“ (m¢>1 g/cm 3) und „schwebendes REA“ (m¢).<1 г/см 3). Если конструкция была тонущая, то считали, что она компактна и хорошо скомпонована (мало воздуха и пустот в корпусе). Однако с появление IV поколения конструкций РЭС, где преобладающей долей массы являлись металлические рамки и с более толстыми стенками корпус (для обеспечения требуемой жесткости корпуса при накачке внутрь его азота), даже плохо скомпонованные ячейки оказывались тонущими. И чем больше и впустую расходовался металл, тем более возрастал этот показатель, переставший отражать качество компоновки и конструкции в целом. Поэтому для сравнения качества конструкций по этому критерию отказались, но он оказался полезным для решения другой задачи, а именно, распределение ресурса масс в конструктивах. Величина истечения газа из объема конструкции оценивает степень ее герметичности и определяется как D=V г *р/t , (3) где V г - объем газа в блоке, дм 3 ; р – величина перепада внутреннего и внешнего давления (избыточного давления) в блоке, Па (1 Па=7,5 мкм рт.ст.); t - срок службы или хранения, с. Для блоков с объемом V г =0,15…0,2 дм 3 в ответственных случаях при выдержке нормального давления к концу срока службы (8 лет) требуется D=6,65*10 -6 дм 3 *Па/с (или 5,5*10 -5 дм 3 *мкм рт.ст/с), в менее ответственных случаях полная вакуумная герметизация не обеспечивается и степень герметичности может быть уменьшена до значения 10 -3 дм 3 *мкм.рт.ст/с. В группе относительных показателей находятся коэффициенты дезинтеграции объема и массы, показатель функционального расчленения, величина перегрузки конструкции при вибрациях и ударах, а также многие параметры технологичности конструкции такие, как коэффициенты унификации и стандартизации, коэффициент повторяемости материалов и изделий электронной техники, коэффициент автоматизации и механизации и др. Последние достаточно хорошо известны из технологических дисциплин, поэтому повторять их содержание и влияние на качество конструкции не станем. Как уже отмечалось выше при рассмотрении плотности упаковки, в конструкциях РЭС разного уровня компоновки присутствуют потери полезного объема, а следовательно, и масс при корпусировании ИС, компоновке их в ячейки и далее в блоки, стойки. Уровень их может быть весьма значительным (в десятки и сотни раз). Оценки этих потерь (дезинтеграции) объемов и масс проводится с помощью коэффициентов дезинтеграции q V и q m соответственно, выражаемые как отношение суммарного объема (массы) конструктива к его полезному объему (массе), или q V =V/V N , q m =m/m N , (4) где V N =SV с.э., m N =Sm с.э. – полезный объем и масса схемных элементов. При переходе с одного уровня компоновки на более высший уровень коэффициенты дезинтеграции объема (или массы) q V(m) показывают, во сколько раз увеличиваются суммарные объем (или масса) комплектующих изделий к следующей конкретной форме их компоновки, например при переходе от нулевого уровня – корпусированных микросхем к первому – функциональной ячейке имеемq V(m) =V(m) ФЯ /SV(m) ИС, при переходе от уровня ячейки к блоку q V(m) = V(m) б /SV(m) ФЯ и т.д., где V(m) ИС, V(m) ФЯ, V(m) б – соответственно объемы (или массы) микросхемы, ячейки, блока. Как и в случае критерия плотности упаковки заметим, что коэффициенты дезинтеграции реально отражают качество конструкции, в частности ее компактность, но и они не могут быть использованы для сравнения конструктивов, если они относятся к разным поколениям, разным уровням конструктивной иерархии или ЭС различного назначения и принципа действия. Анализ существующих наиболее типовых и компактных конструктивов различных поколений и различного назначения позволил получить средние значения их коэффициентов дезинтеграции объема и массы (табл. 1). там же приведены значения удельной массы конструктивов. Показатель функционального разукрупнения конструкции представляет собой отношение количества элементов N в конструктиве к количеству выводов М из него, или ПФР=N/M. Например для цифровой бескорпусной МСБ, содержащей 12 бескорпусных ИС с 40 элементами в каждом кристалле (N=40*12=480 элементов) и 16 выходными площадками, имеем ПФР=480/16=30. Чем выше ПФР, тем ближе конструкция к конструктиву высокой интеграции, тем меньше монтажных соединений между ними, тем выше надежность и меньше масса и габариты. Наибольшее число функций и элементов монтажа "вбирают" в себя БИС¢ы и СБИС¢ы. Однако и у них есть предел степени интеграции, оговариваемый именно количеством допустимых выводов от активной площади кристалла к периферийным контактным площадкам. Наконец, величина перегрузки n действующих на конструкцию вибраций или ударов оценивается как отношение возникающего от их действия ускорения масс элементов конструкции к ускорению свободного падения, или n=a/g, где а – величина ускорения при вибрации (или ударе). Вибро- и ударопрочность конструкции определяются значениями величин допускаемых перегрузок при вибрациях и ударах, которые может выдержать конструкция без разрушения своих связей между элементами. Для того, чтобы эти свойства были обеспечены, необходимо, чтобы реально возникающие в тех или иных условиях эксплуатации перегрузки не превышали предельно допустимых для конкретной конструкции.

Frage 26

Unter experimenteller Planung versteht man die Auswahl eines experimentellen Plans, der bestimmte Anforderungen erfüllt, eine Reihe von Maßnahmen zur Entwicklung einer experimentellen Strategie (von der Beschaffung a priori-Informationen bis zur Beschaffung eines praktikablen mathematischen Modells oder der Bestimmung optimaler Bedingungen). Dabei handelt es sich um eine gezielte Kontrolle eines Experiments, die unter Bedingungen unvollständiger Kenntnis des Mechanismus des untersuchten Phänomens durchgeführt wird.

Bei der Messung, der anschließenden Datenverarbeitung sowie der Formalisierung der Ergebnisse in Form eines mathematischen Modells treten Fehler auf und einige der in den Originaldaten enthaltenen Informationen gehen verloren. Der Einsatz experimenteller Planungsmethoden ermöglicht es, den Fehler des mathematischen Modells zu bestimmen und seine Angemessenheit zu beurteilen. Sollte sich die Genauigkeit des Modells als unzureichend erweisen, ermöglicht der Einsatz experimenteller Planungsmethoden eine Modernisierung des mathematischen Modells durch zusätzliche Experimente ohne Verlust bisheriger Informationen und mit minimalen Kosten.

Der Zweck der Versuchsplanung besteht darin, solche Bedingungen und Regeln für die Durchführung von Experimenten zu finden, unter denen es möglich ist, mit geringstem Arbeitsaufwand zuverlässige und zuverlässige Informationen über ein Objekt zu erhalten, sowie diese Informationen in kompakter und komfortabler Form darzustellen mit einer quantitativen Beurteilung der Genauigkeit.

Lassen Sie die Eigenschaft (Y) eines Objekts, das uns interessiert, von mehreren (n) unabhängigen Variablen (X1, X2, ..., Xn) abhängen und wir möchten die Natur dieser Abhängigkeit herausfinden - Y=F(X1, X2 , ..., Xn), über die wir nur eine allgemeine Vorstellung haben. Der Wert Y wird als „Antwort“ bezeichnet, und die Abhängigkeit Y=F(X1, X2, …, Xn) selbst wird als „Antwortfunktion“ bezeichnet.

Die Reaktion muss quantifiziert werden. Allerdings kann es auch qualitative Merkmale von Y geben. In diesem Fall ist es möglich, den Rangansatz zu verwenden. Ein Beispiel für einen Ranking-Ansatz ist die Bewertung in einer Prüfung, bei der ein komplexer Satz an Informationen über das Wissen eines Studierenden mit einer einzigen Zahl bewertet wird.

Unabhängige Variablen X1, X2, ..., Xn – ansonsten Faktoren, müssen ebenfalls eine quantitative Bewertung haben. Werden qualitative Faktoren verwendet, ist jeder Stufe eine Zahl zuzuordnen. Es ist wichtig, nur unabhängige Variablen als Faktoren auszuwählen, d. h. nur diejenigen, die geändert werden können, ohne andere Faktoren zu beeinflussen. Die Faktoren müssen klar sein. Um ein effektives mathematisches Modell zu erstellen, ist es ratsam, eine vorläufige Analyse der Bedeutung von Faktoren (der Grad des Einflusses auf die Funktion) und ihrer Rangfolge durchzuführen und unwichtige Faktoren zu eliminieren.

Die Variationsbereiche der Faktoren bestimmen den Definitionsbereich von Y. Wenn wir davon ausgehen, dass jeder Faktor eine entsprechende Koordinatenachse hat, wird der resultierende Raum Faktorraum genannt. Für n=2 ist der Definitionsbereich von Y ein Rechteck, für n=3 ein Würfel und für n >3 ein Hyperwürfel.

Bei der Auswahl von Bereichen für sich ändernde Faktoren muss deren Kompatibilität berücksichtigt werden, d. h. Kontrollieren Sie, dass in diesen Bereichen beliebige Kombinationen von Faktoren in Experimenten machbar sind und nicht zur Absurdität führen. Für jeden Faktor sind Grenzwerte angegeben

, i=1,...n.

Ziel der Regressionsanalyse der Antwortfunktion ist es, ihr mathematisches Modell in Form einer Regressionsgleichung zu erhalten

wobei B1, …, Bm einige Koeffizienten sind; e – Fehler.

Zu den wichtigsten Planungsmethoden, die in verschiedenen Phasen der Studie verwendet werden, gehören:

Planung eines Screening-Experiments, dessen Hauptbedeutung darin besteht, aus der Gesamtheit der Faktoren eine Gruppe signifikanter Faktoren auszuwählen, die einer weiteren detaillierten Untersuchung unterliegen;

Entwerfen eines Experiments zur Varianzanalyse, d. h. Erstellung von Objektplänen mit qualitativen Gesichtspunkten;

Planung eines Regressionsexperiments, das es ermöglicht, Regressionsmodelle (Polynome und andere) zu erhalten;

Planung eines Extremexperiments, bei dem die experimentelle Optimierung des Forschungsobjekts die Hauptaufgabe ist;

Planung beim Studium dynamischer Prozesse usw.

Der Initiator des Einsatzes experimenteller Gestaltung ist Ronald A. Fisher, ein weiterer Autor berühmter Frühwerke ist Frank Yates. Weitere Ideen zur Planung eines Experiments wurden in den Werken von J. Box und J. Kiefer geformt. In unserem Land - in den Werken von G.K. Kruga, E.V. Markova und andere.

Derzeit sind experimentelle Planungsmethoden in spezialisierte Pakete eingebettet, die auf dem Softwaremarkt weit verbreitet sind, zum Beispiel: StatGrapfics, Statistica, SPSS, SYSTAT usw.

Frage 18 Vollfaktoriell Das Experiment geht von der Fähigkeit aus, ein Objekt über einen oder mehrere unabhängige Kanäle zu steuern (siehe Abb. 1.5, c).

Im Allgemeinen kann der Versuchsaufbau wie in Abb. 1.5, c dargestellt dargestellt werden. Das Schema verwendet die folgenden Parametergruppen:

1. Manager (Eingang)

2. Statusparameter(Wochenende )

3. störende Einflüsse ()

In einem multifaktoriellen und vollfaktoriellen Experiment kann es mehrere Ausgabeparameter geben. Ein Beispiel für ein solches passives multifaktorielles Experiment wird im sechsten Kapitel dieses Buches diskutiert.

Steuerparameter sind unabhängige Variablen, die geändert werden können, um Ausgangsparameter zu steuern. Die Steuerparameter werden aufgerufen Faktoren. Wenn (ein Kontrollparameter), dann ist das Experiment ein Faktor. Ein multivariates Experiment entspricht einer endlichen Anzahl von Kontrollparametern. Ein vollfaktorielles Experiment entspricht dem Vorhandensein von Störungen in einem multifaktoriellen Experiment.

Der Bereich der Änderungen von Faktoren oder die Anzahl der Werte, die sie annehmen können, wird aufgerufen Faktorebene.

Ein vollständig faktorielles Experiment zeichnet sich dadurch aus, dass für feste Störungen die Mindestanzahl der Stufen jedes Faktors zwei beträgt. In diesem Fall wurden alle Faktoren behoben Bis auf eine Ausnahme müssen zwei Messungen durchgeführt werden, die zwei Stufen dieses Faktors entsprechen. Indem wir dieses Verfahren konsequent für jeden der Faktoren durchführen, erhalten wir die erforderliche Anzahl von Experimenten in einem vollfaktoriellen Experiment, um alle möglichen Kombinationen von Faktorstufen zu implementieren, wobei die Anzahl der Faktoren ist.

1. Die Geschichte der experimentellen Planung

Experimentelles Design ist ein Produkt unserer Zeit, doch seine Ursprünge liegen im Nebel der Zeit.

Die Ursprünge der experimentellen Planung reichen bis in die Antike zurück und sind mit numerischer Mystik, Prophezeiungen und Aberglauben verbunden.

Dabei handelt es sich eigentlich nicht um die Planung eines physikalischen Experiments, sondern um die Planung eines numerischen Experiments, d. h. Anordnung von Zahlen, sodass bestimmte strenge Bedingungen erfüllt sind, beispielsweise die Gleichheit der Summen entlang der Zeilen, Spalten und Diagonalen einer quadratischen Tabelle, deren Zellen mit Zahlen aus der natürlichen Reihe gefüllt sind.

Solche Bedingungen werden in magischen Quadraten erfüllt, die offenbar bei der Planung des Experiments Vorrang haben.

Einer Legende zufolge um 2200 v. Chr. Der chinesische Kaiser Yu führte mystische Berechnungen mithilfe eines magischen Quadrats durch, das auf dem Panzer einer göttlichen Schildkröte abgebildet war.

Kaiser-Yu-Platz

Die Zellen dieses Quadrats sind mit Zahlen von 1 bis 9 gefüllt und die Summe der Zahlen in Zeilen, Spalten und Hauptdiagonalen beträgt 15.

Im Jahr 1514 stellte der deutsche Künstler Albrecht Dürer in der rechten Ecke seines berühmten Allegorienstichs „Melancholie“ ein magisches Quadrat dar. Die beiden Zahlen in der unteren horizontalen Reihe (A5 und 14) geben das Jahr an, in dem die Gravur erstellt wurde. Dies war eine Art „Anwendung“ des magischen Quadrats.

Dürer-Platz

Mehrere Jahrhunderte lang beschäftigte die Konstruktion magischer Quadrate indische, arabische, deutsche und französische Mathematiker.

Derzeit werden magische Quadrate bei der Planung eines Experiments unter Bedingungen linearer Drift, bei der Planung wirtschaftlicher Berechnungen und der Zubereitung von Lebensmittelrationen, in der Kodierungstheorie usw. verwendet.

Die Konstruktion magischer Quadrate ist eine Aufgabe der kombinatorischen Analyse, deren Grundlagen in ihrem modernen Verständnis von G. Leibniz gelegt wurden. Er untersuchte und löste nicht nur grundlegende kombinatorische Probleme, sondern wies auch auf die große praktische Anwendung der kombinatorischen Analyse hin: auf Kodierung und Dekodierung, auf Spiele und Statistiken, auf die Logik von Erfindungen und die Logik der Geometrie, auf die Kriegskunst und die Grammatik , Medizin, Recht, Technik usw. Kombinationen von Beobachtungen. Der letzte Anwendungsbereich kommt dem experimentellen Design am nächsten.

Eines der kombinatorischen Probleme, das in direktem Zusammenhang mit der Planung eines Experiments steht, wurde vom berühmten St. Petersburger Mathematiker L. Euler untersucht. Im Jahr 1779 stellte er als eine Art mathematisches Kuriosum das Problem der 36 Offiziere vor.

Er stellte die Frage, ob es möglich sei, 36 Offiziere in 6 Dienstgraden aus 6 Regimentern auszuwählen, einen Offizier in jedem Dienstgrad aus jedem Regiment, und sie in einem Quadrat anzuordnen, so dass in jeder Reihe und in jedem Dienstgrad jeweils ein Offizier vorhanden wäre Rang und einer von jedem Regiment. Das Problem entspricht der Konstruktion gepaarter orthogonaler 6x6-Quadrate. Es stellte sich heraus, dass dieses Problem nicht gelöst werden kann. Euler schlug vor, dass es kein Paar orthogonaler Quadrate der Ordnung n=1 (Mod 4) gibt.

Viele Mathematiker untersuchten anschließend das Eulersche Problem im Besonderen und lateinische Quadrate im Allgemeinen, aber fast keiner von ihnen dachte über die praktische Anwendung lateinischer Quadrate nach.

Derzeit sind lateinische Quadrate eine der beliebtesten Methoden zur Begrenzung der Randomisierung bei Vorhandensein diskreter Inhomogenitätsquellen im experimentellen Design. Durch die Gruppierung der Elemente eines lateinischen Quadrats können Sie aufgrund seiner Eigenschaften (jedes Element erscheint einmal und nur einmal in jeder Zeile und in jeder Spalte des Quadrats) die Haupteffekte vor dem Einfluss der Inhomogenitätsquelle schützen. Lateinische Quadrate werden auch häufig als Mittel zur Reduzierung der Aufzählung bei kombinatorischen Problemen verwendet.

Die Entstehung moderner statistischer Methoden der Experimentplanung ist mit dem Namen R. Fisher verbunden.

1918 begann er seine berühmte Werkreihe an der Rochemsted Agrobiological Station in England. 1935 erschien seine Monographie „Design of Experiments“, die der gesamten Richtung ihren Namen gab.

Unter den Planungsmethoden war die Varianzanalyse die erste (übrigens hat Fisher auch den Begriff „Varianz“ geprägt). Fisher schuf die Grundlage dieser Methode, indem er vollständige ANOVA-Klassifikationen (univariate und multivariate Experimente) und partielle ANOVA-Klassifikationen ohne Einschränkung und mit Einschränkung der Randomisierung beschrieb. Gleichzeitig nutzte er in großem Umfang lateinische Quadrate und Flussdiagramme. Zusammen mit F. Yates beschrieb er ihre statistischen Eigenschaften. Im Jahr 1942 erwog A. Kishen, mit lateinischen Würfeln zu planen, was eine Weiterentwicklung der Theorie der lateinischen Quadrate darstellte.

Dann veröffentlichte R. Fischer unabhängig Informationen über orthogonale hypergriechisch-lateinische Würfel und Hyperwürfel. Bald nach 1946–1947 untersuchte R. Rao ihre kombinatorischen Eigenschaften. Die Arbeiten von X. Mann (A947–1950) widmen sich der Weiterentwicklung der Theorie der lateinischen Quadrate.

Die Forschungen von R. Fischer im Zusammenhang mit Arbeiten zur Agrarbiologie markieren den Beginn der ersten Stufe in der Entwicklung experimenteller Designmethoden. Fisher entwickelte die faktorielle Planungsmethode. Yeggs schlug für diese Methode ein einfaches Rechenschema vor. Die faktorielle Planung ist weit verbreitet. Ein Merkmal eines vollfaktoriellen Experiments ist die Notwendigkeit, eine große Anzahl von Experimenten gleichzeitig durchzuführen.

Im Jahr 1945 führte D. Finney Teilrepliken des faktoriellen Experiments ein. Dies ermöglichte eine starke Reduzierung der Versuchsanzahl und ebnete den Weg für technische Planungsanträge. Eine weitere Möglichkeit, die erforderliche Anzahl an Experimenten zu reduzieren, zeigten 1946 R. Plackett und D. Berman, die gesättigte faktorielle Designs einführten.

Im Jahr 1951 leitete die Arbeit der amerikanischen Wissenschaftler J. Box und K. Wilson eine neue Etappe in der Entwicklung der experimentellen Planung ein.

Diese Arbeit fasst die vorherigen zusammen. Darin wurde die Idee der sequentiellen experimentellen Bestimmung optimaler Bedingungen für die Durchführung von Prozessen klar formuliert und in praktische Empfehlungen umgesetzt, indem die Koeffizienten von Potenzgesetzentwicklungen mithilfe der Methode der kleinsten Quadrate geschätzt, entlang eines Gradienten bewegt und ein Interpolationspolynom (Potenz) gefunden wurden Reihe) im Bereich des Extremums der Antwortfunktion („nahezu stationärer“ Bereich).

1954–1955 J. Box und dann J. Box und P. Yule zeigten, dass experimentelles Design bei der Untersuchung physikalisch-chemischer Mechanismen von Prozessen verwendet werden kann, wenn eine oder mehrere mögliche Hypothesen a priori aufgestellt werden. Hier kreuzten sich experimentelles Design und chemische Kinetikstudien. Es ist interessant festzustellen, dass Kinetik als eine Methode zur Beschreibung eines Prozesses mithilfe von Differentialgleichungen betrachtet werden kann, deren Traditionen auf I. Newton zurückgehen. Die Beschreibung eines Prozesses durch Differentialgleichungen, auch deterministisch genannt, wird oft mit statistischen Modellen verglichen.

Box und J. Hunter formulierten das Prinzip der Drehbarkeit zur Beschreibung des „nahezu stationären“ Feldes, das sich mittlerweile zu einem wichtigen Zweig der Theorie des experimentellen Designs entwickelt. Die gleiche Arbeit zeigt die Möglichkeit der Planung mit Aufteilung in orthogonale Blöcke, die zuvor unabhängig von de Baun angedeutet wurde.

Eine Weiterentwicklung dieser Idee war die orthogonale Planung zur unkontrollierten Zeitdrift, die als wichtige Entdeckung in der Experimentiertechnik gelten sollte – eine deutliche Steigerung der Fähigkeiten des Experimentators.


2. Mathematische Planung von Experimenten in der wissenschaftlichen Forschung

2.1 Grundkonzepte und Definitionen

Unter Experiment verstehen wir eine Reihe von Operationen, die an einem Untersuchungsobjekt durchgeführt werden, um Informationen über seine Eigenschaften zu erhalten. Ein Experiment, bei dem der Forscher nach eigenem Ermessen die Bedingungen seiner Durchführung ändern kann, wird als aktives Experiment bezeichnet. Wenn der Forscher die Bedingungen seines Verhaltens nicht selbstständig ändern kann, sondern diese nur registriert, handelt es sich um ein passives Experiment.

Die wichtigste Aufgabe von Methoden zur Verarbeitung von während eines Experiments gewonnenen Informationen ist die Erstellung eines mathematischen Modells des untersuchten Phänomens, Prozesses oder Objekts. Es kann in der Prozessanalyse und im Objektdesign verwendet werden. Es ist möglich, ein gut approximierendes mathematisches Modell zu erhalten, wenn ein aktives Experiment gezielt eingesetzt wird. Eine weitere Aufgabe der Verarbeitung der im Experiment gewonnenen Informationen ist das Optimierungsproblem, d.h. Finden einer solchen Kombination beeinflussender unabhängiger Variablen, dass der ausgewählte Optimalitätsindikator einen Extremwert annimmt.

Erfahrung ist ein separater experimenteller Teil.

Versuchsplan – ein Datensatz, der die Anzahl, Bedingungen und Reihenfolge der Experimente bestimmt.

Unter experimenteller Planung versteht man die Auswahl eines experimentellen Plans, der bestimmte Anforderungen erfüllt, eine Reihe von Maßnahmen zur Entwicklung einer experimentellen Strategie (von der Beschaffung a priori-Informationen bis zur Beschaffung eines praktikablen mathematischen Modells oder der Bestimmung optimaler Bedingungen). Dabei handelt es sich um eine gezielte Kontrolle eines Experiments, die unter Bedingungen unvollständiger Kenntnis des Mechanismus des untersuchten Phänomens durchgeführt wird.

Bei der Messung, der anschließenden Datenverarbeitung sowie der Formalisierung der Ergebnisse in Form eines mathematischen Modells treten Fehler auf und einige der in den Originaldaten enthaltenen Informationen gehen verloren. Der Einsatz experimenteller Planungsmethoden ermöglicht es, den Fehler des mathematischen Modells zu bestimmen und seine Angemessenheit zu beurteilen. Sollte sich die Genauigkeit des Modells als unzureichend erweisen, ermöglicht der Einsatz experimenteller Planungsmethoden eine Modernisierung des mathematischen Modells durch zusätzliche Experimente ohne Verlust bisheriger Informationen und mit minimalen Kosten.

Der Zweck der Versuchsplanung besteht darin, solche Bedingungen und Regeln für die Durchführung von Experimenten zu finden, unter denen es möglich ist, mit geringstem Arbeitsaufwand zuverlässige und zuverlässige Informationen über ein Objekt zu erhalten, sowie diese Informationen in kompakter und komfortabler Form darzustellen mit einer quantitativen Beurteilung der Genauigkeit.

4.7. Experimentelle Pläne

Experimentelles Design ist eine Taktik der experimentellen Forschung, die in einem spezifischen System experimenteller Planungsvorgänge verkörpert ist. Die Hauptkriterien für die Klassifizierung von Plänen sind:

Zusammensetzung der Teilnehmer (Einzelperson oder Gruppe);

Anzahl unabhängiger Variablen und deren Ebenen;

Arten von Skalen zur Darstellung unabhängiger Variablen;

Methode zur Erhebung experimenteller Daten;

Ort und Bedingungen des Experiments;

Merkmale der Organisation des experimentellen Einflusses und der Kontrollmethode.

Pläne für Fächergruppen und für ein Fach. Alle Versuchspläne können entsprechend der Zusammensetzung der Teilnehmer in Pläne für Probandengruppen und Pläne für ein Probanden unterteilt werden.

Experimente mit Gruppe von Themen haben die folgenden Vorteile: die Fähigkeit, die Ergebnisse des Experiments auf die Bevölkerung zu übertragen; die Möglichkeit, Vergleichsschemata zwischen Gruppen zu verwenden; Zeit sparen; Anwendung statistischer Analysemethoden. Zu den Nachteilen dieser Art von Versuchsanordnungen gehören: der Einfluss individueller Unterschiede zwischen Menschen auf die Versuchsergebnisse; das Problem der Repräsentativität der experimentellen Stichprobe; das Problem der Äquivalenz von Fächergruppen.

Experimente mit ein Thema- Dies ist ein Sonderfall von „Plänen mit kleinem Budget“. N". J. Goodwin weist auf folgende Gründe für die Verwendung solcher Pläne hin: die Notwendigkeit individueller Gültigkeit, da in Experimenten mit einem großen N Ein Problem entsteht, wenn die verallgemeinerten Daten kein Subjekt charakterisieren. Ein Experiment mit einem Probanden wird auch in Einzelfällen durchgeführt, wenn es aus verschiedenen Gründen nicht möglich ist, viele Teilnehmer zu gewinnen. In diesen Fällen besteht der Zweck des Experiments darin, einzigartige Phänomene und individuelle Merkmale zu analysieren.

Ein Experiment mit kleinem N hat laut D. Martin folgende Vorteile: das Fehlen komplexer statistischer Berechnungen, einfache Interpretation der Ergebnisse, die Möglichkeit, einzigartige Fälle zu untersuchen, die Einbeziehung von einem oder zwei Teilnehmern und reichlich Möglichkeiten zur Manipulation unabhängige Variablen. Es hat auch einige Nachteile, insbesondere die Komplexität der Kontrollverfahren und die Schwierigkeit, die Ergebnisse zu verallgemeinern; relative Zeitineffizienz.

Betrachten wir Pläne für ein Thema.

Planungszeitreihen. Der Hauptindikator für den Einfluss der unabhängigen Variablen auf die abhängige Variable bei der Umsetzung eines solchen Plans ist die Veränderung der Art der Antworten des Probanden im Laufe der Zeit. Die einfachste Strategie: Schema A– B. Der Proband führt die Aktivität zunächst unter den Bedingungen A und dann unter den Bedingungen B aus. Um den „Placebo-Effekt“ zu kontrollieren, wird das folgende Schema verwendet: A – B – A.(„Der Placebo-Effekt“ ist die Reaktion von Probanden auf „leere“ Einflüsse, die Reaktionen auf reale Einflüsse entsprechen.) In diesem Fall sollte der Proband nicht im Voraus wissen, welcher der Zustände „leer“ und welcher real ist. Diese Schemata berücksichtigen jedoch nicht das Zusammenspiel von Einflüssen, daher werden bei der Planung von Zeitreihen in der Regel regelmäßige Wechselschemata verwendet (A - B – A– B), Positionsanpassung (A – B – B– A) oder zufälliger Wechsel. Die Verwendung „längerer“ Zeitreihen erhöht die Möglichkeit, einen Effekt zu erkennen, führt jedoch zu einer Reihe negativer Folgen – Ermüdung des Probanden, verminderte Kontrolle über andere zusätzliche Variablen usw.

Alternativer Wirkungsplan ist eine Weiterentwicklung des Zeitreihenplans. Seine Besonderheit liegt in der Tatsache, dass die Wirkungen A Und IN werden zufällig über die Zeit verteilt und dem Probanden separat präsentiert. Anschließend werden die Auswirkungen der einzelnen Interventionen verglichen.

Reversibler Plan wird verwendet, um zwei alternative Verhaltensweisen zu untersuchen. Zunächst wird ein Ausgangsniveau der Manifestation beider Verhaltensweisen erfasst. Anschließend wird ein komplexer Effekt dargestellt, der aus einer spezifischen Komponente für die erste Verhaltensform und einer zusätzlichen für die zweite Verhaltensform besteht. Nach einer gewissen Zeit verändert sich die Kombination der Einflüsse. Die Wirkung zweier komplexer Interventionen wird bewertet.

Kriterienerhöhungsplan Wird häufig in der Pädagogischen Psychologie verwendet. Sein Wesen besteht darin, dass eine Verhaltensänderung des Probanden als Reaktion auf eine Erhöhung der Exposition aufgezeichnet wird. In diesem Fall wird die nächste Auswirkung erst angezeigt, wenn das Subjekt die angegebene Kriteriumsstufe erreicht.

Bei der Durchführung von Experimenten mit einem Probanden ist zu berücksichtigen, dass die Hauptartefakte praktisch unvermeidbar sind. Darüber hinaus zeigt sich in diesem Fall wie in keinem anderen der Einfluss der Einstellungen des Experimentators und der Beziehungen, die sich zwischen ihm und dem Probanden entwickeln.

R. Gottsdanker schlägt eine Unterscheidung vor qualitative und quantitative Versuchspläne. IN Qualität In Plänen wird die unabhängige Variable auf einer Nominativskala dargestellt, d. h. es werden zwei oder mehr qualitativ unterschiedliche Bedingungen im Experiment verwendet.

IN quantitativ In Versuchsplänen werden die Niveaus der unabhängigen Variablen auf Intervall-, Rang- oder Proportionalskalen dargestellt, d. h. das Experiment verwendet die Ausprägungsniveaus einer bestimmten Bedingung.

Es ist möglich, dass in einem faktoriellen Experiment eine Variable in quantitativer Form und die andere in qualitativer Form dargestellt wird. In diesem Fall wird der Plan kombiniert.

Experimentelle Designs innerhalb und zwischen Gruppen. FERNSEHER. Kornilova definiert zwei Arten von Versuchsplänen nach dem Kriterium der Gruppenanzahl und Versuchsbedingungen: gruppeninterne und gruppenübergreifende. ZU gruppenintern bezieht sich auf Designs, bei denen der Einfluss von Variationen der unabhängigen Variablen und die Messung des experimentellen Effekts in derselben Gruppe auftreten. IN Intergruppe Plänen wird der Einfluss von Varianten der unabhängigen Variablen in verschiedenen Versuchsgruppen durchgeführt.

Die Vorteile des gruppeninternen Designs sind: eine geringere Teilnehmerzahl, die Eliminierung individueller Differenzfaktoren, eine Verkürzung der Gesamtzeit des Experiments und die Möglichkeit, die statistische Signifikanz des experimentellen Effekts nachzuweisen. Zu den Nachteilen zählen die Nichtkonstanz der Bedingungen und die Ausprägung des „Sequenzeffekts“.

Die Vorteile des Intergruppendesigns sind: das Fehlen eines „Sequenzeffekts“, die Möglichkeit, mehr Daten zu erhalten, die Verkürzung der Zeit der Teilnahme am Experiment für jedes Subjekt und die Verringerung des Effekts des Abbruchs von Experimentteilnehmern. Der Hauptnachteil des Zwischengruppendesigns ist die Nichtäquivalenz der Gruppen.

Einzelne unabhängige Variablendesigns und faktorielle Designs. Nach dem Kriterium der Anzahl experimenteller Einflüsse schlägt D. Martin vor, zwischen Plänen mit einer unabhängigen Variablen, faktoriellen Plänen und Plänen mit einer Reihe von Experimenten zu unterscheiden. In den Plänen mit einer unabhängigen Variablen Der Experimentator manipuliert eine unabhängige Variable, die eine unbegrenzte Anzahl von Erscheinungsformen haben kann. IN Fakultät Pläne (Einzelheiten dazu finden Sie auf S. 120), manipuliert der Experimentator zwei oder mehr unabhängige Variablen und erforscht alle möglichen Optionen für die Interaktion ihrer verschiedenen Ebenen.

Pläne mit eine Reihe von Experimenten werden durchgeführt, um konkurrierende Hypothesen schrittweise zu beseitigen. Am Ende der Serie überprüft der Experimentator eine Hypothese.

Vorexperimentelle, quasi-experimentelle und echte experimentelle Designs. D. Campbell schlug vor, alle Versuchspläne für Probandengruppen in die folgenden Gruppen zu unterteilen: vorexperimentelle, quasi-experimentelle und echte experimentelle Pläne. Diese Einteilung basiert auf der Nähe eines realen Experiments zu einem idealen. Je weniger Artefakte ein bestimmtes Design hervorruft und je strenger die Kontrolle zusätzlicher Variablen ist, desto näher kommt das Experiment dem Ideal. Vorexperimentelle Pläne berücksichtigen die Anforderungen an ein ideales Experiment am wenigsten. V.N. Druzhinin weist darauf hin, dass sie nur der Veranschaulichung dienen können und in der Praxis der wissenschaftlichen Forschung nach Möglichkeit vermieden werden sollten. Quasi-experimentelle Designs sind ein Versuch, die Realitäten des Lebens bei der Durchführung empirischer Forschung zu berücksichtigen; sie werden speziell entwickelt, um von den Designs echter Experimente abzuweichen. Der Forscher muss sich der Artefaktquellen bewusst sein – externe zusätzliche Variablen, die er nicht kontrollieren kann. Ein quasi-experimentelles Design wird verwendet, wenn kein besseres Design verwendet werden kann.

Systematische Merkmale vorexperimenteller, quasiexperimenteller und echter experimenteller Designs sind in der folgenden Tabelle aufgeführt.

Bei der Beschreibung experimenteller Pläne verwenden wir die von D. Campbell vorgeschlagene Symbolisierung: R– Randomisierung; X– experimenteller Einfluss; Ö- testen.

ZU vorexperimentelle Designs umfassen: 1) Einzelfallstudie; 2) Plan mit vorläufiger und abschließender Prüfung einer Gruppe; 3) Vergleich statistischer Gruppen.

Bei Einzelfallstudie Eine Gruppe wird nach der experimentellen Intervention einmal getestet. Schematisch kann dieser Plan wie folgt geschrieben werden:

Die Kontrolle externer Variablen und unabhängiger Variablen fehlt vollständig. In einem solchen Experiment gibt es kein Vergleichsmaterial. Die Ergebnisse sind nur mit alltäglichen Vorstellungen über die Realität vergleichbar, sie enthalten keine wissenschaftlichen Informationen.

Planen mit Vor- und Endtest einer Gruppe häufig in der soziologischen, sozialpsychologischen und pädagogischen Forschung verwendet. Es kann wie folgt geschrieben werden:

Dieses Design verfügt über keine Kontrollgruppe, daher kann nicht argumentiert werden, dass Änderungen in der abhängigen Variablen (der Differenz zwischen O1 und O2), die während des Tests erfasst wurden, werden genau durch Änderungen der unabhängigen Variablen verursacht. Zwischen dem ersten und dem letzten Test können neben der unabhängigen Variablen weitere „Hintergrundereignisse“ auftreten, die sich auf die Probanden auswirken. Dieses Design kontrolliert auch nicht den natürlichen Progressionseffekt und den Testeffekt.

Vergleich statistischer Gruppen zutreffender wäre es, von einem Zwei-nicht-äquivalenten Gruppendesign mit Post-Expositionstests zu sprechen. Es kann so geschrieben werden:

Dieses Design ermöglicht die Berücksichtigung des Testeffekts durch die Einführung einer Kontrollgruppe zur Kontrolle einer Reihe externer Variablen. Allerdings ist es mit seiner Hilfe nicht möglich, den Einfluss der natürlichen Entwicklung zu berücksichtigen, da kein Material vorhanden ist, um den aktuellen Zustand der Probanden mit ihrem Ausgangszustand zu vergleichen (vorläufige Tests wurden nicht durchgeführt). Um die Ergebnisse der Kontroll- und Versuchsgruppe zu vergleichen, wird der Student-t-Test verwendet. Es sollte jedoch berücksichtigt werden, dass Unterschiede in den Testergebnissen möglicherweise nicht auf experimentelle Effekte, sondern auf Unterschiede in der Gruppenzusammensetzung zurückzuführen sind.

Quasi-experimentelle Designs sind eine Art Kompromiss zwischen der Realität und dem strengen Rahmen echter Experimente. In der psychologischen Forschung gibt es folgende Arten quasi-experimenteller Designs: 1) Experimentalpläne für nichtäquivalente Gruppen; 2) Designs mit Vortest und Nachtest verschiedener randomisierter Gruppen; 3) Pläne diskreter Zeitreihen.

Planen Experiment für nicht äquivalente Gruppen zielt darauf ab, einen Ursache-Wirkungs-Zusammenhang zwischen Variablen herzustellen, verfügt jedoch nicht über ein Verfahren zur Gruppengleichung (Randomisierung). Dieser Plan kann durch das folgende Diagramm dargestellt werden:

In diesem Fall sind zwei reale Gruppen an der Durchführung des Experiments beteiligt. Beide Gruppen werden getestet. Eine Gruppe wird dann der experimentellen Behandlung ausgesetzt, die andere nicht. Anschließend werden beide Gruppen erneut getestet. Die Ergebnisse des ersten und zweiten Tests beider Gruppen werden verglichen; zum Vergleich werden der Student-t-Test und die Varianzanalyse verwendet. Unterschied O2 und O4 zeigt die natürliche Entwicklung und Hintergrundbelastung an. Um den Effekt der unabhängigen Variablen zu identifizieren, ist es notwendig, 6(O1 O2) und 6(O3 O4) zu vergleichen, also das Ausmaß der Verschiebungen der Indikatoren. Die Signifikanz des Unterschieds in den Anstiegen der Indikatoren gibt Aufschluss über den Einfluss der unabhängigen Variablen auf die abhängige Variable. Dieses Design ähnelt dem Design eines echten Zwei-Gruppen-Experiments mit Tests vor und nach der Exposition (siehe Seite 118). Die Hauptursache für Artefakte sind Unterschiede in der Gruppenzusammensetzung.

Planen mit Vor- und Nachtests verschiedener randomisierter Gruppen unterscheidet sich von einem echten experimentellen Design dadurch, dass eine Gruppe vorab getestet wird und eine äquivalente Gruppe dem Nachtest ausgesetzt wird:

Der Hauptnachteil dieses quasi-experimentellen Designs besteht darin, dass Hintergrundeffekte – der Einfluss von Ereignissen, die neben der experimentellen Behandlung zwischen dem ersten und zweiten Test auftreten – nicht kontrolliert werden können.

Pläne diskrete Zeitreihen werden je nach Anzahl der Gruppen (eine oder mehrere) sowie je nach Anzahl der experimentellen Effekte (Einzel- oder Serieneffekte) in mehrere Typen unterteilt.

Das diskrete Zeitreihendesign für eine Gruppe von Probanden besteht darin, zunächst das Anfangsniveau der abhängigen Variablen für eine Gruppe von Probanden mithilfe einer Reihe aufeinanderfolgender Messungen zu bestimmen. Dann wird ein experimenteller Effekt angewendet und eine Reihe ähnlicher Messungen durchgeführt. Die Werte der abhängigen Variablen vor und nach der Intervention werden verglichen. Der Grundriss dieses Plans:

Der Hauptnachteil eines diskreten Zeitreihendesigns besteht darin, dass es nicht möglich ist, die Wirkung der unabhängigen Variablen von der Wirkung von Hintergrundereignissen zu trennen, die im Verlauf der Studie auftreten.

Eine Modifikation dieses Designs ist ein Zeitreihen-Quasexperiment, bei dem die Belichtung vor der Messung mit keiner Belichtung vor der Messung abgewechselt wird. Sein Schema ist wie folgt:

ХO1 – O2 ХO3 – O4 ХO5

Der Wechsel kann regelmäßig oder zufällig erfolgen. Diese Option ist nur geeignet, wenn der Effekt reversibel ist. Bei der Verarbeitung der im Experiment gewonnenen Daten wird die Serie in zwei Sequenzen unterteilt und die Ergebnisse von Messungen, bei denen ein Aufprall auftrat, mit den Ergebnissen von Messungen, bei denen kein Aufprall auftrat, verglichen. Um Daten zu vergleichen, wird der Student-t-Test mit der Anzahl der Freiheitsgrade verwendet N– 2, wo N– die Anzahl der Situationen desselben Typs.

Zeitreihenpläne werden in der Praxis häufig umgesetzt. Allerdings wird bei ihrer Anwendung häufig der sogenannte „Hawthorne-Effekt“ beobachtet. Es wurde erstmals 1939 von amerikanischen Wissenschaftlern entdeckt, als sie im Hawthorne-Werk in Chicago forschten. Man ging davon aus, dass eine Änderung des Arbeitsorganisationssystems die Produktivität steigern würde. Während des Experiments führten jedoch alle Änderungen in der Arbeitsorganisation zu einer Steigerung der Produktivität. Dabei stellte sich heraus, dass die Teilnahme am Experiment selbst die Arbeitsmotivation steigerte. Die Probanden stellten fest, dass sie persönlich an ihnen interessiert waren und begannen, produktiver zu arbeiten. Um diesen Effekt zu kontrollieren, muss eine Kontrollgruppe verwendet werden.

Das Zeitreihendesign für zwei nicht äquivalente Gruppen, von denen eine keine Intervention erhält, sieht folgendermaßen aus:

O1O2O3O4O5O6O7O8O9O10

O1O2O3O4O5O6O7O8O9O10

Mit diesem Plan können Sie den „Hintergrund“-Effekt steuern. Es wird normalerweise von Forschern verwendet, wenn sie reale Gruppen in Bildungseinrichtungen, Kliniken und in der Produktion untersuchen.

Ein anderes spezifisches Design, das in der Psychologie häufig verwendet wird, wird als Experiment bezeichnet. ex-post-facto. Es wird häufig in der Soziologie, Pädagogik sowie der Neuropsychologie und der klinischen Psychologie verwendet. Die Strategie zur Anwendung dieses Plans ist wie folgt. Der Experimentator selbst nimmt keinen Einfluss auf die Probanden. Der Einfluss ist ein reales Ereignis aus ihrem Leben. Die Versuchsgruppe besteht aus „Testpersonen“, die der Intervention ausgesetzt waren, und die Kontrollgruppe besteht aus Personen, die sie nicht erlebt haben. Dabei werden die Gruppen nach Möglichkeit auf den Zeitpunkt ihres Zustandes vor dem Aufprall angeglichen. Anschließend wird die abhängige Variable unter Vertretern der Versuchs- und Kontrollgruppe getestet. Die als Ergebnis der Tests gewonnenen Daten werden verglichen und eine Schlussfolgerung über die Auswirkungen der Auswirkungen auf das weitere Verhalten der Probanden gezogen. So der Plan ex-post-facto simuliert einen Versuchsaufbau für zwei Gruppen mit deren Ausgleich und Prüfung nach der Exposition. Sein Schema ist wie folgt:

Wenn Gruppenäquivalenz erreicht werden kann, wird der Entwurf zu einem echten experimentellen Entwurf. Es wird in vielen modernen Studien umgesetzt. Wenn beispielsweise bei der Untersuchung von posttraumatischem Stress Menschen, die unter den Auswirkungen einer Naturkatastrophe oder einer vom Menschen verursachten Katastrophe gelitten haben, oder Kombattanten auf das Vorliegen einer posttraumatischen Belastungsstörung getestet werden, werden ihre Ergebnisse mit den Ergebnissen einer Kontrollgruppe verglichen , was es ermöglicht, die Mechanismen solcher Reaktionen zu identifizieren. In der Neuropsychologie bieten Hirnverletzungen und Läsionen bestimmter Strukturen, die als „experimentelle Exposition“ betrachtet werden, eine einzigartige Gelegenheit, die Lokalisierung geistiger Funktionen zu identifizieren.

Echte Experimentpläne für eine unabhängige Variable unterscheiden sich von anderen wie folgt:

1) Verwendung von Strategien zur Bildung gleichwertiger Gruppen (Randomisierung);

2) die Anwesenheit von mindestens einer Versuchs- und einer Kontrollgruppe;

3) abschließende Prüfung und Vergleich der Ergebnisse der Gruppen, die die Intervention erhalten und nicht erhalten haben.

Schauen wir uns einige experimentelle Designs für eine unabhängige Variable genauer an.

Zwei randomisierte Gruppendesigns mit Tests nach der Exposition. Sein Diagramm sieht so aus:

Dieser Plan kommt zum Einsatz, wenn eine Vorprüfung nicht möglich oder erforderlich ist. Wenn die Versuchs- und Kontrollgruppe gleich sind, ist dieses Design das beste, da Sie damit die meisten Artefaktquellen kontrollieren können. Das Fehlen eines Vortests schließt sowohl den Interaktionseffekt des Testverfahrens und der experimentellen Aufgabe als auch den Testeffekt selbst aus. Mit dem Plan können Sie den Einfluss der Gruppenzusammensetzung, den spontanen Fluktuationseffekt, den Einfluss des Hintergrunds und der natürlichen Entwicklung sowie die Wechselwirkung der Gruppenzusammensetzung mit anderen Faktoren kontrollieren.

Im betrachteten Beispiel wurde ein Einflussniveau der unabhängigen Variablen verwendet. Besitzt sie mehrere Stufen, so erhöht sich die Anzahl der Versuchsgruppen um die Anzahl der Stufen der unabhängigen Variablen.

Zwei randomisierte Gruppendesigns mit Vortest und Nachtest. Der Grundriss des Plans sieht folgendermaßen aus:

R O1 X O2

Dieses Design wird verwendet, wenn Zweifel an den Ergebnissen der Randomisierung bestehen. Die Hauptquelle für Artefakte ist das Zusammenspiel von Tests und experimenteller Manipulation. In der Realität müssen wir uns auch mit den Auswirkungen nicht gleichzeitiger Tests auseinandersetzen. Daher wird es als am besten angesehen, die Mitglieder der Versuchs- und Kontrollgruppe in zufälliger Reihenfolge zu testen. Auch die Präsentation/Nicht-Präsentation der experimentellen Intervention erfolgt am besten in zufälliger Reihenfolge. D. Campbell weist auf die Notwendigkeit hin, „gruppeninterne Ereignisse“ zu kontrollieren. Dieses experimentelle Design kontrolliert den Hintergrundeffekt und den natürlichen Fortschrittseffekt gut.

Bei der Verarbeitung von Daten werden üblicherweise parametrische Kriterien verwendet T Und F(für Daten auf einer Intervallskala). Es werden drei t-Werte berechnet: 1) zwischen O1 und O2; 2) zwischen O3 und O4; 3) zwischen O2 Und O4. Die Hypothese über die Signifikanz des Einflusses der unabhängigen Variablen auf die abhängige Variable kann akzeptiert werden, wenn zwei Bedingungen erfüllt sind: 1) Unterschiede zwischen O1 Und O2 bedeutsam, aber dazwischen O3 Und O4 unbedeutend und 2) Unterschiede zwischen O2 Und O4 bedeutsam. Manchmal ist es bequemer, nicht absolute Werte zu vergleichen, sondern das Ausmaß des Anstiegs der Indikatoren B(1 2) und B(3 4). Diese Werte werden auch mit dem Student-t-Test verglichen. Bei signifikanten Unterschieden wird die experimentelle Hypothese über den Einfluss der unabhängigen Variablen auf die abhängige Variable akzeptiert.

Salomos Plan ist eine Kombination der beiden vorherigen Pläne. Zur Umsetzung werden zwei experimentelle (E) und zwei Kontrollgruppen (C) benötigt. Sein Diagramm sieht so aus:

Dieses Design kann den Interaktionseffekt vor dem Test und den experimentellen Effekt steuern. Der Effekt der experimentellen Beeinflussung wird durch den Vergleich der Indikatoren deutlich: O1 und O2; O2 und O4; O5 und O6; O5 und O3. Der Vergleich von O6, O1 und O3 ermöglicht es uns, den Einfluss des Faktors der natürlichen Entwicklung und Hintergrundeinflüsse auf die abhängige Variable zu identifizieren.

Betrachten Sie nun einen Entwurf für eine unabhängige Variable und mehrere Gruppen.

Design für drei randomisierte Gruppen und drei Ebenen der unabhängigen Variablen Wird in Fällen verwendet, in denen es notwendig ist, quantitative Beziehungen zwischen unabhängigen und abhängigen Variablen zu identifizieren. Sein Diagramm sieht so aus:

In diesem Design wird jeder Gruppe nur eine Ebene der unabhängigen Variablen präsentiert. Bei Bedarf können Sie die Anzahl der Versuchsgruppen entsprechend der Anzahl der Stufen der unabhängigen Variablen erhöhen. Alle oben genannten statistischen Methoden können zur Verarbeitung der mit einem solchen Versuchsaufbau gewonnenen Daten verwendet werden.

Faktorielle Versuchspläne Wird verwendet, um komplexe Hypothesen über Beziehungen zwischen Variablen zu testen. In einem faktoriellen Experiment werden in der Regel zwei Arten von Hypothesen getestet: 1) Hypothesen über den separaten Einfluss jeder der unabhängigen Variablen; 2) Hypothesen über die Interaktion von Variablen. Bei einem faktoriellen Design werden alle Ebenen unabhängiger Variablen miteinander kombiniert. Die Anzahl der Versuchsgruppen entspricht der Anzahl der Kombinationen.

Faktorielles Design für zwei unabhängige Variablen und zwei Ebenen (2 x 2). Dies ist der einfachste faktorielle Entwurf. Sein Diagramm sieht so aus.



Dieses Design zeigt die Wirkung zweier unabhängiger Variablen auf eine abhängige Variable. Der Experimentator kombiniert mögliche Variablen und Ebenen. Manchmal werden vier unabhängige randomisierte Versuchsgruppen verwendet. Zur Verarbeitung der Ergebnisse wird die Varianzanalyse nach Fisher verwendet.

Es gibt komplexere Versionen des faktoriellen Designs: 3 x 2 und 3 x 3 usw. Durch die Hinzufügung jeder Stufe der unabhängigen Variablen erhöht sich die Anzahl der Versuchsgruppen.

„Lateinischer Platz“. Es handelt sich um eine Vereinfachung eines vollständigen Entwurfs für drei unabhängige Variablen mit zwei oder mehr Ebenen. Das lateinische Quadratprinzip besagt, dass zwei Ebenen unterschiedlicher Variablen in einem experimentellen Design nur einmal vorkommen. Dadurch wird die Anzahl der Gruppen und die Versuchsstichprobe insgesamt deutlich reduziert.

Zum Beispiel für drei unabhängige Variablen (L, M, N) mit jeweils drei Ebenen (1, 2, 3 und N(A, B, C)) Der Plan nach der Methode „Lateinisches Quadrat“ sieht folgendermaßen aus.

In diesem Fall die Ebene der dritten unabhängigen Variablen (A, B, C) kommt einmal in jeder Zeile und jeder Spalte vor. Durch die Kombination der Ergebnisse über Zeilen, Spalten und Ebenen hinweg ist es möglich, den Einfluss jeder der unabhängigen Variablen auf die abhängige Variable sowie den Grad der paarweisen Interaktion zwischen den Variablen zu identifizieren. Anwendung der lateinischen Buchstaben A, B, MIT Traditionell werden die Ebenen der dritten Variablen bezeichnet, weshalb die Methode „Lateinisches Quadrat“ genannt wird.

„Griechisch-lateinisches Quadrat“. Dieses Design wird verwendet, wenn der Einfluss von vier unabhängigen Variablen untersucht werden muss. Es basiert auf einem lateinischen Quadrat für drei Variablen, wobei an jede lateinische Gruppe des Entwurfs ein griechischer Buchstabe angehängt ist, der die Ebenen der vierten Variablen angibt. Ein Design für ein Design mit vier unabhängigen Variablen mit jeweils drei Ebenen würde so aussehen:

Zur Verarbeitung der im „Griechisch-lateinischen Quadrat“-Design gewonnenen Daten wird die Fisher-Varianzanalyse-Methode verwendet.

Das Hauptproblem, das faktorielle Entwürfe lösen können, besteht darin, die Wechselwirkung von zwei oder mehr Variablen zu bestimmen. Dieses Problem kann nicht durch mehrere konventionelle Experimente mit einer unabhängigen Variablen gelöst werden. Bei einem faktoriellen Versuchsplan versucht der Experimentator nicht, die experimentelle Situation von zusätzlichen Variablen zu „säubern“ (wodurch die externe Validität gefährdet wäre), sondern nähert sie der Realität an, indem er einige zusätzliche Variablen in die Kategorie der unabhängigen Variablen einfügt. Gleichzeitig ermöglicht uns die Analyse der Zusammenhänge zwischen den untersuchten Merkmalen, verborgene Strukturfaktoren zu identifizieren, von denen die Parameter der Messgröße abhängen.

Das Senden Ihrer guten Arbeit an die Wissensdatenbank ist ganz einfach. Nutzen Sie das untenstehende Formular

Studierende, Doktoranden und junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

Prüfung

Disziplin: Allgemeinpsychologischer Workshop

1) Inhaltliche und formale Planung des ProjektsstehlenGeistesforschung

Planung eines psychologischen Experiments

Experimentplanung- eine der wichtigsten Phasen der Organisation psychologischer Forschung, in der der Forscher versucht, das optimalste Modell (d. h. Plan) des Experiments für die Umsetzung in die Praxis zu erstellen.

Mit einem gut durchdachten Forschungsdesign und -plan können Sie optimale Werte für Validität, Zuverlässigkeit und Genauigkeit in der Studie erreichen und Nuancen berücksichtigen, die beim alltäglichen „spontanen Experimentieren“ schwer zu verfolgen sind. Um den Plan anzupassen, führen Experimentatoren häufig eine sogenannte Pilot- oder Teststudie durch, die als „Entwurf“ eines zukünftigen wissenschaftlichen Experiments betrachtet werden kann.

Grundlegende Fragen, die durch ein experimentelles Design beantwortet werden

Es wird ein experimentelles Design erstellt, um grundlegende Fragen zu beantworten zu:

· die Anzahl der unabhängigen Variablen, die im Experiment verwendet werden (eine oder mehrere?);

· die Anzahl der Stufen der unabhängigen Variablen (ändert sich die unabhängige Variable oder bleibt sie konstant?);

Methoden zur Beherrschung zusätzlicher oder störender Variablen (welche sind notwendig und sinnvoll?):

o direkte Kontrollmethode (direkter Ausschluss einer bekannten zusätzlichen Variable),

o Nivellierungsmethode (berücksichtigen Sie eine bekannte zusätzliche Variable, wenn es unmöglich ist, sie auszuschließen),

o Randomisierungsmethode (zufällige Auswahl der Gruppen bei unbekannter zusätzlicher Variable).

Eine der wichtigsten Fragen, die ein experimenteller Entwurf beantworten muss, besteht darin, zu bestimmen, in welcher Reihenfolge die Änderungen der betrachteten Reize (unabhängige Variablen), die sich auf die abhängige Variable auswirken, auftreten sollen. Ein solcher Effekt kann von einem einfachen Schema „A 1 – A 2“, bei dem A 1 der erste Wert des Reizes und A 2 der zweite Wert des Reizes ist, bis hin zu komplexeren Schemata wie „A 1 – A“ variieren 2 -A 1 --A 2 " usw. Die Reihenfolge der Präsentation von Reizen ist ein sehr wichtiger Punkt, der direkt mit der Aufrechterhaltung der Gültigkeit der Studie zusammenhängt: Wenn einer Person beispielsweise ständig der gleiche Reiz präsentiert wird, kann dies der Fall sein weniger anfällig dafür werden.

Planungsphasen

Die Planung umfasst zwei Phasen:

o Bestimmung einer Reihe theoretischer und experimenteller Bestimmungen, die die theoretische Grundlage der Studie bilden.

o Formulierung theoretischer und experimenteller Forschungshypothesen.

o Auswahl der erforderlichen experimentellen Methode.

o Lösung des Problems der Stichprobenauswahl:

§ Bestimmung der Zusammensetzung der Probe.

§ Bestimmung der Stichprobengröße.

§ Festlegung der Probenahmemethode.

2. Formale Planung des Experiments:

o Erlangung der Fähigkeit, Ergebnisse zu vergleichen.

o Schaffung der Möglichkeit zur Diskussion der gewonnenen Daten.

o Stellen Sie sicher, dass die Studie kosteneffizient durchgeführt wird.

Das Hauptziel der formalen Planung besteht darin, möglichst viele Gründe für eine Verzerrung der Ergebnisse zu beseitigen.

Arten von Plänen

1. Einfache (Ein-Faktor-)Designs

o Experimente unter reproduzierbaren Bedingungen

o Experimente mit zwei unabhängigen Gruppen (Experiment und Kontrolle)

2. Umfassende Pläne

o Designs für mehrstufige Experimente

o Faktorielle Designs

3. Quasi-experimentelle Designs

o Pläne nachträglich

o Kleine N experimentelle Designs

4. Korrelationsforschungspläne

Einfache Pläne, oder Ein-Faktor, beinhaltet die Untersuchung des Einflusses nur einer unabhängigen Variablen auf die abhängige Variable. Der Vorteil solcher Designs liegt in ihrer Wirksamkeit bei der Ermittlung des Einflusses der unabhängigen Variablen sowie in der einfachen Analyse und Interpretation der Ergebnisse. Der Nachteil besteht darin, dass keine funktionale Beziehung zwischen den unabhängigen und abhängigen Variablen abgeleitet werden kann.

Experimente mit reproduzierbaren Bedingungen

Im Vergleich zu Experimenten mit zwei unabhängigen Gruppen erfordern solche Designs weniger Teilnehmer. Das Design impliziert nicht die Anwesenheit verschiedener Gruppen (z. B. Experimental- und Kontrollgruppen). Der Zweck solcher Experimente besteht darin, die Wirkung eines Faktors auf eine Variable festzustellen.

Experimente mit zwei unabhängigen Gruppen-- Experimental- und Kontrollexperimente, bei denen nur die Experimentalgruppe der experimentellen Behandlung ausgesetzt wird, während die Kontrollgruppe weiterhin das tut, was sie normalerweise tut. Der Zweck solcher Experimente besteht darin, die Wirkung einer unabhängigen Variablen zu testen.

Umfassende Pläne

Umfassende Pläne sind für Experimente konzipiert, die entweder die Auswirkungen mehrerer unabhängiger Variablen (faktorielle Designs) oder die sequentiellen Auswirkungen verschiedener Ebenen einer einzelnen unabhängigen Variablen (mehrstufige Designs) untersuchen.

Entwürfe für mehrstufige Experimente

Wenn in Experimenten eine unabhängige Variable verwendet wird, gilt eine Situation, in der nur zwei ihrer Werte untersucht werden, eher als Ausnahme als als Regel. Die meisten univariaten Studien verwenden drei oder mehr Werte der unabhängigen Variablen; diese Designs werden oft als „Designs“ bezeichnet Einfaktor-Mehrebenen. Solche Designs können sowohl zur Untersuchung nichtlinearer Effekte (d. h. Fälle, in denen die unabhängige Variable mehr als zwei Werte annimmt) als auch zum Testen alternativer Hypothesen verwendet werden. Der Vorteil solcher Pläne besteht in der Möglichkeit, die Art der funktionalen Beziehung zwischen den unabhängigen und abhängigen Variablen zu bestimmen. Der Nachteil besteht jedoch darin, dass es zeitaufwändig ist und mehr Teilnehmer erfordert.

Faktorielle Designs

Faktorielle Designs beinhalten die Verwendung von mehr als einer unabhängigen Variablen. Es kann eine beliebige Anzahl solcher Variablen oder Faktoren geben, in der Regel beschränken sie sich jedoch auf die Verwendung von zwei, drei oder, seltener, vier.

Faktorielle Designs werden mithilfe eines Nummerierungssystems beschrieben, das die Anzahl der unabhängigen Variablen und die Anzahl der Werte (Stufen) angibt, die jede Variable annimmt. Beispielsweise hat ein 2x3 („zwei mal drei“) faktorielles Design zwei unabhängige Variablen (Faktoren), von denen die erste zwei Werte („2“) und die zweite drei Werte („3“) annimmt. ; Der faktorielle 3x4x5-Plan verfügt über drei unabhängige Variablen, die jeweils die Werte „3“, „4“ und „5“ annehmen.

Nehmen wir an, in einem Experiment, das mit einem 2x2-Fakultätsdesign durchgeführt wurde, kann ein Faktor A zwei Werte annehmen – A 1 und A 2, und ein anderer Faktor B kann die Werte B 1 und B 2 annehmen. Während des Experiments sollten nach dem 2x2-Plan vier Experimente durchgeführt werden:

Die Reihenfolge der Experimente kann je nach Zweckmäßigkeit, die sich aus den Aufgaben und Bedingungen des jeweiligen Experiments ergibt, unterschiedlich sein.

Quasi-experimentelle Designs- Versuchspläne, bei denen aufgrund der unvollständigen Kontrolle der Variablen keine Rückschlüsse auf das Vorliegen eines Ursache-Wirkungs-Zusammenhangs gezogen werden können. Das Konzept eines quasi-experimentellen Designs wurde von Campbell und Stanley in Experimental and quasi-experimental designs for Research (Cambell, D. T. & Stanley, J. C., 1966) eingeführt. Dies geschah, um einige der Probleme zu überwinden, mit denen Psychologen konfrontiert waren, die ihre Forschung in einem weniger restriktiven Umfeld als dem Labor durchführen wollten. Quasi-experimentelle Designs werden in der angewandten Psychologie häufig verwendet.

Arten quasi-experimenteller Designs:

1. Experimentelle Designs für nichtäquivalente Gruppen

2. Pläne diskreter Zeitreihen.

1. Experiment zum Design von Zeitreihen

2. Plan einer Reihe von Zeitproben

3. Plan der Reihe gleichwertiger Einwirkungen

4. Design mit nicht äquivalenter Kontrollgruppe

5. Ausgewogene Pläne.

Ex-post-Facto-Pläne. Forschung, bei der Daten gesammelt und analysiert werden, nachdem das Ereignis bereits eingetreten ist, sogenannte Forschung nachträglich Viele Experten stufen sie als quasi-experimentell ein. Solche Forschungen werden häufig in der Soziologie, Pädagogik, klinischen Psychologie und Neuropsychologie durchgeführt. Die Essenz der Studie nachträglich besteht darin, dass der Experimentator selbst keinen Einfluss auf die Probanden hat: Der Einfluss ist ein reales Ereignis aus ihrem Leben.

In der Neuropsychologie beispielsweise basierte die Forschung lange Zeit (und auch heute noch) auf das Lokalisierungismus-Paradigma, das im „Locus-Function“-Ansatz zum Ausdruck kommt und besagt, dass Läsionen bestimmter Strukturen es ermöglichen, die Lokalisierung mentaler Funktionen zu identifizieren – das spezifische materielle Substrat, in dem sie sich im Gehirn „befinden“ [siehe. A. R. Luria, „Gehirnläsionen und zerebrale Lokalisierung höherer Funktionen“]; Solche Studien können als Studien klassifiziert werden nachträglich.

Bei der Planung einer Studie nachträglich simuliert ein strenges experimentelles Design mit Ausgleich oder Randomisierung von Gruppen und Tests nach der Exposition.

Kleine N-Pläne auch „Einzelsubjektdesigns“ genannt, da das Verhalten jedes Subjekts einzeln untersucht wird. Als einer der Hauptgründe für die Verwendung kleiner N-Experimente wird die teilweise Unmöglichkeit angesehen, Ergebnisse aus Verallgemeinerungen auf große Personengruppen auf einen einzelnen Teilnehmer individuell anzuwenden (was zu einer Verletzung der individuellen Validität führt).

Der Psychologe B. F. Skinner gilt als der berühmteste Verfechter dieser Forschungsrichtung: Seiner Meinung nach sollte der Forscher „eine Ratte tausend Stunden lang studieren,<…>und nicht tausend Ratten für jeweils eine Stunde oder hundert Ratten für jeweils zehn Stunden.“ Ebbinghaus‘ introspektive Studien können auch als Small-N-Experimente klassifiziert werden (nur das Thema, das er untersuchte, war er selbst).

Ein Einzelfachplan muss mindestens drei Bedingungen erfüllen:

1. Das Zielverhalten muss im Hinblick auf leicht erfassbare Ereignisse genau definiert werden.

2. Es ist notwendig, einen Basiswert für die Reaktion festzulegen.

3. Es ist notwendig, das Subjekt zu beeinflussen und sein Verhalten aufzuzeichnen.

Korrelationsstudie– Forschung, die durchgeführt wird, um eine Hypothese über eine statistische Beziehung (Korrelation) zwischen mehreren (zwei oder mehr) Variablen zu bestätigen oder zu widerlegen. Das Design einer solchen Studie unterscheidet sich von einer quasi-experimentellen Studie dadurch, dass es an einem kontrollierten Einfluss auf den Untersuchungsgegenstand mangelt.

In einer Korrelationsstudie vermutet der Wissenschaftler die Existenz eines statistischen Zusammenhangs zwischen mehreren mentalen Eigenschaften eines Individuums oder zwischen bestimmten äußeren Ebenen und mentalen Zuständen, während Annahmen über kausale Abhängigkeiten nicht diskutiert werden. Die Probanden müssen sich in einem gleichwertigen, unveränderten Zustand befinden. Allgemein lässt sich das Design einer solchen Studie als PxO („Probanden“ x „Messungen“) beschreiben.

Arten von Korrelationsstudien

Vergleich zweier Gruppen

· Eindimensionale Studie

· Korrelationsstudie paarweise äquivalenter Gruppen

· Multivariate Korrelationsstudie

· Strukturelle Korrelationsforschung

·Längskorrelationsstudie*

* Längsschnittforschung gilt als Zwischenoption zwischen Quasi-Experiment und Korrelationsforschung.

Experiment (Psychologie)

Psychologisches Experiment– ein unter besonderen Bedingungen durchgeführtes Experiment, um durch gezieltes Eingreifen eines Forschers in das Leben eines Probanden neue wissenschaftliche Erkenntnisse zu gewinnen.

Der Begriff „psychologisches Experiment“ wird von verschiedenen Autoren mehrdeutig interpretiert; oft wird ein Experiment in der Psychologie als ein Komplex verschiedener unabhängiger empirischer Methoden betrachtet ( das Experiment selbst, Beobachtung, Befragung, Prüfung). Traditionell wird das Experiment in der experimentellen Psychologie jedoch als eigenständige Methode betrachtet.

Hauptphasen des Experiments

1. Phase – Vorbereitung:

1.1 Bestimmen Sie das Forschungsthema

Vorläufige Bekanntschaft mit dem Studiengegenstand

Bestimmen Sie den Zweck und die Aufgaben der Studie

Objekt angeben

Forschungsmethoden und -techniken identifizieren und auswählen.

2. Phase – Phase der Erhebung von Forschungsdaten:

2.1 Durchführung einer Pilotstudie.

2.2 Direkte Interaktion mit dem Forschungsobjekt

3. Stufe – Finale:

3.1 Verarbeitung empfangener Daten

3.2 Analyse der erhaltenen Daten

3.3 Hypothesentest

4. Stufe – Interpretation:

4.1 Schlussfolgerungen.

2 )

Umfragen sind eine unverzichtbare Methode, um Informationen über die subjektive Welt der Menschen, ihre Neigungen, Motive und Meinungen zu erhalten.

Eine Umfrage ist eine nahezu universelle Methode. Wenn geeignete Vorsichtsmaßnahmen getroffen werden, ist es möglich, Informationen zu erhalten, die nicht weniger zuverlässig sind als durch die Prüfung oder Beobachtung von Dokumenten. Darüber hinaus kann es sich bei diesen Informationen um alles mögliche handeln. Auch über Dinge, die man weder sehen noch lesen kann.

Offizielle Vermessungen gab es erstmals Ende des 18. Jahrhunderts in England und Anfang des 19. Jahrhunderts in den USA. In Frankreich und Deutschland wurden die ersten Erhebungen 1848 und in Belgien zwischen 1868 und 1869 durchgeführt. Und dann begannen sie sich aktiv zu verbreiten.

Die Kunst bei dieser Methode besteht darin, zu wissen, was man fragt, wie man fragt, welche Fragen man stellt und schließlich, wie man sicherstellt, dass die Antworten, die man erhält, vertrauenswürdig sind.

Für den Forscher ist es zunächst notwendig zu verstehen, dass nicht der „durchschnittliche Befragte“ an der Umfrage teilnimmt, sondern eine lebende, reale Person mit Bewusstsein und Selbstbewusstsein, die den Soziologen in derselben beeinflusst Art und Weise, wie der Soziologe ihn beeinflusst.

Die Befragten sind keine unparteiischen Aufzeichner ihres Wissens und ihrer Meinung, sondern lebende Menschen, denen Vorlieben, Vorlieben, Ängste usw. nicht fremd sind. Wenn sie daher Fragen wahrnehmen, können sie einige davon aufgrund mangelnden Wissens nicht beantworten und andere möchten sie nicht beantworten oder antworten unaufrichtig.

Arten von Umfragen

Es gibt zwei große Klassen von Erhebungsmethoden: Interviews und Fragebögen.

Ein Interview ist ein nach einem bestimmten Plan geführtes Gespräch, das einen direkten Kontakt zwischen dem Interviewer und dem Befragten (Interviewpartner) beinhaltet und dessen Antworten entweder vom Interviewer (seinem Assistenten) oder mechanisch (auf Tonband) aufgezeichnet werden.

Es gibt viele Arten von Vorstellungsgesprächen.

2) Je nach Durchführungstechnik werden sie in freie, nicht standardisierte und formalisierte (sowie halbstandardisierte) Interviews unterteilt.

Kostenlos - ein langes Gespräch (mehrere Stunden) ohne genaue Detaillierung der Fragen, sondern nach einem allgemeinen Programm („Interviewleitfaden“). Solche Interviews eignen sich für die explorative Phase eines formativen Forschungsdesigns.

Standardisierte Interviews erfordern ebenso wie formalisierte Beobachtungen eine detaillierte Ausarbeitung des gesamten Verfahrens, einschließlich des allgemeinen Gesprächsplans, der Reihenfolge und Gestaltung der Fragen sowie der Optionen für mögliche Antworten.

3) Abhängig von den Besonderheiten des Verfahrens kann das Interview intensiv („klinisch“, d. h. tiefgreifend, manchmal stundenlang) sein und sich auf die Identifizierung eines relativ engen Reaktionsspektrums des Befragten konzentrieren. Der Zweck eines klinischen Interviews besteht darin, Informationen über die inneren Motive, Motivationen und Neigungen des Befragten zu erhalten, und ein fokussiertes Interview besteht darin, Informationen über die Reaktionen des Probanden auf einen bestimmten Einfluss zu gewinnen. Mit ihrer Hilfe untersuchen sie beispielsweise, wie stark eine Person auf einzelne Informationsbestandteile (aus der Massenpresse, Vorträgen etc.) reagiert. Darüber hinaus wird der Informationstext durch eine Inhaltsanalyse vorverarbeitet. In einem fokussierten Interview versuchen sie herauszufinden, welche semantischen Einheiten der Textanalyse im Mittelpunkt der Aufmerksamkeit der Befragten stehen, welche am Rande liegen und welche überhaupt nicht im Gedächtnis bleiben.

4) Die sogenannten ungerichteten Interviews haben „therapeutischen“ Charakter. Die Initiative für den Gesprächsverlauf liegt beim Befragten selbst, der Interviewer hilft ihm lediglich dabei, „seine Seele auszuschütten“.

5) Je nach Organisationsmethode der Interviews werden sie in Gruppen- und Einzelinterviews unterteilt. Die ersten werden relativ selten verwendet; dabei handelt es sich um ein geplantes Gespräch, bei dem der Forscher versucht, eine Diskussion in der Gruppe anzuregen. Die Methodik zur Durchführung von Leserkonferenzen ähnelt diesem Vorgehen. Telefoninterviews werden genutzt, um Meinungen schnell einzuholen.

Fragebogen

Diese Methode beinhaltet eine streng festgelegte Reihenfolge, Inhalt und Form der Fragen, eine klare Angabe der Antwortmethoden und die Registrierung durch den Befragten entweder allein (Korrespondenzbefragung) oder in Anwesenheit des Fragebogens (Direktbefragung).

Fragebogenbefragungen werden in erster Linie nach Inhalt und Gestaltung der gestellten Fragen klassifiziert. Bei offenen Umfragen äußern sich die Befragten in freier Form. Bei einem geschlossenen Fragebogen werden vorab alle Antwortmöglichkeiten vorgegeben. Halbgeschlossene Fragebögen kombinieren beide Verfahren. Eine Sondierungs- oder Expressumfrage wird in öffentlichen Meinungsumfragen verwendet und enthält nur 3-4 Punkte grundlegender Informationen sowie mehrere Punkte im Zusammenhang mit den demografischen und sozialen Merkmalen der Befragten. Solche Fragebögen ähneln Blättern nationaler Volksabstimmungen. Eine Befragung per Post unterscheidet sich von einer Vor-Ort-Befragung: Im ersten Fall wird erwartet, dass der Fragebogen frankiert zurückgesendet wird, im zweiten Fall wird der Fragebogen vom Fragebogen selbst abgeholt.

Gruppenbefragungen unterscheiden sich von Einzelbefragungen. Im ersten Fall werden bis zu 30-40 Personen gleichzeitig befragt: Der Befragte versammelt die Befragten, weist sie an und überlässt ihnen das Ausfüllen der Fragebögen; im zweiten Fall spricht er jeden Befragten einzeln an.

Die Organisation einer „Verteilungs“-Befragung, einschließlich Befragungen am Wohnort, ist naturgemäß arbeitsintensiver als beispielsweise Befragungen durch die Presse, die auch in unserer und ausländischen Praxis weit verbreitet sind. Letztere sind jedoch für viele Bevölkerungsgruppen nicht repräsentativ und lassen sich daher eher auf Methoden zur Untersuchung der öffentlichen Meinung der Leser dieser Publikationen zurückführen.

Schließlich greifen sie bei der Klassifizierung von Fragebögen auch auf zahlreiche Kriterien rund um das Thema Umfragen zurück: Veranstaltungsfragebögen, Fragebögen zur Klärung von Wertorientierungen, statistische Fragebögen (bei Volkszählungen), Zeitpunkte der täglichen Zeitbudgets etc.

Bei der Durchführung von Umfragen dürfen wir nicht vergessen, dass mit ihrer Hilfe subjektive Meinungen und Einschätzungen offengelegt werden, die Schwankungen, dem Einfluss von Umfragebedingungen und anderen Umständen unterliegen.

Um die mit diesen Faktoren verbundene Datenverzerrung zu minimieren, sollten innerhalb eines kurzen Zeitrahmens verschiedene Erhebungsmethoden durchgeführt werden. Sie können die Umfrage nicht über einen längeren Zeitraum verlängern, da sich bis zum Ende der Umfrage die äußeren Umstände ändern können und Informationen über ihr Verhalten von den Befragten mit etwaigen Kommentaren aneinander weitergegeben werden und diese Urteile die Art der Antworten beeinflussen derjenigen, die später Teil der Befragten werden.

Unabhängig davon, ob wir ein Interview oder einen Fragebogen verwenden, sind die meisten Probleme, die mit der Zuverlässigkeit von Informationen verbunden sind, ihnen gemeinsam.

Damit eine Fragebogenbefragung effektiver ist, ist es notwendig, eine Reihe von Regeln zu beachten, die helfen, den Verlauf der Befragung richtig festzulegen und die Fehlerquote während der Studie zu reduzieren.

Die an die Befragten gerichteten Fragen sind nicht isoliert – sie sind Glieder einer Kette, und wie Glieder ist jedes von ihnen mit dem vorherigen und dem nachfolgenden verbunden (L.S. Vygodsky nannte diese Beziehung „den Einfluss von Bedeutungen“). Ein Fragebogen ist keine mechanische Abfolge von Fragen, die beliebig oder für den Forscher bequem darin platziert werden können, sondern ein besonderes Ganzes. Es verfügt über eigene Eigenschaften, die nicht auf eine einfache Summe der Eigenschaften der einzelnen Themen, aus denen es besteht, reduziert werden können.

Ganz am Anfang werden einfache Fragen gestellt, und zwar nicht nach der im Programm enthaltenen Logik des Forschers, um den Befragten nicht gleich mit ernsten Fragen zu bombardieren, sondern ihm zu ermöglichen, sich mit dem Fragebogen vertraut zu machen und nach und nach von einfachen Fragen überzugehen komplexer (Trichterregel).

Strahlungseffekt – wenn alle Fragen logisch miteinander verbunden sind und das Thema logisch eingrenzen, hat der Befragte eine bestimmte Einstellung, nach der er sie beantworten wird – dieser Einfluss der Frage wird Strahlungseffekt oder Echoeffekt genannt und manifestiert sich in der Tatsache dass die vorherige Frage oder die vorherigen Fragen den Gedankengang der Befragten in eine bestimmte Richtung lenken, ein Mini-Koordinatensystem schaffen, in dessen Rahmen eine ganz bestimmte Antwort gebildet oder ausgewählt wird.

Manchmal treten Probleme im Zusammenhang mit der Reihenfolge der Fragen auf. Diskrepanzen bei den Antworten auf dieselbe Frage sollten nicht auf ihre unterschiedliche Reihenfolge zurückzuführen sein.

Wenn also beispielsweise einem Geringverdiener die Frage gestellt wird: „Beabsichtigen Sie, dieses Unternehmen in naher Zukunft zu verlassen?“ Nach einer Gehaltsfrage steigt die Wahrscheinlichkeit, eine positive Antwort zu erhalten. Und wenn die gleiche Frage gestellt wird, nachdem man beispielsweise die Aussichten für eine Gehaltserhöhung ermittelt hat, steigt die Wahrscheinlichkeit, eine negative Antwort zu erhalten.

Bei der Zusammenstellung des Fragebogens wird berücksichtigt, dass Antworten auf verschiedene Fragen zusammenhängen. Zu diesem Zweck werden beispielsweise Pufferfragen eingeführt.

Wir können vorerst nur davon ausgehen, dass mit Hilfe eines Fragebogens eine stärkere Isolation der Antworten auf jede Frage erreicht wird als mit der direkten Kommunikation mit dem Interviewer. Der Interviewpartner muss sich keine Sorgen um sein Image in den Augen seines Kommunikationspartners machen (selbstverständlich unter der Bedingung der Anonymität), wie bei einem Interview. Daher ist hier offenbar die Art der Konjugation der Antworten weniger ausgeprägt. Dies ist jedoch nicht bewiesen.

Allgemeine und spezifische Fragen. Der Fragebogen beginnt mit den spezifischsten Fragen und konkretisiert diese nach und nach (Trichterregel). Dadurch kann der Befragte schrittweise in die Situation eingeführt werden. Aber eine allgemeine Lösung setzt nicht immer eine spezifische voraus, während letztere das Allgemeine stark beeinflusst (Menschen sind eher bereit, Einzelheiten zu verallgemeinern, als sich auf Deduktionen einzulassen).

Beispiel: Allgemeine Selbsteinschätzungsfragen zum Interesse an Politik und Religion, die vor und nach spezifischen Fragen zum politischen und religiösen Verhalten der Befragten gestellt wurden, erhielten ungleich viele „Stimmen“. Im zweiten Fall bekundeten die Befragten deutlich häufiger ihr Interesse. Gleichzeitig zeigte sich, dass die allgemeinen Einschätzungen der Wirtschafts- und Energiesituation nur sehr geringfügig beeinflusst wurden, indem konkrete Fragen zu Einkommen und Energiequellen der Befragten davor und danach gestellt wurden. Dies gibt Anlass zu der Annahme, dass allgemeine und spezifische Themen sich gegenseitig auf mehrdeutige Weise beeinflussen. Die Verteilung der Antworten auf allgemeine Fragen hängt stärker von der vorherigen Formulierung einer spezifischen Frage zum gleichen Thema ab als umgekehrt. Darüber hinaus ist diese Abhängigkeit auch auf den Inhalt des diskutierten Phänomens zurückzuführen.

Anwenden von Filterfragen

Der Zweck von Filtern besteht darin, die Antworten auf nachfolgende Fragen zu beeinflussen. Anhand dieser Fragen lässt sich eine Gruppe von Menschen identifizieren, deren Antworten nicht nur auf allgemeinen Vorstellungen, sondern auch auf persönlichen Erfahrungen beruhen:

„Besuchet Ihr Kind eine Kindermusikschule?

Wenn ja, wer begleitet ihn normalerweise dorthin?

Welcher der Eltern

Großmutter, Großvater usw.“

Diese Fragen sparen Zeit für diejenigen, an die sich die Frage nach dem Filter nicht richtet.

Die Verwendung von Filtern führt dazu, dass Antworten fehlen.

Diese Auslassungen werden nicht nur dadurch verursacht, dass einige der Befragten bewusst auf Fragen übergehen, die sie beantworten können, und dabei diejenigen ignorieren, die nicht mit ihnen in Zusammenhang stehen, sondern auch durch einige andere Faktoren. Es stellte sich beispielsweise heraus, dass mithilfe einer Reihe von Filterfragen („Wenn Sie eine höhere Ausbildung haben, dann...?“; „Wenn Sie eine höhere Ausbildung in den Geisteswissenschaften haben, dann...?“; „Wenn Sie Sie haben also eine höhere geisteswissenschaftliche Ausbildung und haben ein Praktikum an der High School gemacht? Manchmal führt dies dazu, dass so viele Antworten fehlen, dass die gesamte Studie gefährdet ist.

Frage mit Präambel

Eine Sachverhaltsfrage kann, wie jede andere auch, als bewertendes Merkmal des Befragten wahrgenommen werden, daher empfiehlt es sich in manchen Fällen, sie in einer Form zu stellen, die ihren bewertenden Charakter etwas abschwächt. Zum Beispiel: „Manche putzen ihre Wohnung täglich, andere gelegentlich.“ Was machst du am häufigsten?“

Tischfragen

Die Tabellenfragen sind sehr forscherfreundlich. Dies sind schwierige Fragen, bei denen der Befragte eine Reihe von Anstrengungen unternehmen muss, um sie zu beantworten.

Bei solchen Fragen geht es um Dinge, die nur mit dem Wissen und der Intelligenz der Befragten beantwortet werden können. Nach solchen Fragen ist es ratsam, sich einfacheren zuzuwenden.

Solche Fragen sollten nicht oft wiederholt werden, denn... Die Befragten verspüren Müdigkeit, Aufmerksamkeitsverlust und es kommt zu einer Strahlungswirkung.

In einer Studie wurde den Befragten beispielsweise eine Liste mit denselben Themen angeboten. Im ersten Fall war es notwendig, ihre Wirksamkeit zu bewerten, im zweiten die Effizienz und im dritten die Vollständigkeit der Problemabdeckung. Die Darstellung dieser Liste im zweiten, und noch mehr im dritten, erweckte bei den Befragten den Eindruck, dass nicht nur die Liste, sondern auch die Bewertungskriterien wiederholt wurden. Viele Umfrageteilnehmer sagten beim Blick auf die dritte Tabelle: „Ich habe Ihnen bereits geantwortet“, „Es ist bereits passiert“ usw., übersprangen die Frage und ließen sie unbeantwortet.

Die Monotonie beim Ausfüllen von Tabellen führt zu einem erhöhten Risiko, maschinelle Vervollständigungen und unüberlegte Antworten zu erhalten.

Sobald der Befragte für eine Antwort die Bewertung „3“ gewählt hat, kann er diese unabhängig von der tatsächlichen Bewertung und sogar unabhängig vom Inhalt der Frage in der gesamten Tabelle eintragen.

Problem MoNotation

Auch der Einfluss einheitlicher Fragen auf die Antworten der Befragten hängt maßgeblich mit der Strahlungswirkung zusammen. Wie bei Tabellen und vielen anderen erweist sich der Fragebogen als eintönig, insbesondere wenn den Befragten mehrere Fragen gestellt werden, die nach demselben syntaktischen Schema formuliert sind. Dies führt dazu, dass der Anteil schlecht durchdachter Antworten oder deren Auslassung steigt. Um die Monotonie zu überwinden, empfehlen sich folgende Techniken:

Tabellen und Fragen sowie Daten in derselben syntaktischen Form mit anderen Fragen „verdünnen“; Variieren Sie die Kategorien für die Antwort (im ersten Fall bitten Sie den Befragten, seine Zustimmung oder Ablehnung auszudrücken, im zweiten Fall - um zu bewerten, im dritten - um zu entscheiden, ob diese oder jene Aussage wahr oder falsch ist, und im vierten Fall, um das zu formulieren unabhängig antworten usw.); eine Vielzahl funktionaler psychologischer Fragen umfassender nutzen, die „die gegenseitige Beeinflussung der Antworten dämpfen“; das Design des Fragebogens abwechslungsreicher gestalten.

Funktionell-psychologische FragenTau

Um Interesse am Fragebogen zu wecken und aufrechtzuerhalten, Spannungen abzubauen und den Befragten von einem Thema zum anderen zu bewegen, verwendet der Fragebogen spezielle Fragen, die als funktionspsychologisch bezeichnet werden.

Diese Fragen dienen weniger der Informationsbeschaffung als vielmehr der Erleichterung einer Kommunikationsbeziehung zwischen dem Forscher und den Befragten.

Diese Fragen dienen nicht nur als Anreiz zur Beantwortung, sie enthalten auch vielfältige Informationen: Erklärungen und Begründungen der an die Befragten gerichteten Aussagen des Soziologen, einige Kommentare, die als Zeichen einer symmetrischeren Kommunikation und eines gleichberechtigteren Informationsaustauschs wahrgenommen werden.

Zu den funktionspsychologischen Fragen zählen Kontaktfragen und Pufferfragen.

Kontaktfragen

Jede Kommunikation beginnt mit der Anpassungsphase. In dieser Phase geht es darum, die Kommunikation mit den Befragten wahrzunehmen, sich mit dem Zweck der Studie vertraut zu machen und Anweisungen zum Ausfüllen des Fragebogens zu geben.

Die erste Frage des Fragebogens entpuppt sich als Kontaktfrage. Aufgrund der Verknüpfung aller Fragen des Fragebogens ist zu erwarten, dass eine Person, wenn sie die erste Frage beantwortet, alle anderen beantworten kann.

Eine Reihe von AnforderungenKommentare zur ersten Frage des Fragebogens

1) Die Kontaktfrage sollte sehr einfach sein. Hier werden häufig Fragen rein Eventual-Charakters herangezogen – zum Beispiel Berufserfahrung, Wohnort, Gewohnheiten, Interesse an Problemen.

2) Die Kontaktfrage sollte sehr allgemein gehalten sein, d.h. gelten für alle Befragten. Daher ist es nicht ratsam, den Fragebogen mit einem Filter zu starten.

3) Es wird empfohlen, die Kontaktfrage so weit zu formulieren, dass jeder Befragte sie beantworten kann. Durch die Beantwortung beginnt eine Person an ihre Kompetenz zu glauben und sich sicher zu fühlen. Er hat den Wunsch, seine Gedanken weiterzuentwickeln und sich vollständiger auszudrücken. Daher ist es besser, den Fragebogen mit dem zu beginnen, was von allen akzeptiert wird und was am verständlichsten ist.

Es ist nicht notwendig, dass Kontaktfragen die von Ihnen gesuchten Informationen enthalten. Ihre Hauptfunktion besteht darin, die Interaktion zu erleichtern. Bei der Beantwortung von Kontaktfragen handelt es sich nicht zwangsläufig um eine wissenschaftliche Analyse im Zusammenhang mit inhaltlichen Fragestellungen. Andererseits sind diese Antworten aus methodischer Sicht von großer Bedeutung: Abhängig von ihrem Inhalt lässt sich die Einstellung der Befragten zur Umfrage, deren Auswirkungen auf ihre Integrität, Aufrichtigkeit usw. ermitteln.

Pufferfragen

Sehr selten ist ein Fragebogen einem einzelnen Thema gewidmet. Aber auch innerhalb desselben Themas werden unterschiedliche Aspekte diskutiert. Abrupte und unerwartete Übergänge von einem Thema zum anderen können bei den Befragten einen ungünstigen Eindruck hinterlassen.

Pufferfragen sollen die Interferenz von Fragen im Fragebogen abmildern. Erstens spielen sie, wie bereits gesagt, eine Art „Brücke“ beim Übergang von Thema zu Thema. Nach der Diskussion einer Reihe von Produktionsproblemen wird beispielsweise die folgende Formulierung gegeben:

„Freizeit ist nicht nur die Zeit, die wir brauchen, um die bei der Arbeit aufgewendete Energie wiederherzustellen. Dies ist zunächst einmal eine Chance zur umfassenden persönlichen Weiterentwicklung. Daher bitten wir Sie, eine Reihe von Fragen zu Aktivitäten außerhalb der Arbeit zu beantworten.“

Mithilfe einer Pufferfrage (die Funktion ist hier nicht die Frage selbst, sondern deren Präambel) erklärt der Forscher den Befragten seinen Gedankengang.

Mit Hilfe solcher „Puffer“ lädt der Forscher die Befragten nicht nur dazu ein, ihre Aufmerksamkeit auf ein anderes Thema zu lenken, sondern erklärt auch, warum dies notwendig ist. Beispielsweise wird nach einer Frage zum Thema Freizeit folgende Formulierung gegeben: „Ein Mensch verbringt die meiste Zeit seines Lebens bei der Arbeit.“ Sorgen und Freuden, Erfolge und Misserfolge im Beruf sind uns nicht gleichgültig. Kein Wunder also, dass wir mit Ihnen über die Arbeit sprechen möchten.“

Zweitens sollen Pufferfragen die Wirkung von Strahlung neutralisieren. Als Pufferfragen können dabei alle inhaltlichen Fragen fungieren, die keinen unmittelbaren Bezug zum behandelten Thema haben, bei Fragen, deren gegenseitige Beeinflussung vom Soziologen angenommen wird.

Zum Abschluss der Diskussion über die Bedeutung funktionspsychologischer Fragen bei der Gestaltung des Fragebogens stellen wir fest: Wie bei allen anderen Fragen kann es sein, dass ihre Formulierung den Befragten nicht gleichgültig ist und daher den Inhalt und die Verfügbarkeit ihrer Antworten beeinflusst. Das Wissen eines Soziologen darüber, dass ein bestimmtes Problem funktionalpsychologischer Natur ist, stellt nicht sicher, dass es seine erwartete Rolle erfüllt. Damit die Annahmen des Soziologen gerechtfertigt sind, ist es notwendig, in diesem Bereich spezielle methodische Experimente durchzuführen.

Fragebogeneinstellung

Das Setting zur Durchführung einer Fragebogenbefragung spielt eine sehr wichtige Rolle. Zunächst muss den Befragten klar gemacht werden, dass alle ihre Antworten völlig anonym sind. Dadurch erhalten Sie zuverlässigere Informationen in Ihren Antworten. Auch die Anwesenheit von Fremden wirkt sich auf die Befragten aus. Um eine angenehmere Atmosphäre während der Umfrage zu schaffen, ist es notwendig, Maßnahmen für die Anwesenheit von Personen zu ergreifen, die in direktem Zusammenhang mit dem Fragebogen stehen (Forscher, Befragte). Auch der Ort der Befragung spielt eine Rolle. Es sollte dem Befragten bekannt sein. Es ist wichtig, dass er sich an einem solchen Ort frei fühlt. Der Raum sollte nicht zu formell (Büro des Managers) oder zu informell (Umkleideraum) sein. Viel hängt davon ab, worum es bei den Fragen geht.

Wenn im Fragebogen Fragen zum Unternehmen gestellt werden, in dem die Umfrage durchgeführt wird, werden die Antworten höchstwahrscheinlich unaufrichtig sein. Es ist notwendig, auf den Zeitpunkt der Befragung zu achten. Es sollte nicht zu lange dauern, um die Befragten nicht zu ermüden (sie haben Wichtigeres zu tun).

Referenzenliste

1) Inhaltliche und formale PlanungExperteGeistesforschung

1. ^ Experimentelle Psychologie: Lehrbuch. - M.: Prospekt, 2005. S. 80–81.

2. ^ Siehe auch dort.

3. ^ Siehe auch dort. S. 82–83.

4. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. - St. Petersburg: Peter, 2004. S. 248.

5. ^ Zarochentsev K. D., Khudyakov A. I. Experimentelle Psychologie. S. 82–83.

6. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. S. 258–261.

7. ^ Siehe auch dort. S. 275.

8. ^ Siehe auch dort.

9. ^ Siehe auch dort. S. 353.

10. ^ Solso R.L., Johnson H.H., Beal M.C. Experimentelle Psychologie: ein praktischer Kurs. SPb.: Prime-EVROZNAK, 2001. S. 103.

11. ^ Siehe auch dort.

12. ^ Druzhinin V.N. Experimentelle Psychologie. St. Petersburg: Peter, 2002. S. 138.

13. ^ Forschung in der Psychologie: Methoden und Planung / J. Goodwin. S. 388–392.

14. ^ Siehe auch dort.

15. ^ Druzhinin V.N. Experimentelle Psychologie. S. 140.

16. ^ Siehe auch dort.

17. ^ Siehe auch dort. S. 142

18. Forschung in der Psychologie: Methode und Planung / J. Goodwin. – 3. Aufl. - St. Petersburg: Peter, 2004.

19. Solso R. L., Johnson H. H., Beal M. K. Experimentelle Psychologie: ein praktischer Kurs. SPb.: Prime-EVROZNAK, 2001.

20. Robert Gottsdanker „Grundlagen des psychologischen Experiments“: Moskauer Universitätsverlag 1982

2) Allgemeine Merkmale von Erhebungsmethoden

1. Butenko I.A. „Fragebogenumfrage als Kommunikationsmethode zwischen einem Soziologen und einem Befragten“, Moskau, 1989.

2. Noel E. „Massenumfragen. Einführung in die Methodik der Demoskopie“, M., 1987.

Ähnliche Dokumente

    Klassifikation psychologischer Methoden. Die Hauptmethoden sind Beobachtung und Befragung, Labor und natürliche (industrielle). Beobachtungsarten, Vor- und Nachteile der Methode. Formen von Erhebungsmethoden. Merkmale der Testforschung, Haupttestarten.

    Test, hinzugefügt am 22.02.2011

    Gültigkeit und Verwendung mentaler Proben in Experimenten. Konstruieren Sie Gültigkeit und konzeptionelle Replikationen. Gültigkeit des Experiments und Schlussfolgerungen. Inhaltsplanung und Auswahl des Experimenttyps. Validität als Ziel experimenteller Kontrolle.

    Zusammenfassung, hinzugefügt am 08.08.2010

    Das Konzept und die allgemeine Logik psychologischer Forschung, Konzeptentwicklung und Planung. Bestimmung von Variablen, Merkmalen, Parametern des untersuchten Phänomens, Auswahl von Methoden und Techniken, Bestimmung der Stichprobengröße. Interpretation und Synthese der Ergebnisse.

    Test, hinzugefügt am 02.07.2011

    Das Konzept und die Arten des Experiments, seine Organisation. Ethische Probleme bei der Umsetzung. Verwendung des Tests zur objektiven Beurteilung individueller psychologischer Unterschiede. Die Essenz menschlicher Forschung im sozialen Kontext durch qualitative Methoden.

    Zusammenfassung, hinzugefügt am 16.02.2011

    Betrachtung des psychologischen Forschungsalgorithmus: Problemstellung, Hypothesenentwicklung, Planung, Methodenwahl (Beobachtung, Experiment, Modellierung), Datenerhebung und -verarbeitung, Interpretation der Ergebnisse und deren Einbindung in das Wissenssystem.

    Test, hinzugefügt am 20.05.2010

    Gruppen psychologischer Forschungsmethoden, ihre Klassifizierung. Das Wesen und die Hauptaufgaben des Fragens, Beobachtens, Gesprächs. Merkmale der Durchführung von Natur-, Labor- und Modellexperimenten. Analyse psychologischer Forschungsmethoden.

    Kursarbeit, hinzugefügt am 03.05.2012

    Grundlegende Methoden der psychologischen Forschung und ihre Varianten zur Erhebung von Primärdaten. Spezialisierte Methoden der psychodiagnostischen Untersuchung. Zwei Haupttypen von Experimenten.

    Bericht, hinzugefügt am 14.06.2007

    Auswahl der Methoden der spirituellen, ideellen (wissenschaftlichen) und materiellen (praktischen) menschlichen Tätigkeit. Geschichte der Entwicklung der Abfolge psychologischer Studien und ihrer Klassifizierung. Besonderheiten der Beobachtung, des Experiments und der Modellierung.

    Zusammenfassung, hinzugefügt am 18.11.2010

    Das Wesen und die Phasen der Umsetzung der psychologischen Forschung, ihre Struktur und Hauptkomponenten. Einordnung psychologischer Forschungsmethoden, ihre Besonderheiten und Umsetzungsbedingungen. Arten und Merkmale psychologischer Experimente.

    Kursarbeit, hinzugefügt am 30.11.2009

    Merkmale der klinischen Psychologie als Wissenschaft. Anwendung beobachtender und experimenteller Methoden zur Gewinnung psychologischer Fakten. Die wichtigsten Arten psychologischer Experimente: natürliche und Laborexperimente. Das Rosenhan-Experiment, seine Essenz.

© 2023 youmebox.ru – Über das Geschäft – Portal mit nützlichem Wissen