Franz B. Wember- Evaluation in Einzelfallstudien
mentellen Überlegungen dürfen, so wichtig sie auch sind, in einem ethisch sensiblen Feld, wie es die Sonderpädagogik darstellt, keinesfalls verkürzt, d.h. unter Auslassung subjektiv-psychologischer und gesellschaftlich-ideologischer Fragestellungen, verfolgt werden. In diesem Zusammenhang ist zu fordern, daß bei der empirischen Überprüfung der Interventionseffekte nicht nur auf die gewollten Auswirkungen geachtet wird, sondern daß ebenso untersucht wird, ob und in welchem Ausmaß sich gegebenenfalls zu erwartende und vielleicht sogar völlig unerwartete Negativeffekte einstellen— schließlich lehrt die tägliche Erfahrung, daß das Gesetz von den unvermeidlichen ungewollten Nebenwirkungen auch in Pädagogik und Sonderpädagogik fröhliche Urständ feiert.
Ein Blick in die Fachliteratur zeigt, daß unter dem Sammelnamen der Evaluationsforschung eine Vielzahl von Studien gefaßt wird, die sich nach Problemstellung, Gegenstand, Ort und Zeitdauer, Zielsetzung, Forschungsdesign, Methodik der Datenerhebung und-auswertung etc. einteilen ließen(vgl. z.B. Hermann, Morris& Fitz-Gibbon 1988; Prell 1984; Wittmann 1985; Wottawa& Thierau 1990). In der vorliegenden Arbeit soll eine Gruppe von Forschungsdesigns vorgestellt werden, die in der internationalen Literatur wenig und in der deutschsprachigen Literatur zur wissenschaftlichen Evaluation fast gar nicht beachtet wird, die Gruppe der quasi-experimentellen einzelfallanalytischen Designs. Es soll gezeigt werden, daß diese Designs bestimmten, oft notwendigen Restriktionen, denen die Wissenschaftler bei Feldforschung im Bereich von Pädagogik und Sonderpädagogik immer wieder begegnen, weitgehend entgegenkommen, und daß diese Designs der Arbeitsweise praktisch tätiger Sonderpädagogen strukturell weitgehend entsprechen, so daß sie sich zur praxisbegleitenden Forschung geradezu anbieten. Im Verlaufe der Argumentation wird zu untersuchen sein, ob quasi-experimentelle Einzelfallanalysen die methodischen Standards erfüllen, die von wissenschaftlicher Evaluationsforschung zu fordern sind, d.h. es wird gefragt, ob sich mittels der hier
102
vorzustellenden Art von Forschung die Effekte von Interventionen zweifelsfrei feststellen und ob sich generalisierende Aussagen formulieren lassen, die in ihrer Gültigkeit über die konkreten Bedingungen der jeweiligen Einzelfallstudie hinausreichen. Die Argumentation wird sich folglich vorrangig auf methodologische Betrachtungen beziehen und sich — wir folgen hier einer klassischen Einteilung des Forschungsprozesses von Reichenbach(1953)— auf den Begründungszusammenhang von empirischer Evaluationsforschung im engeren Sinne (Campbell, 1969) konzentrieren, während der Entdeckungs- und der Verwertungszusammenhang nicht eigens thematisiert werden. Daraus ist allerdings nicht zu schliessen, letztere seien nur von sekundärer Bedeutung: Zielentscheidungen präformieren maßgeblich die Entwicklung von Interventionen und müssen deshalb bei deren Beurteilung ebenso kritisch betrachtet werden wie die Frage, wem und wie eine Intervention letztendlich nutzt. Andererseits ist zu bedenken: Wenn es den Forscherinnen und Forschern nicht gelingt, methodisch gesicherte Daten zu präsentieren, die begründete Schlüsse über die wirklichen Auswirkungen einer Intervention zulassen, gibt es— jedenfalls aus der Sicht einer sich kritisch verstehenden Sonderpädagogik als Realwissenschaft(Kanter 1985)— wenig zu diskutieren, was über den Austausch persönlicher Meinungen hinausgehen könnte.
Gruppenvergleichsstudien als Standardmethoden
Wer eine Intervention empirisch prüfen will, muß diese bei solchen Personen implementieren, die für die Zielgruppe, für welche eine Intervention gedacht ist, repräsentativ sind. Er muß außerdem mindestens eine abhängige Variable operational definieren, die als Indikator für Erfolg oder Mißerfolg dienen kann. Um feststellen zu können, ob sich die Ausprägung der abhängigen Variablen in Abhängigkeit von der Intervention als der unabhängigen Variablen ändert, muß er außerdem Maßnahmen zur Kontrolle
möglicher Störfaktoren treffen. Kurzum: Wer eine Intervention empirisch evaluijeren und dabei wissenschaftlichen Standards genügen will, muß die klassischen vier Bedingungen erfüllen, die für experimentelle bzw. quasi-experimentelle Forschung gelten: Sequenz zwischen abhängiger und unabhängiger Variable, willkürlich herstellbare Intervention, theoretisch valide Effektmessung und vollständige bzw. näherungsweise Bedingungskontrolle. Die wissenschaftliche Evaluation einer Intervention entspricht nämlich forschungslogisch der Prüfung einer vorgeordneten Hypothese, die einen funktionalen Zusammenhang zwischen unabhängiger und abhängiger Variable postuliert(vgl. Wember 1991, 94-96), und in diesem Zusammenhang kommt der Bedingungskontrolle eine besondere Bedeutung zu: Nur wenn es gelingt, in der Forschungspraxis eventuelle Störfaktoren vollständig oder möglichst weitgehend auszuschalten, können Veränderungen in der Ausprägung der abhängigen Variable relativ eindeutig auf die Intervention zurückgeführt werden. Ist die Kontrolle von Störfaktoren nicht oder nur sehr unvollständig gelungen, kann man nicht sicher sein, ob die beobachteten Effekte wirklich auf die zu prüfende Intervention zurückgehen.
Die klassische Strategie der Bedingungskontrolle ist die des Gruppenvergleiches, bei der im einfachsten Falle die Ergebnisse einer Experimentalgruppe, die der zu prüfenden Intervention ausgesetzt war, mit den Ergebnissen einer Kontrollgruppe verglichen wird, die keiner bzw. einer anderen— z.B. der bislang üblichen— Intervention ausgesetzt war. Einer Kontrollgruppe mit alternativer statt mit keiner Behandlung ist in der angewandten Feldforschung fast immer der Vorzug zu geben; denn wenn in einem sonderpädagogischen Handlungsfeld überlegt wird, eine neue Intervention einzuführen, ist die Alternative dazu nur in seltenen Ausnahmefällen, überhaupt keine Behandlung durchzuführen. Eine Forscherin, die gruppenvergleichend vorgeht, prüft faktisch die theoretische Hypothese, die neue Intervention steigere die Ausprägung der abhängi
HEILPÄDAGOGISCHE FORSCHUNG Band XX, Heft 3, 1994