Franz B. Wember- Evaluation in Einzelfallstudien
derter in allgemeinen Schulen(vgl. Preuss-Lausitz 1990; Langfeldt 1990, 1991, Themenheft„Integration und empirische Forschung“ dieser Zeitschrift). Wir werden im folgenden zunächst eingehender klären, was unter Evaluation und Evaluationsforschung zu verstehen ist, um anschließend die klassische Forschungsstrategie des Gruppenvergleiches in typischen Designs zu konkretisieren und hinsichtlich ihrer Möglichkeiten, vor allem aber auch hinsichtlich ihrer Grenzen, die sich bei sonderpädagogischen Fragestellungen oft besonders deutlich zeigen, zu beleuchten. Als Alternative wird die Strategie der quasi-experimentellen Einzelfallanalyse vorgestellt und an ausgesuchten Beispielen konkretisiert. Es soll gezeigt werden, daß auch bei sehr kleinen Personenstichpoben bis hin zu N= 1 die Effektivität von sonderpädagogischen Interventionen wissenschaftlich redlich geprüft werden kann und daß sich die einzelfallanalytischen Designs gerade für Zwecke der praxisbegleitenden Forschung in Sondererziehung und Rehabilitation besonders eignen, auch wenn sie auf eine weitaus kürzere Tradition zurückblicken als die geradezu klassischen Gruppenvergleichsstudien und sich dementsprechend noch in der Entwicklung befinden.
Evaluation und Evaluationsforschung
Eine Intervention kann, rational betrachtet, nie absolut, sondern immer nur relativ beurteilt werden, nämlich erstens relativ zu den akzeptierten ethischen Normen, denen alles Handeln genügen soll, zweitens relativ zu den gesetzten Zielen, die mit der Intervention erreicht werden sollen, und drittens relativ zu alternativen Interventionen, welche die gleichen oder ähnliche Ziele erreichen sollen und welche ebenso realisierbar wären wie die gewählte Intervention. Eine Evaluation besteht also im Kern aus der vergleichenden Bewertung von Handlungsalternativen; diese setzt zum einen eine sorgfältige Zielanalyse, konkrete Zielexplikationen und eine mög
100
lichst vorurteilsfreie und zugleich ideologiekritische Überprüfung der Legitimation von identifizierten und explizierten Zielen voraus, zum anderen die nüchterne und zugleich möglichst faire empirische Erfolgskontrolle. Letztendlich sind Interventionen nämlich nicht an den idealiter anvisierten Zielen zu messen, sondern an den realiter erreichten Effekten. Evaluationen führen folglich zu Wertungen, zu moralisch zu verantwortenden Stellungnahmen, die als Planungs- und Entscheidungshilfen der Handlungsoptimierung und somit der Verbesserung der Lebensumstände der Menschen dienen(Wottawa& Thierau 1990, 9-17), ohne daß die Frage aus dem Blick geraten darf, wem eine Intervention letztendlich nutzt und wer welche Kosten aufzubringen hat.
Abbildung 1 zeigt in starker Vereinfachung das Grundgerüst einer Evaluationsstudie: Ausgehend von aktuellen Anlässen werden über die Explikation von Zielen und Fragestellungen Variablen operationalisiert, ein Forschungsdesign realisiert, eine Intervention unter mehr oder minder kontrollierten Bedingungen implementiert und schließlich vergleichende Messungen vorgenommen, die sich als Erfolgs- bzw. Mißerfolgsindikatoren interpretieren lassen und die nicht selten in neue Fragestellungen einmünden, so daß sich der für empirische Forschung typische zyklische Prozeß der Weiterentwicklung von Fragen und der allmählichen Verbesserung von Antworten ergibt. Da solche Studien zur Akzeptanz und Weiterentwicklung von Interventionen oder aber zu deren Verwerfung führen, kommt ihnen große praktische Bedeutung zu: Evaluationen können die sonderpädagogische Praxis ändern, denn auf ihrer Grundlage befinden die Auftraggeber oder andere Entscheidungsträger nicht selten über die Verwendung gesellschaftlicher Ressourcen. Aus diesem Grunde ist nur folgerichtig, wenn gefordert wird, Evaluationen sollten wissenschaftlich fundiert durchgeführt werden. Schließlich beschreibt die allgemeine wissenschaftliche Methode, wie Bunge(1967) gezeigt hat, die bislang erfolgreichste Art zu denken und zu handeln, und folgenrei
che Bewertungen sollten nicht in die subjektive Beliebigkeit Einzelner gestellt oder der Interessenlage von Teilgruppen ausgeliefert, sondern mit geprüften Methoden und für eine kritische Fachöffentlichkeit nachvollziehbar vorgenommen werden. Wer eine solche Argumentation grundsätzlich akzeptiert, wird— wie Langfeldt dies bereits 1990 getan hat— auch zur Beurteilung sonderpädagogischer Interventionen kritische empirische Forschung fordern.
Thomas Kuhn hat vor vielen Jahren (1967) gezeigt, daß sich entwickelte wissenschaftliche Disziplinen dann, wenn scheinbar unlösbare Probleme und Widersprüche auftreten oder wenn Stagnation droht, in vergleichsweise kurze Phasen eines geradezu revolutionären Wandels durch grundlegende Neuorientierung begeben, daß aber der eigentliche Fortschritt auf objektwissenschaftlicher Ebene in relativ langen Phasen„normaler“ Wissenschaft entsteht: Gemäß der allgemeinen wissenschaftlichen Methode, die sich als ein Prozeß der immer wiederkehrenden Konfrontation von theoretischen Aussagen mit realen Daten auffassen läßt, werden die in einem Handlungsfeld auftauchenden Probleme approximativ zunehmend zufriedenstellenderen Lösungen nähergebracht. Folglich führt Evaluationsforschung als die praxisorientierte Variante der allgemeinen wissenschaftlichen Methode in aller Regel nicht in einmaligen Sprüngen zu den optimalen Lösungen, sondern in kleinen Schritten zur Aufgabe unwirksamer und zur allmählichen Verbesserung erfolgversprechender Interventionen. Dabei kommen die Forscherinnen und Forscher nicht umhin, nüchterne Kosten-Nutzen-Analysen vorzunehmen und entsprechende Optimierungsschritte vorzuschlagen: Akzeptierte Interventionen sollten faktische Effekte zeigen, diese sollten höher sein als bei alternativen Interventionen, und der Nutzen dieser Effekte sollte größer sein als die Kosten, die zur Implementierung der Intervention aufzubringen sind. Evaluationsforschung läuft also letztendlich auf eine Interventionsoptimierung durch Nutzenmaximierung bei gleichzeitiger Kostenminimierung hinaus, aber solche instru
HEILPÄDAGOGISCHE FORSCHUNG Band XX, Heft 3, 1994