Das „Erwartungsdreieck Evaluation“: Eine Praxisperspektive

Zuerst veröffentlicht von der Bundeszentrale für politische Bildung – Infodienst Radikalisierungsprävention >>

Politik, Wissenschaft und Praxis haben unterschiedliche Erwartungen an Evaluationen. Die von der Politik geforderten kurzfristigen Wirkungsnachweise sind aus Sicht der Praxis unbefriedigend, so Dennis Walkenhorst von Violence Prevention Network e. V. Er wirbt stattdessen für prozessorientierte, partizipative Evaluationen – und fordert die Politik auf, der Präventionspraxis mehr Raum und Zeit zu gewähren.

Einführung

Trotz der weit verbreiteten Forderung nach einer engeren Verzahnung von Wissenschaft und Praxis bilden Evaluationen aktuell die einzigen regelmäßigen Kontaktpunkte zwischen Forschenden und Praktizierenden im Feld der Radikalisierungsprävention und Deradikalisierung. Forschung und Praxis können als relativ entkoppelt bezeichnet werden. Die Gründe dafür sind unter anderem, dass die politischen Ansprüche an die kurzfristige Produktion von Nachweisen einer Wirkung der Arbeit kontinuierlich steigen, und dass politische Entscheider vor allem rein wirkungsorientierte Evaluationen beauftragen.

Evaluationen können, ganz grundsätzlich, verschiedenen Zwecken dienen. Sie können zum Beispiel als eine Art Kontroll- beziehungsweise Legitimationsinstrument genutzt werden. Sie können aber auch prozessorientiert und produktiv wirken, indem sie die Konzeption und/oder die praktische Umsetzung einzelner Projekte oder Programme über längere Zeiträume begleiten und anwendungsorientiert mitgestalten. [1]

Die deutliche Mehrheit der Projekte von Violence Prevention Network e.V. (VPN) wird beziehungsweise wurde wissenschaftlich evaluiert, sowohl in der Primärprävention als auch in der Angehörigenberatung und Deradikalisierung. Dabei können einzelne Projekte und Programme ebenso im Fokus stehen wie ihre Einbindung in übergeordnete Strukturen. Beispiele für Letzteres sind die Evaluation des Bundesprogramms „Demokratie Leben!“ durch das Deutsche Jugendinstitut oder die Evaluation der Beratungsstelle Radikalisierung des BAMF durch die BAMF-Forschungsstelle.

Auftraggeber, Dauer und inhaltliche Schwerpunkte beziehungsweise das Erkenntnisinteresse der einzelnen VPN-Evaluationen und auch von Evaluationen anderer Programme oder Maßnahmen variieren je nach Projekt stark. Einige Evaluationen zielen zum Beispiel dezidiert darauf, kurzfristige Wirkungen zu messen; andere widmen sich möglichst langfristiger formativer Begleitung. [2]

VPN begegnet dem Themenfeld Evaluation proaktiv und wirbt für möglichst langfristige und vor allem prozessorientierte Evaluationen, bei denen die Praxis bei der inhaltlichen Schwerpunktsetzung der Evaluation aktiv und möglichst früh beteiligt wird. Die Bearbeitung praxisrelevanter Themen verspricht aus unserer Perspektive, zur langfristigen Qualitätssicherung des Arbeitsfeldes beitragen zu können. Zu diesen Themen zählen zum Beispiel der Gewinn von Erkenntnissen über die jeweiligen Zielgruppen, die grundsätzliche Definition von Begriffen oder die Analyse der Gelingensbedingungen einer Zusammenarbeit von staatlichen und zivilgesellschaftlichen Akteuren.

Erwartungen an Evaluation: Politik, Praxis, Wissenschaft

Erwartungen und Ansprüche an Evaluation werden in der Regel von drei verschiedenen Seiten formuliert: Der Politik, der Wissenschaft und auch der Praxis. Die grundsätzlich verschiedenen Beobachtungs- und Handlungslogiken der Akteure eines solchen „Erwartungsdreiecks Evaluation“ spiegeln sich häufig auch in unterschiedlichen Schwerpunktlegungen des Designs und der Durchführung einzelner Evaluationen wider.

Gerade im Themenfeld des religiös begründeten Extremismus ist zu beobachten, dass im Zuge fortschreitender politischer Versicherheitlichungstendenzen der Sektoren der Radikalisierungsprävention und Deradikalisierung eine Schwerpunktverschiebung hin zu den Bedürfnissen und Funktionslogiken der Politik beziehungsweise politischer Entscheider erfolgt, also die vermeintliche Kontroll- beziehungsweise Legitimationsfunktion von Evaluationen in den Vordergrund rückt. Das heißt, dass Evaluationen dann vor allem die Aufgabe zukommt, Rechenschaft abzulegen: Ist dank Projekt X die Wirkung Y eingetreten? Das ist insbesondere dann der Fall, wenn es um Gelder der öffentlichen Hand geht. Entsprechend werden vermehrt Evaluationen in Auftrag gegeben, die innerhalb kurzer Zeiträume spezifische Wirksamkeiten (oder deren Ausbleiben) nachzeichnen sollen und dies auch explizit als Erkenntnisinteresse definieren.

Das ist insofern verständlich, als dass gerade in einer so vielfältigen Präventions- und Deradikalisierungslandschaft wie der deutschen ein erhöhter Bedarf an kurzfristig verfügbaren eindeutigen Kriterien zur zielgerichteten Vergabe von Fördermitteln besteht. In den vergangenen Jahren hat die kontinuierliche Erhöhung des Fördervolumens in diesem Sektor vor allem der politischen Intention des Handlungsnachweises Rechnung getragen. Nun folgt zeitverzögert der durchaus nachvollziehbare Bedarf, Sinnhaftigkeit und Wirkung der Handlung nachzuweisen. Dies wird dadurch verstärkt, dass die Arbeit in diesem Themenfeld grundsätzlich ein enormes Schadens- wie Skandalisierungspotential aufweist.

Sowohl aus Wissenschafts- als auch aus Praxisperspektive ist eine solche Schwerpunktverschiebung aber problematisch – vor allem, wenn sie dazu führt, dass überwiegend kurzfristige und rein wirkungsorientierte Evaluationen in Auftrag gegeben werden.

Wissenschaft und Praxis: Zwischen Prozess- und Wirkungsevaluationen

Bislang wurden keine Evaluationsberichte vorgelegt, die statistisch belastbare Aussagen zur Wirksamkeit der Präventions- beziehungsweise Deradikalisierungsprojekte im Bereich des religiös begründeten Extremismus zulassen. [3] Die mangelnde Belastbarkeit vorliegender Evaluationen hängt auch damit zusammen, dass Wirkungsforschung eigentlich ein experimentelles Design inklusive Versuchs- und Kontrollgruppe voraussetzt, was bedeutet, dass eine Gruppe bei eigentlich indizierter Radikalisierung nicht professionell begleitet würde. Ein solch notwendiges „Unterlassen“ ist vor allem im Kontext der Deradikalisierung keine ethisch vertretbare Option.

Hinzu kommt als eines der drängendsten Probleme der gegenwärtigen Forschung zur Prävention und Deradikalisierung die bislang kaum erfolgte Definition gemeinsamer beziehungsweise standardisierter Begriffe, Theorien und Methoden. Woran es hier mangelt, sind grundsätzliche Kriterien der Beschreibung und Bewertung. Ob und inwiefern diese Kriterien gegenstandsangemes-sen und quasi „parallel“ durch wirkungsorientierte Evaluationen erarbeitet werden können, ist auch im Forschungsdiskurs umstritten. [4]

Nicht zuletzt deshalb verfestigt sich in der Forschung immer mehr ein Bewusstsein darüber, dass Evaluationen der Radikalisierungsprävention und Deradikalisierung den Anspruch eines spezifischen Wirksamkeitsnachweises zunächst aufgeben sollten. Um wissenschaftlichen Standards genügen zu können, müssen zuvor grundlegende Fragen nach vorhandenen Begriffen, Theorien und Methoden im engen Austausch mit der Praxis beantwortet werden. Kurz gesagt: Bevor beispielsweise gemessen werden kann, ob eine Deradikalisierungsmaßnahme wirkt, muss sich zunächst mit der Praxis darüber verständigt werden, was eine solche Maßnahme überhaupt ist, was das Ziel eines Deradikalisierungsprozesses sein kann und anhand welcher Indikatoren dieser beobachtet wird.

Bewertungskriterien müssen in diesem Sinne evidenz- beziehungsweise erfahrungsbasiert sein. [5] Sind sie das nicht, dann bleibt auch für Praktikerinnen und Praktiker vollkommen intransparent, welche Indikatoren zur Messung eines „Erfolges“ ihrer Arbeit genutzt werden, inwiefern sich diese Indikatoren von ihren eigenen unterscheiden und worin sich die Auswahl der Indikatoren begründet. Eine solche Intransparenz führt, vor allem in Kombination mit nur sporadischen Kontakten zu den Evaluierenden in Situationen, in denen Bewertende zu Bewertenden gegenüberstehen, häufig genug zu Verunsicherung und Frustration auf Seiten der Praktikerinnen und Praktiker – und verstärkt darüber hinaus den weit verbreiteten Eindruck eines grundlegenden Misstrauens gegenüber der Praxis der Radikalisierungsprävention und Deradikalisierung.

Erwartungen der Praxis: Wann sind Evaluationen „nützlich“?

Ein notwendiger und aus Praxisperspektive nützlicher („Rück“-)Schritt sind Evaluationen, die langfristig, eng begleitend und vornehmlich prozessorientiert angelegt beziehungsweise durchgeführt werden. Vor allem die partizipativ gestaltete Erarbeitung von begrifflichen, theoretischen und methodischen (Qualitäts-)Standards sollte zum jetzigen Zeitpunkt ein unverzichtbares Element jeder Evaluation im Themenfeld sein. So lässt sich auch eine dauerhaft gestaltende Beteiligung der Forschung an Praxisprozessen ermöglichen. Außerdem können Vertrauensverhältnisse aufgebaut und konsolidiert werden. Als positives Beispiel in diesem Sinne kann zum Beispiel die von Milena Uhlmann durchgeführte Evaluation der Beratungsstelle Radikalisierung des BAMF angeführt werden, die auch mehrere Beratungsstellen von VPN berücksichtigt. Explizit wurde hier die gemeinsame Entwicklung konzeptioneller Grundlagen für potentielle, zukünftige Wirkungsanalysen als Ziel definiert.

Im Idealfall sind Forschende darüber hinaus auch schon an den frühesten Phasen der Projektentwicklung beteiligt, begleiten die Implementierung und Umsetzung intensiv und bauen immer wieder Rückkopplungsschleifen ein, die Raum für Anpassung und Änderungen ermöglichen. Die Wissenschaft könnte damit die häufig thematisierten Probleme des erschwerten Zugangs zur Praxis lösen und Austauschprozesse optimieren. Evaluationen, die all diese Punkte berücksichtigen, wurden bisher allerdings noch nicht durchgeführt.

Entscheidend für einen gelingenden Austausch zwischen Forschung und Praxis ist grundsätzlich eine Zusammenarbeit auf Augenhöhe. Transparenz und Akzeptanz auf beiden Seiten sind Grundbedingungen jeder Evaluation. Hier gilt es vor allem Potentiale zu erkennen: Ein großer Teil der heute in der Radikalisierungsprävention und Deradikalisierung tätigen Personen verfügt über einschlägige sozialwissenschaftliche Qualifikationen und könnte durchaus in gestaltender Rolle in Evaluationen einbezogen werden.

Aktuell können diese Mitarbeiter und Mitarbeiterinnen vor allem als „Brücken“ fungieren und so für ein gegenseitiges Verständnis zwischen Forschenden und Praktizierenden werben. Langfristig sollte darüber nachgedacht werden, solche Brückenfunktionen auch personell in Evaluationen abzubilden, also Mitarbeitende in (temporären) Doppelfunktionen an der Evaluation zu beteiligen.

Eine solche Konstellation verspricht gleichzeitig etwas „Drittes“ durch die Emergenz eines Verschmelzens von Praxis- und Forschungswissen. Dieser Umstand wird von Forschenden häufig nicht zur Kenntnis genommen. Die klassische Dichotomie von Forschenden und Beforschten beziehungsweise Fragenden und Befragten ist oft genug handlungsleitend und wird nur in den seltensten Fällen durchbrochen beziehungsweise reflektiert.

Grundsätzlich schwierig gestalten sich momentan noch die Prozesse des anschließenden Transfers von Evaluationsergebnissen in die pädagogische Praxis. In diesem Zusammenhang mangelt es bisher an geeigneten Austauschformaten und vor allem zeitlichen Ressourcen – sowohl auf Seiten der Forschenden als auch bei Praktikerinnen und Praktikern. Wissenschaftliche Erkenntnisse, die als formalisierte Handlungsempfehlungen durch Forschende an Beforschte im Sinne einer Einbahnstraße weitergereicht werden, zu deren Genese aber die exklusive Expertise der Praktikerinnen und Praktiker nicht genutzt wurde, haben im Gegenzug nur äußerst geringe Aussicht auf Anschlussfähigkeit beziehungsweise Verwendbarkeit und praktische Relevanz. So hat zum Beispiel die Diagnose einer einsetzenden beziehungsweise ausbleibenden Wirkung keinerlei Relevanz für die praktische Arbeit, sofern die Definitionskriterien von Wirkung einseitig, willkürlich und dem Forschungsstand unangemessen festgelegt werden. Das gilt vor allem, wenn nicht gleichzeitig definiert wird, welche praktischen Maßnahmen oder Vorannahmen in welcher Form angepasst werden müssten. Die politischen Implikationen solcher Ergebnisse können demgegenüber aber unter Umständen katastrophal sein und sogar zur unbegründeten Einstellung wichtiger Projekte führen.

Politik, Wissenschaft und Praxis müssen sich darüber im Klaren sein, dass die jeweils eigene Perspektive eben genau das ist: eine Perspektive unter vielen. Ein Bewusstsein für die jeweils anderen Handlungslogiken und -zwänge und sich daraus ergebende Erwartungshaltungen ist unverzichtbar für einen wechselseitig gewinnbringenden Austausch und die Vermeidung von Erwartungsenttäuschungen.

Erwartungen an die Politik: Was wären sinnvolle Rahmenbedingungen?

So sehr die Transferverhältnisse zwischen Wissenschaft und Praxis auch optimiert beziehungsweise im Sinne der oben beschriebenen Emergenz eines Verschmelzens von Praxis- und Forschungswissen neu interpretiert werden müssen, so sehr sollte auch der dritte zentrale Akteur des Erwartungsdreiecks, die Politik also, in die Verantwortung genommen werden. Schließlich ist sie es, die kollektiv verbindlich gegenstandsangemessene Rahmenbedingungen schaffen kann.

In diesem Zusammenhang bedarf es dringend langfristiger Projektförderungen, sowohl in Forschung als auch Praxis. Ebenso wie Radikalisierungsprozesse sind Prozesse der Distanzierung vom religiös begründeten Extremismus nicht innerhalb weniger Wochen oder Monate abgeschlossen. Oftmals bedarf es Jahre oder sogar Jahrzehnte der individuellen Begleitung, um von einem „erfolgreichen“ Abschluss sprechen zu können (und selbst dieser Erfolg muss noch definiert werden). Es erscheint deshalb geradezu absurd, dass die Förderung von Praxis und (begleitender) Forschung in diesem Feld in der Zeitdimension dermaßen unangemessen strukturiert ist.

Über den Blick auf die Zeitdimension hinaus kann man sich aus Praxisperspektive denjenigen Diagnosen der Wissenschaft anschließen, die dafür plädieren, „eine begleitende Evaluationskultur zu etablieren, die Verbindlichkeit […], Transparenz und auch eine Fehlerkultur vereint“[6]. Um ebenjene Fehlerkultur zu ermöglichen, müssten aber politische Erwartungshaltungen mit dem aktuellen Wissensstand von Forschung und Praxis abgeglichen werden. Praktikerinnen und Praktikern muss zudem der Raum zugestanden werden, sich auch über aus ihrer Sicht „fehlgeschlagene“ Praxisansätze austauschen zu können.

In einem Klima jedoch, in dem nach wie vor besonders die Konkurrenz um befristete Fördermittel den Ton angibt, bleibt kaum Platz für einen offenen Austausch über Negativtrends – und damit die Chance für wichtige Lernerfahrungen.

Der Autor

Dr. Dennis Walkenhorst, Politikwissenschaftler und Soziologe, ist wissenschaftlicher Leiter bei Violence Prevention Networks e. V. in Berlin. Seit Januar 2019 ist er außerdem als wissenschaftlicher Leiter bei Modus – Zentrum für angewandte Deradikalisierungsforschung gGmbH tätig. Seine Forschungsschwerpunkte sind Prozesse der (De-)Radikalisierung, gewaltbereite extremistische Bewegungen und politische Soziologie.

Kontakt: dennis.walkenhorst@violence-prevention-network.de

Fußnoten

1. Vgl. Armborst, Andreas; Biene, Janusz; Coester, Marc; Greuel, Frank; Milbradt, Björn; Nehlsen, Inga (2018): Evaluation in der Radikalisierungsprävention: Ansätze und Kontroversen. PRIF Report 11/2018, S. 14.

2. Einen Überblick über abgeschlossene Evaluationen unserer Projekte und die jeweiligen Berichte finden Sie unter: http://www.violence-prevention-network.de/de/publikationen/evaluationsberichte.

3. Vgl. Kober, Marcus (2017): Zur Evaluation von Maßnahmen der Prävention von religiöser Radikalisierung in Deutschland. In: Journal for Deradicalization (11), S. 335-344.

4. Vgl. Armborst, Andreas; Biene, Janusz; Coester, Marc; Greuel, Frank; Milbradt, Björn; Nehlsen, Inga (2018): Evaluationen in der Radikalisierungsprävention: Ansätze und Kontroversen. PRIF Report 11/2018, S. 15ff.

5. Aktuelle Forschungsprojekte zum Themenfeld, die nicht als Evaluationen konzipiert sind, sondern eher auf Grundlagenforschung abzielen, widmen sich deshalb auch vornehmlich einer Darstellung der „Präventionslandschaft“, erfassen also den begrifflichen, theoretischen und methodischen Ist-Zustand in Form eines „Mappings“ (siehe zum Beispiel das Projekt MAPEX).

6. El-Mafaalani, Aladin; Fathi, Alma; Mansour, Ahmad; Müller, Jochen; Nordbruch, Götz; Waleciak, Julian (2016): Ansätze und Erfahrungen der Präventions- und Deradikalisierungsarbeit (HSFK-Reportreihe „Salafismus in Deutschland“, Report Nr. 6/2016), S. 26.