Sie sind hier:Home»Arbeitskreise»Entwicklungspolitik und Humanitäre Hilfe»Bisherige Aktivitäten

Bisherige Aktivitäten

Dokumentation der Frühjahrestagung 2023 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: Mittendrin statt nur dabei! Partizipation in Monitoring & Evaluation

Die Frühjahrstagung fand am 20. und 21. Juni 2023 in Stuttgart an der Universität Hohenheim statt. Die Veranstaltung wurde gemeinsam mit FAKT Consult for Management, Training and Technologies ausgerichtet, sowie von WebMo finanziell unterstützt.

Die Teilnehmer:innen der Tagung befassten sich mit der Bedeutung sowie den Möglichkeiten und Grenzen von Partizipation in Monitoring und Evaluation in der Entwicklungszusammenarbeit und humanitären Hilfe. Neben einer theoretischen Herleitung und Begriffsklärung wurde der Frage nachgegangen, wie Partizipation in verschiedenen Phasen von Evaluation und Monitoring von Vorhaben konkret ausgestaltet werden kann, welche Erfahrungen es mit dem Einsatz unterschiedlicher Evaluationsansätze und Methoden gibt und wo Herausforderungen sowie Potenziale für Partizipation bestehen.

Dienstag, 20. Juni 2023

Yvonne Zahumensky (Forschungszentrum für Globale Ernährungssicherung und Ökosysteme der Universität Hohenheim (GFE), Christine Lottje (FAKT) und Sprecherin des AK-Epol-HuHi Kirsten Vorwerk (DEval) begrüßten zunächst die Teilnehmer:innen der Frühjahrestagung.

 

11:30 – 12:15 Participatory Evaluation: An Introduction, Marina Apgar (IDS)

Marina Apgar vom Institute of Development Studies (IDS), führte in die Veranstaltung mit einem theoretischen Input zu Partizipation in Evaluation ein. Dabei ging sie auf die Bedeutung von partizipativer Evaluation im Kontext der Debatte um Dekolonialisierung und Lokalisierung ein. Zudem brachte sie wesentliche Fragen zum Thema Partizipation in Evaluation und Monitoring auf die Agenda: Wer soll eingebunden werden und warum? An welchen Stellen sollen die Menschen eingebunden werden? Wie teilt man das Eigentum/die Ergebnisse? Wer hat die Macht im Evaluationsprozess? In Bezug auf die letzte Frage zeigte sie verschiedene Formen von Macht (sichtbare, verborgene und unsichtbare Macht) auf und regte dazu an, diese im Evaluierungsprozess zu reflektieren. Die Einbeziehung der Erfahrungen und Geschichten von Beteiligten und Betroffenen, sei ein wichtiger Aspekt, um unterschiedliche „Wahrheiten“ zu erfassen. Dafür verwies sie auf die Verwendung verschiedener Methoden.

Ein Beitrag von Marina Apgar über die Tagung findet sich auf der IDS Homepage: https://www.ids.ac.uk/opinions/participatory-evaluation-design-bricolage-and-paying-attention-to-rigour/

 

12:15 – 14:30 Stationen Café: Wann ist wie viel Partizipation in Evaluation möglich und sinnvoll?

An verschiedenen Stationen wurde in Gruppenarbeiten die Frage „Wann ist wie viel Partizipation in Evaluation möglich und sinnvoll?“ für unterschiedliche Phasen der Evaluierung betrachtet. Nach dem Mittagessen bestand Zeit durch die einzelnen Stationen zu schlendern, um sich die Ergebnisse anzuschauen.

 

14:30 – 15:15 Participatory Impact Assessment by communities with the PRA-based MAPP Approach, Regine Parkes (FAKT Consult for Management, Training and Technologies)

Regine Parkes von FAKT präsentierte den partizipativen MAPP-Ansatz (Method for Impact Assessment of Programmes and Projects). Nachdem sie den Entstehungsprozess sowie Hintergrund der Methode präsentierte, stellte sie die einzelnen Schritte bzw. Tools vor. Die Methode wurde von Susanne Neubert entwickelt. MAPP ist ein methodischer Ansatz, der eine Reihe von partizipativen Instrumenten zur Identifizierung und Messung von Veränderungen in Projekten, inkludiert. Im Fokus stehen Gruppendiskussionen. Regine Parkes wies darauf hin, dass MAPP in Kombination mit weiteren Methoden verwendet werden sollte.

15:15 – 16:45 Barcamp-Methode: Vorstellung sowie Themensammlung

Der Nachmittag des ersten Tages der Tagung wurde mit Gruppenarbeiten im Rahmen der Barcamp-Methode gefüllt. Nikolai Hergt (freier Evaluator und Berater), Sprecher des AK-Epo-HuHi, stellte die Methode und Vorgehensweise vor. Dem Tagungsthema entsprechend handelt es sich dabei um eine partizipative Methode, die den Teilnehmer:innen die Möglichkeit bot, zusätzlich zu den im Programm bereits festgelegten Themen, eigene Themenvorschläge für die Gruppenarbeit einzubringen.

Nach einer Abstimmung zu den Themen gab es sechs Arbeitsgruppen zu unterschiedlichen Themen, in zwei Runden zu je 45 Minuten.

16:45 – 17:30 Barcamp-Arbeitsgruppen – Runde 1

Gruppe 1: Gütekriterien für Monitoring, Referentinnen: Susanne von Jan (smep-consult) und Marie-Carin von Gumppenberg (freie Beraterin und Evaluatorin)

Im Rahmen dieser Arbeitsgruppe wurden die neuen Gütekriterien für Monitoring sowie das dazu von der Arbeitsgruppe „Monitoring“ des AK-Epol-HuHi veröffentlichte Arbeitspapier vorgestellt und diskutiert.

Gruppe 2: Meaningful participation in evaluation of long and complex impact pathways, Referentinnen: Adinda Van Hemelrijck und Eva Wuyts (beide Collaborative Impact)

Anhand eines Beispiels stellten die beiden Referentinnen vor, bei welchen Schritten in komplexen Evaluationen Partizipation möglich und sinnvoll ist. Dabei wurden Fragen aus der Key Note aufgegriffen: Wer wird einbezogen und warum, von wem, wer berichtet und profitiert am Ende? Unter anderem wurden Aspekte der Dekolonialisierung und Deinstrumentalisierung diskutiert.

Ein Ergebnis der Diskussion war, dass es aufgrund begrenzter Zeit und Ressourcen meist nicht möglich ist, eine komplette Evaluation partizipativ zu gestalten. Daher sollte bereits im Vorfeld der Evaluierung überlegt werden, zu welchem Zeitpunkt partizipativ gearbeitet wird. Zudem wurde auf Literatur zum Thema hingewiesen.

Gruppe 3: Weitere Einführung in die MAPP-Methode, Referent*innen: Regine Parkes und Bernward Causemann (beide FAKT Consult for Management, Training and Technologies)

Das Barcamp wurde genutzt, um offene Fragen zur zuvor vorgestellten MAPP-Methode zu klären, sowie diese detaillierter zu besprechen. Betont wurde, dass MAPP als Teil eines Methodenmix verstanden werden sollte. Innerhalb der Gruppe fand unter anderem ein Austausch über die Wichtigkeit der Zusammensetzung der Gruppen, welche partizipieren, statt.

 

17:30 – 18:15 Barcamp-Arbeitsgruppe – Runde 2

Gruppe 4: Conditions for success in participatory evaluation - conceptual examples and empirical experience from development education and awareness raising (DEAR), Referent:innen: Bernward Causemann (FAKT Consult for Management, Training and Technologies) und Susanne Höck (selbständige Evaluatorin, Beraterin und Trainerin)

In dieser Gruppe wurde eine Evaluation im Bereich der entwicklungspolitischen Bildungsarbeit vorgestellt, die in hohem Maße partizipativ durchgeführt wurde. Unter dem Einsatz unterschiedlicher Methoden wurde Partizipation in der Planung, Durchführung und Analysephase der Evaluation ermöglicht. Dabei wurde auf die drei Dimensionen von Partizipation nach Daigneault et. al. eingegangen: Ausmaß der Beteiligung, Vielfalt der Teilnehmer:innen und Kontrolle über den Evaluationsprozess (Daigneault et al. 2012). Die beiden Referent:innen erläuterten die einzelnen Methoden und veranschaulichten wie Partizipation die Validität von Ergebnissen stärken kann.

Gruppe 5: Participation of children & youth / children led participation experiences, challenges, best-practices? Organisatorin: Verena Himmelreich (Kindernothilfe)

Im Barcamp erfolgte ein Austausch zur Beteiligung von Kindern und Jugendlichen im Rahmen von Evaluierungen (siehe z. B. Dialogue Works) und damit verbundenen Methoden, Herausforderungen und ethischen Fragestellungen. Einigkeit bestand darüber, dass Kinder und Jugendliche einerseits durch die Partizipation in Evaluation „empowert” werden können. Anderseits kann das Erzählen von beispielsweise Gewalterfahrung retraumatisierend wirken. Diskutiert wurden auch die in der Key Note angesprochenen Formen von Macht.

Gruppe 6: What is bricolage? Marina Apgar (Institute of Development Studies (IDS)

Die Gruppe setzte sich mit dem Thema „Bricolage“ auseinander. Marina Apgar stellte hierbei die Ergebnisse einer Studie vor, in der - basierend auf einer strukturierten Analyse von 33 qualitativen Methoden - die Anwendung unterschiedlicher Multimethoden-Designs diskutiert wird, um die Rigorosität von komplexen Evaluierungen zu erhöhen. Ein Austausch erfolgte insbesondere zu der Frage, inwieweit die Kombination unterschiedlicher Methoden in der Praxis bereits erfolgt und wie diese systematischer gestaltet werden kann.

 

18:15 – 18:45 Barcamp-Methode: Berichte aus den Barcamp-Gruppen

Als Abschluss für den Tag wurden die Ergebnisse bzw. wichtigsten Punkte aus den Barcamp-Gruppen zusammengetragen.

 

Mittwoch, 21. Juni 2023

09:00– 10:45 Begrüßung und Werkstattgespräche

Nach der Begrüßung durch Thorsten Bär, Sprecher des AK-Epol-HuHi (World Vision Deutschland) konnten die Teilnehmer:innen zwischen drei unterschiedlichen Werkstattgesprächen wählen.

 

1. Partizipative Methoden in der Evaluierung.

Participatory Impact Assessment & Learning Approach (PIALA). Referentinnen: Adinda Van Hemelrijck, Eva Wuyts, (beide Collaborative Impact)

PIALA „[i]t’s an APPROACH for combining methods (not a particular method)
to ASSESS for learning and increasing value (not just to evaluate/judge)
of progress and contribution towards COLLECTIVE IMPACT as system change (beyond attribution / individual impact)
using PARTICIPATORY processes to co-generate knowledge (not to extract data)” (vgl. Präsentation Folie 4).

PIALA umfasst fünf adaptive methodische Elemente, die während verschiedener Evaluationsphasen, in denen jeweils Design-Entscheidungen getroffen werden müssen, angewendet, sowie von den Qualitätsstandards Rigorosität, Inklusion und Machbarkeit eingerahmt werden. Dies ermöglicht eine systematische Strukturierung und Endscheidung hinsichtlich des Grads von Partizipation. Die Referentinnen erläuterten wesentliche Aspekte inklusiver und bedeutsamer Partizipation, stellten verschiedene partizipative Methoden vor und gingen auf die Grenzen des Ansatzes ein. Nach einer Einführung zum methodischen Ansatz von PIALA erprobten die Teilnehmer:innen den Ansatz anhand von Beispielen in Kleingruppen.

Im Rahmen der Fishbowl (siehe unten), wurde PIALA als sehr gutes Beispiel für ein strukturiertes Evaluationsdesign sowie die Anwendung von „Bricolage“ bewertet. Dieser Ansatz verdeutlicht, dass Partizipation im gesamten Evaluationsprozess reflektiert werden sollte.

 

2. Partizipation in der humanitären Hilfe.

Einführung: Wie definiert sich Partizipation in der humanitären Hilfe, Referent: Marc Herzog (World Vision Deutschland e. V.)

Bedeutung von Partizipation in der Arbeit bei Malteser International, Referent: Julian Fellendorf (Malteser International)

Experiences in participatory monitoring, Referentin: Alice van Caubergh (Johanniter-Unfall-Hilfe e.V.)

Das Werkstattgespräch wurde von Marc Herzog geleitet. Er begann mit einer Einführung in das Thema und stellte vor, wie Partizipation im humanitären Sektor operationalisiert und gestaltet werden kann. Marc Herzog hob hervor, dass Geber und Hilfsorganisationen sich dafür einsetzen sollten, dass die Stimmen der am meisten gefährdeten Gruppen unter Berücksichtigung von Geschlecht, Alter, ethnischer Zugehörigkeit, Sprache und besonderen Bedürfnissen gehört und berücksichtigt werden. Anschließend präsentierten Julian Fellendorf und Alice van Caubergh Beispiele aus ihrer Arbeit bei Malteser International und Johanniter-Unfall-Hilfe.

Im Rahmen der Fishbowl (siehe unten) wurde als zentrales Ergebnis dieses Werkstattgesprächs hervorgehoben, dass Partizipation ein Prozess ist. Der humanitäre Hilfe-Sektor hingegen ist sehr technisch und diagnostisch. Partizipation braucht jedoch Energie, Zeit und Engagement. Hierzu sind Vertrauen, Verpflichtung und Organisationen die längerfristig aktiv und gewillt sind in den Prozess einzusteigen notwendig. Ein partizipativer Ansatz in diesem Bereich wäre eine Veränderung, die bisher noch nicht stattgefunden hat.

 

3. Partizipation im Monitoring.

Monitoring als Empowerment-Ansatz, Referentin: Karola Block (freie Organisationsberaterin und Evaluatorin)

Partizipatives Wirkungsmonitoring mit NGO- IDEAs: Wunschdenken, Annahmen und Voraussetzungen? Referentin: Dagny Skarwan (freie Beraterin und Evaluatorin)

Anhand eines Rollenspiels erprobten die Teilnehmer:innen eine partizipative Vorgehensweise im Rahmen von Monitoring. Die übergreifende Frage war, wie das Monitoring lokaler/kommunaler Aktivitäten von Gruppen gestaltbar ist. Nach einer kurzen Einführung in die Situation wurden verschiedene Fragen beantwortet. Im Anschluss wurde das Erlebte diskutiert und analysiert. Als Fazit ist festzuhalten, dass die Erhebung von Monitoringdaten zwar im Vordergrund steht, durch den vorgestellten Ansatz aber zusätzlich Partizipation gefördert wird. Zudem war mehr Ownership durch diesen Gruppenprozess beobachtbar.

Im zweiten Teil des Werkstattgesprächs wurde NGO-IDEAS vorgestellt. IDEAS bedeutet Impact on Development, Empowerment and Actions. Bei diesem Monitoring-Ansatz steht das Lernen und nicht die Rechenschaftslegung im Vordergrund. Dafür werden qualitative und quantitative Methoden kombiniert. Der Ansatz ermöglicht es lokalen Gruppen ihre gemeinsamen Ziele zu erkennen und die Umsetzung zu überprüfen. Dies soll Selbstwirksamkeitserfahrungen schaffen. NGO-IDEAS muss frühzeitig im Projektzyklus eingesetzt werden, bevor die Ziele festgelegt sind. Wichtig sei es, die Ergebnisse zu dokumentieren und zu sichern sowie den Beteiligten Zugang dazu zu schaffen. Zudem müssten die verfügbaren Kapazitäten geklärt und Trainings zu den Methoden angeboten werden.

Im Rahmen der Fishbowl wurde hervorgehoben, dass es bei partizipativem Monitoring wichtig sei, die Ziele und Kriterien der Teilnehmer:innen zu verwenden, auch wenn diese nicht mit der ursprünglichen Planung übereinstimmen. Aufgrund des Perspektivwechsel sei die verwendete Methode sehr relevant.

 

11:00 – 12:15 Fishbowl: Lernerfahrung, Zusammenfassung und Ausblick

Die Frühjahrestagung endete mit einer Fishbowl-Diskussion. Feste Teilnehmer:innen waren Marina Apgar, Susanne von Jan und Marc Herzog die zunächst aus den Werkstattgesprächen berichteten (siehe oben).

In der weiteren Diskussion wurde unter anderem auf die Rahmenbedingungen von Evaluationen eingegangen. Enge Rahmenbedingungen führten aus Sicht der Beteiligten dazu, dass Partizipation in Evaluation und Monitoring nur eingeschränkt möglich ist. Einerseits müssten bestehende Grenzen anerkannt, gleichzeitig aber auch Veränderungen angestrebt werden. Flexibilität könne durch den Verweis auf bestehenden Positionspapieren und Richtlinien erhöht werden. Hervorgehoben wurde, dass nicht nur aufgrund der Rechenschaftspflicht gegenüber dem Geber evaluiert wird.

Als ein wesentliches Ergebnis der Tagung wurde festgehalten, dass Partizipation im gesamten Projektzyklus von Bedeutung ist. Dabei müsse sich die Frage gestellt werden, wer partizipiert und wie repräsentativ der ausgewählte Personenkreis ist. Hier werden die drei Dimensionen von Partizipation nach Daigneault et. al. deutlich: Ausmaß der Beteiligung, Vielfalt der Teilnehmer:innen und Kontrolle über den Evaluationsprozess (Daigneault et al. 2012).

Ein Lernerfolg der Tagung ist, dass Partizipation tiefgehendes Wissen ermöglicht. Partizipative Ansätze in der Entwicklungszusammenarbeit können auch in der humanitären Hilfe genutzt werden. Wichtig ist dabei die Verbindung von Theorie und Praxis. Dazu zählt auch ein Austausch über Ethik, Absicherung und Vertrauen. Zudem gilt es, die unterschiedlichen Formen von Macht zu reflektieren und aufzubrechen. Dies kann durch Partizipation, vor allem in der Entscheidungsfindung, geschehen.

12:15 – 13:15 Mittagsimbiss, Ende der Tagung

 

Zuletzt geändert: 08. February 2024

Frühjahrstagung 2023 vom 20. bis 21. Juni 2023 in Stuttgart, ausgerichtet gemeinsam mit FAKT

Die Anmeldung zur Frühjahrstagung ist freigeschaltet (siehe Link oben) - Rückfragen zur Tagung bitte an das Sprecher*innenteam des AK-Epol-HuHi: ak-epol-huhi@degeval.org

Mittendrin statt nur dabei! Partizipation in M&E

Partizipation ist ein wesentliches Element zahlreicher Evaluationsansätze, wobei Art und Umfang der Partizipation stark variiert. Insbesondere bei der Frage nach dem Nutzen von Evaluation wird der Beteiligung von Interessensgruppen eine wichtige Rolle zugeschrieben: Durch die Mitwirkung der Betroffenen und Beteiligten wird eine höhere Akzeptanz und letztlich bessere Nutzung der Evaluationsergebnisse angestrebt. Je nach Ziel, Gegenstand und Evaluationsansatz kann die Ausgestaltung von Partizipation sehr unterschiedlich ausfallen und eine umfassende Einbindung unterschiedlicher Interessengruppen in allen Phasen der Evaluation oder auch lediglich die Einbindung spezifischer Gruppen zu einem bestimmten Zeitpunkt beinhalten. Eine Konzeptionalisierung von Partizipation, die Daigneault et al. für die Bewertung von partizipativer Evaluation zugrunde legen, unterscheidet drei wesentliche Dimensionen von Partizipation: Ausmaß der Beteiligung, Vielfalt der Teilnehmer und Kontrolle über den Evaluationsprozess (Daigneault et al. 2012) .


Im Rahmen der Frühjahrstagung werden wir uns mit der Bedeutung sowie den Möglichkeiten und Grenzen von Partizipation in Monitoring und Evaluation in der Entwicklungszusammenarbeit und Humanitären Hilfe befassen. Neben einer theoretischen Herleitung und Begriffsklärung möchten wir insbesondere der Frage nachgehen, wie Partizipation in verschiedenen Phasen von Evaluation sowie im Monitoring von Vorhaben konkret ausgestaltet werden kann, welche Erfahrungen es mit dem Einsatz unterschiedlicher Evaluationsansätze und Methoden gibt und wo Herausforderungen sowie Potenziale für Partizipation bestehen.


Außerdem werden wir Partizipation auch ganz praktisch anwenden: Die Teilnehmer*innen der Tagung werden die Gelegenheit bekommen, einen Teil der Tagung durch eigene Inputs mitzugestalten.

Bitte beachten Sie, dass manche Vorträge in englischer Sprache gehalten werden, ohne Übersetzung

>> Zum Programm (PDF)

 

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2022 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: Partizipation in Remote Evaluierungen

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2022 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe.

Die Frühjahrstagung fand am 28. Juli 2022 online statt. Die Veranstaltung wurde vom Arbeitskreis Entwicklungspolitik und Humanitäre Hilfe der DeGEval in Kooperation mit dem Verband Entwicklungspolitik und Humanitäre Hilfe (VENRO) ausgerichtet.

Thorsten Bär vom AK-Epol-HuHi begrüßte zunächst die Teilnehmenden der Frühjahrstagung.

14:35 – 14:50 Uhr „Einführung in das Veranstaltungsthema“
Zu Beginn der Veranstaltung gab Sebastian Schuster als Sprecher der VENRO AG Wirkungsorientierung eine kurze Einführung in das Veranstaltungsthema. Hierbei gab er einen Überblick zum Verständnis von „Partizipation“ sowie „Remote Evaluierung“ und welche Möglichkeiten und Herausforderungen „Partizipation in Remote Evaluierungen“ mit sich bringen.

14:50 - 15:35 Uhr “Participatory Evaluation: Theories und Methods for Remote Work“
Elizabeth DiLuzio von der Evaluation + Learning Consulting (EVALLEARN) stellte in ihrem Vortrag Ansätze und Erfahrungen zum Einsatz von partizipativen Methoden in Remote Evaluierungen vor. Nach einer einführenden Definition zu „participatory evaluation“ ging Elizabeth DiLuzio auf die Voraussetzungen für Partizipation in Remote Evaluierungen ein und zeigte Möglichkeiten auf, wie Partizipation in den verschiedenen Phasen einer Remote Evaluierung umgesetzt werden kann.

15:45 – 17:00 Uhr „World Café“
Nach einer kurzen Einführung von Susanne von Jan, Sprecherin des AK-Epol-HuHi, teilten sich die Teilnehmenden der Tagung in Gruppen auf und diskutierten an drei „Tischen“ (Break-out Rooms) unterschiedliche Fragen. Im Sinne des World Cafés konnten die Teilnehmenden an den „Tischen“ jeweils 15 Minuten zu den vorgegebenen Fragen diskutieren, danach wechselten sie an den nächsten „Tisch“. Insgesamt gab es drei Diskussionsrunden. Die Moderator*innen der Tische blieben in den jeweiligen Räumen und dokumentierten die Ergebnisse auf einem virtuellen Whiteboard (Mural). Nach Abschluss der dritten Runde wurden die Ergebnisse der Diskussionen von den Moderator*innen kurz im Plenum vorgestellt. Folgende Fragen wurden diskutiert:

Tisch 1 (Moderation Natascha Pancic, Welttierschutzstiftung):
Warum ist Ihnen Partizipation in Remote Evaluierung wichtig? Gibt es auch Aspekte, die gegen Partizipation sprechen? Inwieweit hängt die Einschätzung von unterschiedlichen Phasen der Evaluation ab?
Die Diskussion befasste sich sowohl mit den Grenzen für Partizipation (Ressourcen, Unabhängigkeit) als auch mit den Chancen (bessere Erreichbarkeit von Zielgruppen, virtuelle Teilnahme an gemeinsamen Veranstaltungen). Die Teilnehmenden waren sich einig, dass der Grad der Partizipation auch von Gegenstand und Zweck der Evaluierung abhängt.

Tisch 2 (Moderation Sebastian Schuster, AG Wirkungsorientierung, VENRO):
Welche Herausforderungen sehen Sie bei der Implementierung von Partizipation in Remote Evaluierung? Inwieweit sind die Herausforderungen abhängig von den verschiedenen Stakeholdergruppen, die Sie einbeziehen wollen? Welche Lösungsvorschläge fallen Ihnen ein?
In der Diskussion wurde deutlich, dass eine wesentliche Herausforderung für die Partizipation in Remote Evaluierungen in der Einbeziehung marginalisierter Gruppen sowie in der gemeinsamen Datensammlung mit nationale n Gutachter*innen oder Zielgruppen gesehen werden. Zudem bestehen Herausforderungen für die Erzielung eines umfassenden Kontextverständnis, da Informationen zum lokalen Kontext oder „spontane Kontakte“ schwieriger zu erhalten sind. Lösungsvorschläge bezogen sich insbesondere auf die enge Zusammenarbeit mit nationalen Gutachter*innen und die intensive Einbeziehung lokaler Expertise.

Tisch 3 (Moderation Jens Koy, freier Gutachter und Berater):
Wie ist es Ihnen gelungen, Partizipation in Remote Evaluierungen umzusetzen? Welche konkreten Ideen haben Sie? Welche Tools kennen Sie, die sich für Partizipation in Remote Evaluierung eignen?
Die Ergebnisse des Tisch 3 zeigen, dass virtuelle Workshops und Interviews gängige Tools bei Remote Evaluierungen sind. Insgesamt hat sich die Nutzung dieser Tools in den letzten Jahren weit verbreitet. Dadurch bestünde z.B. auch die Möglichkeit gemeinsame Kick-off-Workshops mit Partnern zu Beginn einer Evaluierung durchzuführen, ebenso wie Treffen zur gemeinsamen Diskussion von Ergebnissen.

17:10-17:55 Uhr: „Praxisbeispiel zu partizipativer Remote Evaluierung: Remote Evaluierung mit Outcome Harvesting“
Abschließend stellte Konny Rassmann, freiberufliche Evaluatorin und Beraterin ein Praxisbeispiel zu einer Remote Evaluierung vor, in der die Methode des „Outcome Harvesting“ zur Anwendung kam. Dabei handelte es sich um die Evaluierung eines komplexen, länderübergreifenden Vorhabens im Themebereich „Gute Regierungsführung“. In ihrer Präsentation stellte Konny Rassmann zunächst die Grundlagen von Outcome Harvesting vor, um im zweiten Schritt darauf einzugehen, wie Partizipation bei der remote Datenerhebung und -analyse mit Outcome Harvesting in der vorgestellten Evaluierung umgesetzt wurde.

17:55-18:00 Uhr: Verabschiedung

Zuletzt geändert: 08. February 2024

Jahrestagung DeGEval 2021 -Session des AK-Epol-HuHi 16.-17. September 2021

Evaluation 2.0? Die Corona-Pandemie als Anstoß für Wandel in der Evaluation in der Entwicklungszusammenarbeit und humanitären Hilfe

Vor dem Hintergrund des übergreifenden Tagungsthemas „Wandel durch Evaluation und Wandel der Evaluation“ befasste sich die Veranstaltung des AK mit der Frage, welche Veränderungen in der Evaluation, in der EZ und humanitären Hilfe im Zuge der Corona Pandemie stattgefunden haben und inwieweit diese Veränderungen im Sinne eines langfristigen Wandels auch zukünftig Bestand haben sollen.

 
In einem einführenden Vortrag „Evaluation approaches under Covid-19: what have we learned“ stellte Jos Vaessen, Methodenberater der Independent Evaluation Group (IEG) der Weltbank, Methoden und Ansätze, die im Zuge der Pandemie entwickelt wurden, sowie Erfahrungen der IEG mit deren Umsetzung, vor. Im Anschluss an den Vortrag diskutierten die Teilnehmenden in vier virtuellen Kleingruppen auf Basis ihre eigenen Erfahrungen, welche der aus der Corona-Pandemie resultierenden Veränderungen bei der Planung und Durchführung von Evaluationen langfristig beibehalten werden sollten. 

Die Diskussion orientierte sich an folgenden Leitfragen:

  1. Inwieweit hat sich Evaluation im Zuge der Pandemie verändert? 
  2. Welche Veränderungen sind nur temporär, welche sollten beibehalten und weiterentwickelt werden? 

 

Die Ergebnisse der Diskussion in den vier Gruppen wurden auf virtuellen Whiteboards festgehalten. Zum Abschluss der Gruppenarbeiten wurden zudem die jeweils wichtigsten 3 Veränderungen, die aus Sicht der Kleingruppen beibehalten werden sollen, auf einem Whiteboard gesammelt und anschließend im virtuellen Plenum gemeinsam betrachtet und von Jos Vaessen kommentiert. 
Wichtige Veränderungen die identifiziert wurden waren u.a. die größere Nutzung von Sekundärdaten sowie die Zusammenarbeit mit nationalen Evaluatorinnen und Evaluatoren und damit verbunden die stärkere Einbeziehung der „lokalen Perspektive“. Insbesondere wurde auch die Bedeutung von hybriden Formaten hervorgehoben, um die positiven Aspekte virtueller Formate stärker zu nutzen und mit „traditionellen“ Formaten der Datenerhebung (Projektbesuche, persönliche Interviews und Befragungen, Gruppendiskussionen etc.) zu kombinieren. Einigkeit bestand dahingehend, dass Projektbesuche und persönliche Erhebungen vor Ort auch in Zukunft wichtige Bestandteile von Evaluationen bleiben werden. Die Dokumentation der Ergebnisse findet sich hier.
 

Zuletzt geändert: 08. February 2024

Protokoll des Treffens des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe (AK-Epol-HuHi) am 16.09.2021

1. Begrüßung

Thorsten Bär begrüßte die Teilnehmenden an der Sitzung und stellte die Agenda vor. Insgesamt nahmen 26 Personen am AK-Treffen teil.


2. Neues aus den Institutionen 

Unter diesem Programmpunkt wurde über organisationale und personelle Veränderungen beim Auswärtigen Amt berichtet. Zudem wurde das Fortbildungsangebot des PME-Campus vorgestellt.

 

3. Präsentation AG Qualitätskriterien für Monitoring 

Bernward Causemann stellte die Arbeit der AG Qualitätskriterien für Monitoring vor, die sich im Anschluss an die Frühjahrstagung 2020 gebildet hat und dort besprochene Themen weiter ausarbeitet. Die AG trifft sich regelmäßig zum Austausch und erstellt, auf Basis einer umfassenden Literaturauswertung, derzeit ein Paper zum Thema. Darin werden u.a. Ziele, verschiedene Gütekriterien sowie Voraussetzungen für ein gelungenes Monitoring besprochen. 

 

4. Präsentation AG Remote Evaluierung 

Birgit Laue stellte die AG Remote Evaluierung vor. Die AG hat sich nach der Frühjahrstagung im Mai 2020 gegründet und dient unter anderem dem Austausch zu Erfahrungen mit Remote Evaluierungen. Die AG hat zudem eine Handreichung verfasst, die von Mitgliedern des AK kommentiert wurde und in den nächsten Monaten fertiggestellt werden soll. Zudem gab es verschiedene Treffen, zu denen externe Expertinnen eingeladen wurden, die ihre Erfahrungen mit Remote Evaluierungen vorgestellt haben. Das nächste Treffen der AG findet am 19.Oktober statt. Alle Interessierten sind eingeladen, daran teil zu nehmen. Gerne können sich auch Personen melden, die einen Input liefern möchten.

 

5. Vorstellung des p2p + Netzwerks 

Elba Estrada stellte das Netzwerk p2p+ vor (https://www.p2peval.com/). Das Netzwerk stellt eine Plattform für junge Evaluatorinnen und Evaluatoren bereit, um sich auszutauschen und Unterstützung für den beruflichen Einstieg zu bekommen. Die Plattform bietet Beratungsleistungen durch erfahrene Evaluatorinnen und Evaluatoren an, um Nachwuchsevaluator*innen in Bezug auf Job Möglichkeiten, sowie technische oder methodische Fragestellungen zu unterstützen. Darüber hinaus kann die Plattform auch genutzt werden, um Nachwuchsevaluator*innen für Evaluationsaufträge zu rekrutieren. Die Präsentation von Elba Estrada finden Sie hier.

 

6. Ideensammlung: Themen für die FJT 2022 und ausrichtende Organisation 

Für die Frühjahrstagung 2022 wurde eine Abfrage zu Themenvorschlägen gestartet. Neben den Vorschlägen, die bereits im Vorfeld des AK-Treffens eingereicht wurden, wurden weitere Vorschläge von den Teilnehmenden gesammelt. Über folgende Vorschläge wurde abgestimmt und die TOP 3-Themen identifiziert:

 

  • Vorschlag A: "Unterschied Wissenschaft und Evaluierung, was kann geleistet werden?“ 
  • Vorschlag B: "Partizipative Evaluierung - was heißt das?“ (TOP 1, 48%)
  • Vorschlag C: Nachhaltigkeit (Dauerhaftigkeit und Dimensionen)
  • Vorschlag D: Theoriebasierte Ansätze (inkl. Kontributionsanalyse)
  • Vorschlag E: Bewertungskriterien im Humanitarian-Development-Peace Nexus (TOP 3, 13%)
  • Vorschlag F: Zusammenarbeit mit lokalen Gutachter*innen (auch als Teilthema eines anderen Themas)
  • Vorschlag G: Remote Evaluierung/ Evaluation in der Post-Covid Situation unter einem „building back better“ Paradigma (TOP 2, 22%)

 

Für den weiteren Prozess wurde vereinbart, dass die drei TOP-Themen auch mit der ausrichtenden Organisation abgestimmt werden, um auf dieser Basis eine Entscheidung zu treffen. Eine weitere Ausarbeitung erfolgt dann durch das Sprecher*innen-Team. Eine ausrichtende Organisation für die Frühjahrstagung des AK konnte im Rahmen des AK-Treffens nicht identifiziert werden. Das Sprecher*innen-Team wird hierzu in den nächsten Monaten Organisationen anfragen.

 

7. Wahl des Sprecher*innen-Teams 

Susanne von Jan, Thorsten Bär und Kirsten Vorwerk wurden erneut als Sprecher*innen-Team des AK gewählt. 23 TN stimmten für das aktuelle SprecherInnenteam und 3 Personen enthielten sich.

 

8. Verabschiedung

 

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2021 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: Alles was Recht ist - Menschenrechtsbasierte Ansätze in Evaluation und Evaluation von Menschenrechten

(Von Teilnehmenden der Frühjahrstagung erarbeite Aspekte zum Satz „Menschenrechte bedeuten für mich…“, versinnbildlicht am Beispiel des „Menschenrechtsbaums“)

 

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2021  des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe.


Die Frühjahrstagung fand am 24. und 25. Juni 2021 aufgrund der aktuellen COVID-19 Situation online statt. Die Veranstaltung wurde vom Arbeitskreis Entwicklungspolitik und Humanitäre Hilfe des DeGEval in Kooperation mit dem Deutschen  Institut für Menschenrechte (DIMR) und dem Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) ausgerichtet. 

 

Donnerstag, 24. Juni 2021


Jörg Faust (DEval), Anna Würth (DIMR), sowie ein Sprecher des AK-Epol-HuHi, Thorsten Bär (World Vision) begrüßten zunächst die Teilnehmenden der Frühjahrstagung. 

09:50 – 10:15 Uhr „Menschenrechte bedeuten für mich …“ 
Noch vor dem ersten inhaltlichen Vortrag zum Thema der diesjährigen Frühjahrstagung wurden die Teilnehmenden im virtuellen Veranstaltungsraum gebeten, eigene Überlegungen aufzustellen, was Menschenrechte sind und welche Werte diesen zugrunde liegen. Am Beispiel von zwei „Menschenrechtsbäumen“ (Verlinkung hier und hier) trugen die Teilnehmenden der Frühjahrstagung somit aktiv zum Diskurs über Fragen der Menschenrechte bei. 

10:15 – 11:00 Uhr Menschenrechte: Definition, Abgrenzung, Kontextualisierung
Anna Würth (DIMR) stellte in ihrer einführenden Präsentation zum Thema Menschenrechte vor, wie der Begriff der Menschenrechte definitorisch gefasst werden kann. Durch ihre Darstellung der Meilensteine der Menschenrechte, beginnend bei der Allgemeinen Erklärung der Menschenrechte durch die UN-Generalversammlung von 1948, wurde in Bezug auf das heutige Verständnis von Menschenrechten deutlich, dass eine Neukontextualisierung und Spezifizierung von Menschenrechten prozessual stattfinden. Sie betonte, dass Staaten die Menschenrechte achten, schützen und gewährleisten müssen. In Bezug auf die Verbindung von Menschenrechten und Entwicklungszusammenarbeit gab Anna Würth an, dass Durchführungsorganisationen und NGOs ihre Sorgfaltspflicht beachten müssen und ging auf die Unterscheidung von Pflichten-Tragenden und Rechte-Inhabenden ein.

11:15 – 12:00 Uhr Menschenrechtsbasierte Ansätze in Evaluation – Vorstellung und Reflexion
Lena Taube und Martin Bruder (DEval) gaben in ihrem Vortrag einen Überblick über Menschenrechtsbasierte Ansätze explizit innerhalb der Evaluationsarbeit. Sie zeigten auf, dass innerhalb der evaluatorischen Arbeitsprozesse Menschenrechte und menschenrechtliche Prinzipien eine große Rolle spielen können. In allen Phasen der Evaluation, von Planung und Design über Erhebung und Analyse bis zur Disseminierung können Menschenrechte systematisch einbezogen werden. Dafür bieten Taube und Bruder in ihrem Vortrag verschiedene Entscheidungspunkte an, die wie Regler verstanden und mehr oder weniger spezifisch umgesetzt werden können. So kann beispielweise innerhalb der Planung einer Evaluation die menschenrechtliche Situation im Fallstudienland anhand von relevanten ratifizierten Menschenrechtsverträgen untersucht werden. Abschließend beschrieben die Vortragenden menschenrechtsbasierte Evaluierung als ein Qualitätsmerkmal einer erfolgreichen Evaluation, welche eher durch eine Haltung getragen wird und weniger durch das Abhaken von Checklisten. 

 

13:30 – 15:30 Gruppenarbeiten

Die Teilnehmenden der Frühjahrstagung nahmen im weiteren Verlauf an einem von zwei parallel stattfindenden Workshops teil.

Workshop A zu Menschenrechten als Querschnittsthema in Evaluation: Standards, Leitfragen und Vorgehensweise

Referierende: Ilse Worm (freie Evaluatorin) und Marco Hanitzsch (CoResult) 

Dieser Workshop beschäftigte sich mit dem Thema der Menschenrechte als Querschnittsthema in Evaluationen und es wurden Standards, Leitfragen und Vorgehensweisen diskutiert. In einer einführenden Präsentation durch die Referierenden wurde anhand von Beispielen die Integration von Leitfragen zu Menschenrechten in die OECD DAC-Evaluierungskriterien sowie spezifische Fragestellungen zu wirtschaftlichen und sozialen Rechten vorgestellt. In zwei Gruppenübungen mit Fallbeispielen aus der staatlichen Entwicklungszusammenarbeit sowie der humanitären Hilfe analysierten die Teilnehmenden die Vorhaben hinsichtlich menschenrechtlicher Aspekte. Dies beinhaltete beispielsweise auch die Identifizierung von Rechteinhaber*innen und Pflichtenträger*innen. In einem zweiten Schritt wurden entlang der DAC-Evaluierungskriterien spezifische Evaluierungsfragen entwickelt und diskutiert, wie zentrale Menschenrechtsprinzipien im Evaluierungsprozess berücksichtigt werden sollten.  Aus den Gruppenübungen wurde deutlich, wie menschenrechtliche Normen und Prinzipien systematisch in Evaluationen berücksichtigt werden können, sowohl bei der Bewertung von Vorhaben, als auch im Rahmen des Evaluationsprozesses. Diskutiert wurde dabei unter anderem die Umsetzung des Prinzips der Nicht-Diskriminierung sowie die Rolle von lokalen NGOs, die zum Teil sowohl Pflichtenträger*innen sind als auch Vertreter*innen von Rechteinhaber*innen. 

Workshop B: Trauma-informed approach to evaluations - sharing of experiences with evaluations in trauma related contexts: Challenges identified and practical

Referierende: Berenice Meintjes (Jikelele Consultancy, South Africa), Ulrike Weinspach (Misereor) und Kirsten Wienberg (medica mondiale)

Kirsten Wienberg und Berenice Meintjes haben in zwei Präsentationen (hier und hier) in diesem Workshop vier Schlüsselprinzipien von Trauma-sensiblen Ansätzen vorgestellt: Sicherheit, Empowerment, Solidarität und Selbstschutz/Organisationaler Schutz. Darüber hinaus haben sie für die Bedeutung eines Trauma-sensiblen Vorgehens sensibilisiert und Erfahrungen von Evaluationen in traumabezogenen Kontexten vorgestellt sowie Empfehlungen gegeben. Die Teilnehmenden des Workshops diskutierten darauffolgend in Kleingruppen über die Inhalte der Präsentationen und machten deutlich, dass einerseits das Design und die Auswahl von partizipativen Methoden und ein gesteigertes Empowerment positive Auswirkungen auf sowohl Evaluationsprozesse als auch auf die beteiligten Stakeholder haben könnte und andererseits eine ausreichende Qualifizierung der Evaluierenden in solchen Trauma-sensiblen Bereichen notwendig ist. 

 

16:00 – 17:15 Uhr Erfahrungsaustauch und Diskussion zu den beiden Workshops

In Flüstergruppen tauschten die Teilnehmenden der beiden Workshops sich miteinander aus und erörterten Ergebnisse sowie offenen Fragen. Im Anschluss haben die Referenten*innen im Plenum aus den Flüstergruppen resultierende Fragen beantwortet. 

 

Freitag, 25. Juni 2021

 

Um 09:00 Uhr begann der zweite Tagungstag und die Teilnehmenden wurden durch Kirsten Vorwerk, Sprecherin des AK-Epol HuHi (DEval) begrüßt.

09:00 – 10:45 Uhr World Café 

Die Teilnehmenden der Frühjahrstagung versammelten sich an drei virtuellen Tischen und diskutierten dabei unterschiedliche Fragestellungen. 

Unter der Moderation von Simon Freund diskutierten die Teilnehmenden am ersten virtuellen Tisch folgende Fragen: Was müssen wir verändern, um Menschenrechte in Evaluierungen ernst zu nehmen? Wie können wir menschenrechtsbasierte Ansätze in der Praxis umsetzen? Und was benötigen Auftraggeber*innen und Evaluator*innen dafür? Ein Ergebnis dieser Diskussion war, dass es das Bewusstsein braucht, dass es sich bei Menschenrechten um Rechte handelt und gute Evaluierungen das Thema bearbeiten und Menschenrechtsprinzipien selbst umsetzen müssen (Qualitätsmerkmal).  Außerdem müssen menschenrechtsbezogene Fragestellungen für den Evaluierungsgegenstand als Evaluierungsfragen konkret operationalisiert werden. Auch wurde die Bedeutung von menschenrechtsbezogenen Kompetenzen seitens der Evaluierenden besonders hervorgehoben.

Evelyn Funk moderierte die Gesprächsrunde am zweiten virtuellen Tisch mit folgenden Leitfragen: Inwieweit muss im Globalen Süden bei der Beachtung von Menschenrechten in Evaluierung kultursensibel vorgegangen werden? Inwieweit kann und sollte der universale Anspruch der Menschenrechte lokal konkretisiert werden? Die darauffolgende Diskussion konzentrierte sich zuerst auf das Verständnis von Kultursensibilität. Hierbei wurde festgehalten, dass ein Umgang mit Menschenrechten dann kultursensibel ist, wenn aus der Perspektive einer Kultur angemessene Fragen, Formulierungen und Vorgehensweisen für die Evaluierung gewählt werden. So können Menschenrechte ein kultursensibles Framing bekommen, wobei der inhaltliche Kern nicht verändert wird. Zudem müssen die Wertvorstellungen der Evaluierenden reflektiert und nach außen transparent gemacht werden. Außerdem wurde diskutiert, dass konkrete Strategien für einen kultursensiblen Umgang mit Menschenrechten mit Gutachtenden-Tandems entwickelt werden sollten. Gutachtende sollten eine Kulturexpertise mitbringen und  ein kultursensibles Framing/Wording beachten. Zudem sollten regionale Menschenrechtskonventionen berücksichtigt und Partnerorganisationen sowie Stakeholder und Rechteinhaber*innen angemessen miteinbezogen werden 

Am dritten virtuellen Tisch diskutierten die Teilnehmenden unter der Moderation von Steffen Schimko die folgenden Fragen: Wie können wir mit einer potenziellen Überfrachtung von Evaluationen umgehen, wenn neben den Fragen zu den OECD/DAC-Kriterien noch Querschnittsthemen wie SDG, Menschenrechte, Gender, Inklusion oder ökologische Aspekte beachtet werden sollen? Welche Möglichkeiten für einen Umgang mit diesen Herausforderungen gibt es? Die Diskussion zu diesen Fragen zeigte die Bedeutung der Terms of Reference für eine Evaluierung auf, in denen der Auftrag deutlich gemacht werden muss. Die Verantwortung für eine Fokussierung und Schwerpunktsetzung (im Rahmen der Vorgaben der Mittelgebenden) liegt dabei v.a. bei den Auftraggeberinnen und Auftraggebern. Menschenrechte können hier als Referenzrahmen dienen, da diese bereits viele gängige Querschnittsthemen miteinbeziehen.

11:15 – 12:15 Uhr Evaluation von Menschenrechtsprojekten: Die Förderbereichsevaluierungen Menschenrechte der kirchlichen Träger

In ihrem gemeinsamen Vortrag präsentierten Friederike Subklew-Sehume (Brot für die Welt) und Michael Steinfelder (Misereor) die Förderbereichsevaluationen ihrer beiden Organisationen zum Thema Menschenrechte. Hierbei fokussierten die Referierenden sich auf den Prozess, die zugrunde liegenden Wirkungsmodelle, die methodischen Aspekte der Evaluation von Menschenrechtsprojekten sowie auf die Schritte der Organisationen, um die Verbreitung der Ergebnisse und das Lernen zu fördern. Dabei wurden Gemeinsamkeiten und Unterschiede bei der Vorgehensweise der beiden Organisationen dargestellt und erörtert Ein für beide Organisationen wichtiges Thema war beispielweise die Verbreitung der Ergebnisse und das Lernen aus der Evaluation, jedoch unterschieden sich die Herangehensweisen u.a. dadurch, dass auf der einen Seite mit Lern-Teams aus Mitgliedern verschiedener Hauptabteilungen gearbeitet wurde und auf der anderen Seite durch und mit Workshops gemeinsam mit Partnerorganisationen. 

12:15 – 13:00 Uhr Bewertung und Impulse: Perspektiven auf die Tagung

In der die Frühjahrstagung abschließenden Podiumsdiskussion unter der Moderation von Susanne von Jan (Sprecherin AK-Epol-HuHi, smep-consult) bewerteten die Teilnehmenden die diesjährigen Frühjahrstagung abschließend und gaben Impulse für die weitere Arbeit. Mit Michael Herbst (CBM), Jonas Schubert (TDH, Forum Menschenrechte) und Justine Hunter (freie Evaluatorin) als Podiumsteilnehmende konnten verschiedene Perspektiven in die abschließende Diskussion eingebracht werden. In der Diskussion wurde positiv bemerkt, dass durch die Tagung verschiedene Communities zusammengebracht wurden, z.B. Experten für Menschenrechte mit Evaluierenden und dass ein engerer Kontakt für beide Seiten gewinnbringend wäre. Zudem zeigte sich ein Podiumsteilnehmer überrascht, dass das Thema Menschenrechte und menschenrechts-basierte Ansätze in Evaluierung noch relativ neu zu sein scheine. Hinsichtlich der Impulse wurde empfohlen, in Evaluierungen keinen zu technokratischen Blick auf Menschenrechte zu werfen und über Indikatoren nicht zu sehr in ein Schema-Denken zu verfallen. In diesem Kontext wurde auch die Nutzung von Proxy-Indikatoren angeregt.  Weiterhin wurde hinsichtlich vulnerabler Gruppen darauf hingewiesen, dass es hier nicht nur darum gehen dürfe, Personen nicht auszuschließen, sondern eine aufholende Entwicklung zu ermöglichen. Schließlich ist sowohl das Prinzip der Nicht-Diskriminierung, als auch die generelle Einbindung von benachteiligten Menschen ist für eine menschenrechtsbasierte Evaluation von enormer Wichtigkeit, um die Diversität und Qualität von Evaluationen zu fördern. 


13:00 – 13:15 Verabschiedung und Ende der Tagung
 

Zuletzt geändert: 08. February 2024

Protokoll zum Treffen des AK-Epol-HuHi im Rahmen der DeGEval Jahrestagung am 17.09.2020

Bei der ersten virtuellen Jahrestagung der DeGEval konnte auch der AK-Epol-HuHi ein virtuelles AK-Treffen mit spannenden Themen abhalten. Nach einer kurzen Begrüßung und dem Programmpunkt „Neues aus den Institutionen“ stand das „Update zur BMZ Orientierungslinie der Evaluierungskriterien“ auf der Agenda.

Hierbei präsentierten Berthold Hoffmann (BMZ) und Martin Noltze (DEval) den aktuellen Stand der Orientierungslinie der Evaluierungskriterien und gaben einen Überblick über den Umgang des BMZ mit den Kommentaren von VENRO, den deutschen EZ-Evaluierungseinheiten sowie dem AK-Epol-HuHi der DeGEval (s. Präsentation). 

Daraufhin berichtete das Sprecher*innen-Team des AK-Epol-HuHi zum Stand der Planung der Frühjahrstagung 2020. Im Rahmen der Tagung wird das Thema „Evaluation und Menschenrechte“ bearbeitet. Diese wird am 24. und 25. Juni im Uni-Club in Bonn stattfinden und gemeinsam mit DEval und dem Deutschen Institut für Menschenrechte (DIMR) ausgerichtet.

Im Anschluss wurden die AGs „Gütekriterien für Monitoring“ und „Remote Evaluierung“ vorgestellt und zum Mitmachen eingeladen. Bernward Causemann stellte die AG „Gütekriterien für Monitoring“ vor und gab einen kurzen Überblick über den aktuellen Stand. Birgit Laue stellte anschließend die AG „Remote Evaluierung“ und erste Arbeitsergebnisse vor. Beide AGs haben sich bereits mehrmals getroffen. Personen, die gerne bei den AGs mitwirken möchten, sind herzlich eingeladen sich bei den Koordinator*innen zu melden (gerne per Mail an das Sprecher*innen-Team des AK, wir leiten das dann weiter). 

Des Weiteren stellte Nikolai Hergt das Austauschformat „Evaluator*innen unter sich“ vor. Dies ist ein offenes Austauschformat für alle Personen, die selbst Evaluationen durchführen. Die Treffen finden ca. alle 2 Monate statt und es gibt eine LinkedIn-Gruppe zum Thema. Die Termine für die Treffen werden im Newsletter des AK veröffentlicht.

Das AK-Treffen endete mit dem Programmpunkt „Verschiedenes“, hier wurde unter anderem über Möglichkeiten der CO2-Einsparung im Kontext von Evaluierungen (z.B. durch remote-Verfahren) gesprochen.
 

Zuletzt geändert: 08. February 2024

Evidenzbasierte internationale Zusammenarbeit in Zeiten der Corona-Pandemie. Auswirkungen von COVID-19 auf Evaluierungen in der EZ und humanitären Hilfe.

Dokumentation zur virtuellen Veranstaltung DEval/AK-Epol-HuHi am 03.06.2020 von 10:00 bis 12:00 Uhr.

Mit der Ausbreitung der Corona-Pandemie in Entwicklungs- und Schwellenländern steht die internationale Gemeinschaft vor neuen globalen Herausforderungen. Viele der in der Entwicklungszusammenarbeit, humanitären Hilfe und Stabilisierung tätigen Organisationen haben Maßnahmen ergriffen, um die negativen Folgen der Pandemie in den betroffenen Ländern einzudämmen. Vor diesem Hintergrund ergeben sich auch neue Rahmenbedingungen für die Evaluierung in der EZ und humanitären Hilfe. Auf der einen Seite steht Evaluierung vor der Aufgabe Evidenz für eine wirksame Gestaltung der Maßnahmen bereitzustellen, gleichzeitig ergeben sich weitreichende Konsequenzen für die Umsetzung von Evaluierungen - sowohl für die inhaltliche und methodische Ausrichtung als auch aus ethischen und finanziellen Gesichtspunkten.

Die Veranstaltung zielte darauf ab, konkrete Auswirkungen von COVID 19 auf die Evaluierung in der Entwicklungszusammenarbeit, humanitären Hilfe und Stabilisierung aus unterschiedlichen Perspektiven zu beleuchten und mit einem breiten Publikum zu diskutieren. Eingeladen waren Vertreterinnen und Vertreter aus Ministerien, staatlichen Durchführungsorganisationen, Wissenschaft, nicht staatlicher Zusammenarbeit und Evaluator*innen, die in Kurzvorträgen auf folgende Fragestellungen eingingen:

  1. Welche inhaltlichen Veränderungen bzw. Verschiebungen von Prioritäten ergeben sich für die Arbeit in der EZ, humanitären Hilfe und Stabilisierung aufgrund der Corona-Pandemie?
  2. Welche Auswirkungen haben diese Veränderungen auf die Umsetzung von (laufenden und geplanten) Evaluierungen?
  3. Gibt es gute/innovative Beispiele für die Durchführung von Evaluierungen vor dem Hintergrund der Corona-Pandemie?


Den Auftakt machte Daniel Ramge, Referatsleiter S 06 (Evaluierung) im Auswärtigen Amt, der auf die Veränderungen bei Evaluierungen in der humanitären Hilfe und Stabilisierung einging. Nachfolgend berichtete Claudia Gottmann, Referentin Ref. 105 (Evaluierung und Ressortforschung, DEval, DIE) im Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) zu den Auswirkungen der Pandemie auf die Evaluierungen in der staatlichen Entwicklungszusammenarbeit.

Die Sichtweise der Wissenschaft wurde von Jörg Faust, Direktor des Deutschen Evaluierungsinstituts der Entwicklungszusammenarbeit (DEval) vertreten, der sowohl über Anpassungen bei laufenden Evaluierungen des DEval als auch über die Aktivitäten in der internationalen Evaluierungscommunity berichtete.
Anschließend stellte Jochen Kluve, Head of Evaluation der KfW Entwicklungsbank, als Vertreter einer der großen Durchführungsorganisationen die Veränderungen und Reaktionen auf COVID-19 im Evaluierungssystem der KfW Entwicklungsbank vor. Für die nichtstaatliche Entwicklungszusammenarbeit berichteten Kirsten Wienberg, Sprecherin VENRO AG Wirkungsorientierung und Klaus Heinle, Leiter L4 Evaluierung in der Hanns-Seidel-Stiftung über die Herausforderungen, welche die Pandemie für Evaluierungen der Nichtregierungsorganisationen und bei der politischen Hanns-Seidel-Stiftung mit sich bringt. Den Abschluss bildeten die Vorträge von Michael Lieckefett, Evaluation Manager bei Particip GmbH und Marie-Carin von Gumppenberg, freie Gutachterin, die als Auftragnehmende und Durchführende von Evaluierungen über konkrete Erfahrungen in der Umsetzung von Evaluierungen in Zeiten der Pandemie berichteten.

Die Teilnehmenden der Veranstaltung hatten die Möglichkeit über den Chat Rückfragen an die Vortragenden zu stellen. Zu jedem Vortrag wurde eine Frage ausgewählt, die direkt beantwortet wurde, die anderen Fragen wurden nachträglich von den Vortragenden schriftlich bearbeitet. Die vollständige Dokumentation der Fragen und Antworten kann hier nachgelesen werden.

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2020 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: #ZahlenDatenFakten - Monitoring in der Entwicklungszusammenarbeit und Humanitärer Hilfe. Zwischen Anspruch und Realität.

(Thorsten Bär und Kirsten Vorwerk, Sprecher und Sprecherin des AK Entwicklungspolitik und Humanitäre Hilfe bei der diesjährigen Frühjahrstagung in Bonn. Foto: Ruth Fuchs)

 

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2020 des AK Entwicklungspolitik und Humanitäre Hilfe.

Am 05. und 06. März 2020 fand in Bonn die Frühjahrstagung statt, welche von Deutschen Akademischen Austauschdienst (DAAD) ausgerichtet wurde.

Donnerstag, 05. März 2020

 

Christiane Schmeken (DAAD) sowie der Sprecher des AK-Epol-HuHi, Thorsten Bär (World Vision), begrüßten zunächst die Teilnehmenden der Frühjahrstagung.

10:20 - 11:00 The frontier of Monitoring for development and humanitarian goals
Masahiro Igarashi (UNEG/FAO) gab in seinem Vortrag einen Überblick über wichtige Aspekte eines qualitativ hochwertigen Monitoringansatzes. Er wies darauf hin, dass im Monitoring sowohl qualitative als auch quantitative Informationen erhoben werden müssen. Zudem sollten Wechselbeziehungen zwischen Maßnahmen Ergebnissen, Wirkungen sowie anderen verbundenen Faktoren im Blick gehalten werden. Dabei sei es wichtig, den dynamischen Wandel eines Kontextes zu monitoren. Monitoring sollte in Wissensmanagementsprozesse eingebettet sein. Ein erfolgreiches Monitoringsystem ist nach Igarashi eine Grundvoraussetzung eines Adapative-Programming Ansatzes, welcher auch verschiedene Risikoszenarien miteinbezieht.

11:00 - 12:30 Gruppenarbeit „Posterzeit“
Anschließend an den ersten Vortrag erarbeiteten die Teilnehmenden in interaktiver Gruppenarbeit Poster zu Gütekriterien, Standards und Anforderungen an Monitoring. Diese wurden zuerst getrennt von den Gruppen der Gutachtenden und Auftraggeber erarbeitet. Im Anschluss präsentierten die Gruppen sich gegenseitig in Kurzvorträgen die Ergebnisse.

14:00 - 14:45 Wie digitales Denken als methodischer Ansatz das heutige Projektmonitoring verbessert
Felipe Isidor Serrano und Olaf Haasner von MainLevel präsentierten in ihrem Vortrag, inwiefern die Kluft zwischen Anspruch und Realität von Projektmonitoring mit der Theorie des digitalen Denkens zu verringern ist. Gemäß den Referierenden kann digitales Denken die in der Projektarbeit häufig fehlenden Verknüpfungen zwischen Indikatoren und Daten verbinden. In dem die Datenstruktur mitbedacht wird, werden die Indikatoren operationalisierbar. Durch den Aufbau eines digitalen Monitoringsystems kann zudem erreicht werden, die Datenstrukturen für das Projektmonitoring aufzubauen und die benötigten Daten für jeweilige Indikatoren im Voraus zu bestimmen. Zudem können über digitale Tools (z.B. Dashboards) jederzeit Auswertungen der Indikatoren mit den bereits vorhandenen Daten umgesetzt werden.

14:45 - 15:30 Wissensmanagement: Grundlagen, Tipps und Maximen
Ulrich Schmidt von der Gesellschaft für Zwischenlagerung (BGZ) beleuchtete in seinem Vortrag verschiedene Ansätze und Perspektiven auf die Konzeption und Realisierung von Wissensmanagement. In seinem Vortrag präsentierte Schmidt sieben Leitlinien für einen erfolgreichen Umgang mit Wissen und erläuterte beispielsweise, dass Wissen immer an den Menschen gebunden ist, ohne den aktiven Menschen wird nur Information gemanagt.  In einer Zusammenfassung nannte er zwei verschiedene Ansätze zur Umsetzung von Wissensmanagement: Wissen einerseits verstanden als Erkenntnisstand und andererseits im Sinne eines Lösungswegs. Die sieben Leitlinien sollen darüber hinaus dazu dienen, eine wissensorientierte Unternehmensorganisation zu ermöglichen.

16:00 - 16:45 Wirkungsorientiertes Monitoring auf institutioneller Ebene – Herausforderungen und Lösungsansätze
Ruth Fuchs, Daniel Lechner und Mareike Fehling vom Deutschen Akademischen Austauschdienst (DAAD) legten in ihrer Präsentation dar, welche Kernelemente das institutionelle wirkungsorientierte Monitoring im DAAD ausmachen und inwiefern ein Mehrwert in diesem zu finden ist. Die Referierenden haben die verschiedenen Prozessschritte dargestellt von der Ausgangssituation bis hin zur Projektkonzeption und einem Ausblick über nächste Schritte und Herausforderungen. Da es sich um einen komplexen Veränderungsprozess auf Ebene der Gesamtorganisation handelt ist beispielweise eine klare Steuerungsstruktur von Nöten. Ebenso sind passgenaue IT-Lösungen von großer Wichtigkeit für den Erfolg des M&E Systems. 

16:45 - 18:00 Monitoring im Realitätscheck: Zwischen Anspruch und Umsetzbarkeit
In einer von Susanne von Jan (Sprecherin des AK Epol HuhHi) geführten Fishbowl-Diskussion wurden die wichtigsten Aspekte des ersten Tages zusammengetragen und mit dem Plenum diskutiert. Es wurden insgesamt 3 Fragen gestellt, zu denen sich die Teilnehmenden positionieren konnte. Die Fragen richteten sich an (1) die Rolle von qualitativen Daten im Monitoring, (2) die Rechtzeitigkeit qualitativ hochwertiger Daten und (3) die Möglichkeit, Empowerment der Zielgruppen durch das Monitoring selbst zu ermöglichen. So wurde unter anderem festgestellt, dass durch einen Fokus auf qualitative Daten ein stärkerer Bezug zur Projekt- und Feldebene hergestellt werden kann und Narrative beispielsweise für die politische Kommunikation besser genutzt werden können. Wenn es um die Rechtzeitigkeit qualitativ hochwertiger Daten geht, so wurde unter anderem erörtert, dass der Zeitpunkt der Evaluationen entscheidend ist, damit während eines noch laufenden Projekts ggf. Umsteuerungsmaßnahmen greifen können. Als letzter Punkt in der Diskussion wurde erörtert, dass im besten Fall die Fähigkeit der Zielgruppen zur Selbststeuerung durch das Monitoring gefördert wird.


18:00-18:15 Ausblick & Organisatorisches


Freitag, 06. März 2020

 

Um 09:00 Uhr begann der zweite Tagungstag und die Teilnehmenden wurden durch Kirsten Vorwerk, Sprecherin des AK-Epol HuHi (DEval) begrüßt.

09:15 - 10:00 Monitoringdaten: Nutzung und Lernen
David Schmid von der GIZ referierte über den Nutzen von Monitoringdaten und zeigte, dass nicht nur die Bereiche Rechenschaft und Steuerung durch Monitoring abgedeckt werden können, sondern insbesondere auch das Lernen. Hierbei muss unterschieden werden, wer zu welchem Zweck lernen soll, was Schmid durch das Aufzeigen von Kompetenz- und Kompetenzstufenmodellen der GIZ verdeutlichte. Darüber hinaus stellte er verschiedene Ansätze zum Lernen aus Monitoringdaten vor, u.a. durch Standardisierung, Digitalisierung, interaktive Lernformate (z.B. auch Blended Learning), strategische Kompetenzentwicklung sowie auch durch agilere Anwendungen (siehe z.B. Prinzipien von Kooperation und Führung).

10:30 – 12:00 Werkstattgespräche:
a) Monitoring in der HuHi: Status Quo und Überlegungen für die Zukunft
• Thomas Rottland (CARE): Monitoring im Kontext von humanitärer Hilfe am Beispiel von CARE in Nordwestsyrien
• Moderation: Peter Hermes (Auswärtiges Amt)


b) Tools und Tipps: Erfahrungen zum Aufbau von Monitoring Kapazitäten
• David Vossebrecher (Rosa Luxemburg Stiftung): „Mühsam ernährt sich das Eichhörnchen“ - Monitoring-Capacity Aufbau im ZID
• Britta Gentsch (GFA) und Julia Krömer (Europäische Kommission/GFA): Strengthening EC DEVCO systems  for monitoring and reporting
• Moderation: Robert Heine (energypedia-consult)


c) Was kommt nach dem Bericht? Wirkungsmodelle und Monitoring von Evaluierungsarbeit
• Dorothea Giesen-Thole (GIZ): Theorie des Wandels für Evaluierungen der GIZ
• Line Winterhoff (DEval): Wirkungsgefüge als Grundlage für Monitoring-Systeme: Wie kann ein Wirkungsgefüge in der Evaluierung genutzt werden?
• Moderation: Claudia Gottmann (BMZ)

Unter folgendem Link können Sie eine Fotodokumentation der vorgestellten Poster aus diesem Werkstattgespräch einsehen.


12:30 - 13:00 Abschluss-Session: Podiumsdiskussion zur Zusammenfassung der Erkenntnisse
In der abschließenden Podiumsdiskussion wurden die zentralen Thesen und Erkenntnisse der Veranstaltung reflektiert und zusammengefasst. Sowohl die Teilnehmenden der Frühjahrstagung als auch die Podiumsgäste hatten die Möglichkeit unter einer Vielzahl von Schlagworten zentrale Standards und Anforderungen, welche an Monitoring zu stellen sind, auszuwählen.
Die wichtigsten Schlagworte in der Online-Umfrage beim Plenum waren:
• Partizipation
• Angemessenes Aufwand-Nutzen-Verhältnis
• Datenqualität
• Nützlichkeit für das Lernen
• Nützlichkeit für Steuerung
Durch die Podiumsgäste wurden die folgenden Schlagworte ausgewählt: Nützlichkeit, Datenqualität, Pragmatismus, Partizipation und Ethik und Empowerment. Diese wurden dann im Kontext von verschiedenen Positionen - beispielsweise aus consulting-Perspektive oder aus NRO-Perspektive – erörtert und kontextualisiert.

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2019 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: Evaluation von Capacity Development

Quelle: Belli, Luisa (2019): Präsentation im Rahmen der Frühjahrstagung des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe der DeGEval

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2019 des AK Entwicklungspolitik und Humanitäre Hilfe. Ein umfangreicher Artikel über die Frühjahrstagung 2019 ist in der Zeitschrift für Evaluation (ZfEv) Heft 2/2019 erschienen und kann hier abgerufen werden (Quellenangabe: Wein, S., Bär, T, Dawit, S., von Jan, S. & Schmid, M. (2019): Frühjahrstagung des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe der DeGEval. In: Zeitschrift für Evaluation, 2, 327-334.). 

Am 27. und 28. März 2019 fand in Köln die Frühjahrstagung statt, welche von dem ICON-INSTITUTE ausgerichtet wurde.

Mittwoch 27. März 2019
Dr. Tanja Lingohr und Barbara Wirth-Bauer (ICON-INSTITUTE) sowie der Sprecher des AK-Epol-HuHi, Thorsten Bär (World Vision), begrüßten die Teilnehmenden der Frühjahrstagung.


10:45-11:30 Einführung in Capacity Development und Überlegungen zur Evaluation dieses Konzepts
Luisa Belli von der Food and Agriculture Organization (FAO) gab mit ihrem Vortrag einen Überblick über das Konstrukt Capacity Development mit den drei verschiedenen Ebenen des Individuums, der Organisation und des Systems. Sie nannte die jeweiligen Inhalte der Ebenen und erläuterte deren Beziehung zueinander sowie Faktoren, welche für die Evaluation der Wirkung von CD in entwicklungspolitischen Kontexten förderlichen beziehungsweise hinderlich sind.

Anschließend an den ersten Vortrag erarbeiteten die Teilnehmenden in interaktiver Gruppenarbeit Mind-Maps zu den drei Ebenen des Capacity Development. Im Laufe der Tagung erfolgte eine Erweiterung der Mind-Maps um die neuen Inhalte aus den folgenden Präsentationen und einer Zusammenfassung der Ergebnisse durch die Rapporteure am Ende der Tagung.

14:00-14:45 Individuelles Capacity Development messen: Capacity Development im Rahmen eines entwicklungspolitischen Freiwilligendienstes
Martin Bruder vom Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) leitete mit der Vorstellung einer Evaluation zur Wissens-, Kompetenz- und Einstellungsveränderung von Weltwärts-Teilnehmenden in die Messung von Capacity Development auf individueller Ebene ein.

14:45 – 15:30 Die individuelle Ebene: Evaluation eines Projekts zur beruflichen Bildung in Vietnam
Dorothee Mack von MISEREOR und Ralf Lange von FAKT präsentierten eine weitere Evaluierung zur Messung von CD auf individueller Ebene im Bereich beruflicher Bildung. Dabei stellten sie die angewandte partizipative Vorgehensweise und konkrete Methoden aus dem mehrstufigen Verfahren vor.

16:20 – 17:05 Organisationales Capacity Development messen, eine Perspektive aus der Organisationssoziologie
Dr. Helmut Brentel beleuchtete in seinem Vortrag Capacity Development aus der Perspektive der Organisationssoziologie, wobei er defensive Routinen und die Auflösung dieser durch produktives Lernen und intervenierende Techniken hervorhob. Diese unterstützten auch den Übergang von instrumentellem Einschleifen zu produktiven Zweischleifen-Lernen. In diesem Zusammenhang ging er näher auf positive Einflussfaktoren wie beispielsweise die Unterstützung der Führungskraft ein.

17:05 – 17:50 Die organisationale Ebene: Learning Organisations: How Evaluation can inform the Development of Capacities in Organisations
Gemeinsam mit seinem Kollegen Kalifa Traoré legte Christophe Dietrich vom ICON-INSTITUTE in seiner Präsentation dar, welche positiven Faktoren für das Etablieren von Capacity Development in Organisationen beachtet werden sollten und wie Evaluation dabei den Lernprozess unterstützen kann.

18:20 – 18:35 Ausblick & Organisatorisches

Donnerstag, 28. März 2019
Um 09:00 Uhr begann der zweite Tagungstag und die Teilnehmenden wurden durch Thorsten Bär (Sprecher AK-Epol) begrüßt.


09:15 – 10:00 Die systemische Ebene: Measuring Capacity of Networks and Cooperations in the Gender Based Violence Sector
Lennart Raetzell und Birgit Alber von Syspons referierten über die Messung von Capacity Development auf systemischer Ebene anhand einer durchgeführten Baseline-Studie über die Kooperation verschiedener Akteure zur Gewaltprävention im südlichen Afrika, wobei spannende Methoden zum Einsatz kamen.

10:50 – 12:30 Werkstattgespräche:
a) Evaluation von Capacity Development in der Humanitären Hilfe und in fragilen Kontexten.

  • Janine Lietmeyer, Malteser: Gemeinschaftsevaluierung mit Islamic Relief und Welthungerhilfe zur grenzüberschreitenden Nothilfe in Syrien.
  • Petra Kiel, Christoffel-Blindenmission (CBM): Bedarfsanalyse und Evaluation eines CD-Projektes zur Stärkung der Zivilgesellschaft und lokaler Verwaltungen in Sri Lanka.
  • Moderation: Dr. Markus Moke, Aktion Deutschland Hilfe (ADH)

b) Evaluation von Capacity Development in der Entwicklungszusammenarbeit.

  • Catrina Schläger, Friedrich-Ebert-Stiftung (FES): Evaluation des Nachwuchsförderprogrammes „Agentes de Cambio“
  • Dr. Ursula Esser, Institut für Bildung, Entwicklung und Beratung (BEB): Capacity Development Assessment für die Pestalozzi Children Foundation
  • Moderation: Dr. Bernhard Hoeper, Welthungerhilfe (WHH)

c) World Café: Monitoring und Evaluation von Evaluation Capacity Development.

  • Moderation: Nikolaus Rentrop, Alteri

14:00 – 14:30 Abschluss-Session: Zusammenfassung der Erkenntnisse der Tagung & Diskussion
Für die abschließende Schlussrunde, in welcher die zentralen Erkenntnisse aus den Gruppenarbeiten der Tagung reflektiert und zusammengefasst wurden, rapportierten die Rapporteure:

  • Julia Kahrl, Auswärtiges Amt
  • Iskander Chemli, ICON-Institute
  • Jens Koy, freier Berater und Evaluator
  • Moderation: Susanne von Jan (Hanns-Seidel-Stiftung), Sprecherin AK-Epol
Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2018 des Arbeitskreises Entwicklungspolitik und Humanitäre Hilfe

Tagungsthema: Relevanz – Tun wir die richtigen Dinge?

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2018 des AK Entwicklungspolitik und Humanitäre Hilfe. Ein umfangreicher Artikel über die letzte Frühjahrstagung 2018 ist in der Zeitschrift für Evaluation (ZfEv) Heft 2/2018 erschienen und steht Ihnen hier zur Verfügung (Quellenangabe: Schmid, M., O´Brien, A., Bär, T. & von Jan, S. (2018): Frühjahrstagung zum Thema Relevanz des AK-Entwicklungspolitik und Humanitäre Hilfe in Bad Homburg. In: Zeitschrift für Evaluation, 2, 407-413.).

Am 11. und 12. April 2018 fand auf Schloss Bad Homburg die Frühjahrstagung statt, welche von der GOPA Consulting Group ausgerichtet wurde.

Mittwoch 11. April 2018

Berthold Averweg (GOPA), Heike Happerschoss (GOPA) und der Sprecher des AK-Epol-HuHi, Thorsten Bär (World Vision), begrüßten die Teilnehmenden der Frühjahrstagung.

10:45-12:00 Die DAC-Kriterien im Zeitalter der SDG
Jörg Faust und Ida Verspohl (DEval) hielten einen Vortrag mit einem Überblick über aktuelle Diskussionen im Zusammenhang mit den fünf DAC-Kriterien und deuteten sowohl auf deren Stärken als auch auf mögliche Anpassungen hin.

An den ersten Vortrag schloss der freie Berater Bernward Causemann an, der seine Thesen bezüglich der DAC-Kriterien im Zeitalter der SDG präsentierte.

13:15-15:00 Stationengespräche Relevanz
Die Teilnehmenden diskutieren in Kleingruppen an insgesamt 12 Stationen grundlegende Fragestellungen zum Relevanzkriterium.

15:00 – 15:35 Evaluation von Relevanz in der EZ: Praxis und Reformbedarf
Elias Sagmeister von Ground Truth Solutions schrieb seine Dissertation über das DAC-Kriterium Relevanz. In seinem Vortrag präsentierte er seine Erkenntnisse über die Bewertung der Relevanz in der Entwicklungszusammenarbeit.

16:05 – 16:40 Relevance and Appropriateness in Evaluation of Humanitarian Action
Neil Dillon vom ALNAP-Netzwerk referierte über Gegebenheiten und wesentliche Aspekte der Evaluation von Relevanz und Angemessenheit im Feld der Humanitären Hilfe.

16:40 – 16:50 Flüstergruppe
Die Teilnehmenden erarbeiten Fragestellungen für die anschließende Fisbowl-Diskussion.

16:50 – 18:30 Fishbowl-Diskussion
Die beiden Referenten Elias Sagmeister und Neil Dillion beantworteten die Fragen aus der Flüstergruppe, die von Teilnehmenden auf das Podium getragen wurden. Die Diskussion wurde von AK-Sprecherin Susanne von Jan (Hanns-Seidel-Stiftung) moderiert.

18:15 – 18:30 Ausblick & Organisatorisches

Donnerstag, 12. April 2018

Um 09:00 Uhr begann der zweite Tagungstag und die Teilnehmenden wurden durch Thorsten Bär (Sprecher AK-Epol) begrüßt.

09:15 – 10:00 Die Relevanz von Relevanz – Beobachtungen aus sieben Meta-Studien zu Stellenwert, Analyse und Bewertung des OECD-DAC Kriteriums Relevanz in Evaluationen
Stefan Silvestrini, Geschäftsführer der CEval GmbH, referierte über die durchgeführten Meta-Studien und beschrieb den Stellenwert des Relevanzkriteriums. Darüber hinaus erläuterte er Auffälligkeiten bei den Relevanzbewertungen in Projektevaluationen.

10:20 – 12:00 Werkstattgespräche:
a) Evaluierungsbeispiele Relevanz – in der Entwicklungszusammenarbeit und Humanitären Hilfe.
• Harriet Lange, Plan International Deutschland e.V.: Darstellung der Evaluierung des Programms „Safer Cities for Girls“.
• Markus Moke, Aktion Deutschland Hilft (ADH): „Gemeinschaftliche Evaluierung: Hurrikan Matthew auf Haiti, Oktober 2016“.
• Moderation: Bernhard Hoeper, Deutsche Welthungerhilfe e.V.

b) Diskussionsrunde Auftragnehmer & Auftraggeber zum Relevanz-Kapitel
• Ulrike Haffner und Benjamin Bräuer, Gesellschaft für internationale Zusammenarbeit mbH: „Das Kriterium der Relevanz im Konzept der Zentralen Projektevaluierungen (ZPE) der GIZ“
• Moderation: Heike Happerschoss (GOPA)

13:45 – 15:00 Abschluss-Session: Zusammenfassung der Erkenntnisse der Tagung & Diskussion
Für die abschließende Schlussrunde, in welcher die zentralen Erkenntnisse in Bad Homburg reflektiert und zusammengefasst wurden, befanden sich auf dem Podium:
• Elias Sameister, Ground Truth Solutions
• Heike Happerschoss, GOPA
• Anja Scherkus, Rosa-Luxemburg-Stiftung
• Moderation: Susanne von Jan (Hanns-Seidel-Stiftung), Sprecherin AK-Epol

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2017 des Arbeitskreises Entwicklungspolitik

Tagungsthema: Die Rolle der SDGs für Monitoring und Evaluation von Projekten der Entwicklungszusammenarbeit und der Humanitären Hilfe am Beispiel Klima und Umwelt (SDG 13 und 15)

Am 29. und 30. Juni 2017 fand bei der GIZ in Bonn die Frühjahrstagung des AK Entwicklungspolitik zum Thema SDG statt.

Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2017 des AK-Epol sowie die Präsentationen der ReferentInnen. Eine etwas ausführlichere Dokumentation finden Sie hier.

Donnerstag 29.06.2017

Claudia Kornahrens, Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ), und Susanne von Jan, Sprecherin des Arbeitskreises Entwicklungspolitik (AK-Epol) der DeGEval, begrüßten die diesjährigen Teilnehmenden der Tagung.

11.15-12.15 Einführung in die SDGs – Die deutsche Nachhaltigkeitsstrategie 2017 – Anstöße der Agenda 2030 und Anforderungen an die Evaluierung (Imme Scholz)

Imme Scholz vom Deutschen Institut für Entwicklungspolitik (DIE) hielt den Eröffnungsvortrag. Sie vermittelte einen Überblick über den derzeitigen Stand der Indikatorenentwicklung zu den 17 SDGs mit Fokus auf die SDGs 13 und 15.

13.40-14.25 Die Rolle der SDG für M&E von EZ-Projekten – Ansatzpunkte aus Sicht der GIZ (Susanne Milcher, David Schmid)

Susanne Milcher und David Schmid, beide GIZ, stellten die Rolle der SDGs für Monitoring und Evaluation von Projekten der Entwicklungszusammenarbeit aus Sicht der GIZ vor.

14.25 – 17.15 World Café – Diskussion über die Rolle der SDG für P, M&E von Projekten aus EZ und HH

Im Rahmen eines „World Café“ wurde von den Teilnehmern die Rolle der SDGs für Planung, Monitoring und Evaluation von Projekten aus Entwicklungszusammenarbeit und Humanitäre Hilfe diskutiert.

Die Ergebnisse der Diskussionsgruppen wurden im Plenum vorgestellt.

17.15 – 18.00 Die Evaluation der Internationalen Klimaschutzinitiative des BMUB

Andreas Obser und Günter Schmidt, GFA Consulting Group, stellten die Evaluation der Internationalen Klimaschutzinitiative des BMUB vor.

18.00-18.30 Zusammenfassung, Einführung in das Abendprogramm und Verabschiedung (Thorsten Bär, Sprecher AK Epol)

Freitag, 30. Juni 2017

9.00-9.45 Die amtliche Statistik und das Monitoring der SDG (Miriam Blumers)

Miriam Blumers, Statistisches Bundesamt, hielt einen Vortrag zur amtlichen Statistik und dem Monitoring der SDG.

9.45-12.00 Arbeitsgruppen/Werkstattgespräche und Ergebnispräsentation

Die Teilnehmenden nahmen entsprechend ihrer Interessensgebiete an einem der drei Werkstattgespräche teil. Folgende Themen wurden, jeweils begleitet durch den Input der entsprechenden FachreferentInnen, vertiefend diskutiert:

a)    Die Rolle des SDG 13 für Entwicklungszusammenarbeit und Humanitäre Hilfe – Einblicke in M&E von Projekten im Bereich Klima & Katastrophenvorsorge
•    Jürgen Clemens, Malteser International
•    Adrien Detges, adelphi research
•    Bernhard Hoeper, Deutsche Welthungerhilfe

b)    Die Rolle des SDG 15 für die Entwicklungszusammenarbeit – Einblicke in Erhebungsmethoden für M&E von Projekten im Bereich Biodiversität und Umwelt
•    Elke Mannigel, OroVerde
•    Friedrich Wulf, Pro Natura

c)    Werkstattgespräch des AK Umwelt - Methoden zur Messung von Klimaschutzzielen und Umweltindikatoren
•    Dominik Jessing, Institut für Energie- und Umweltforschung Heidelberg (IFEU)
•    Reinhard Zweidler, Bundesamt für Umwelt Schweiz (BAFU)

Die Ergebnisse der Werkstattgespräche wurden anschließend in der Großgruppe präsentiert.

12.00-13.00 Abschlussdiskussion

Eine Abschlussdiskussion wurde mit den folgenden Podiumsgästen durchgeführt:

•    Sven Harten, Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval)
•    Sven Kaumanns, Statistisches Bundesamt
•    Pedro Morazán, Südwind e.V.
•    Michaela Zintl, Bundesministerium für Wirtschaftliche Zusammenarbeit und Entwicklung (BMZ)
•    Moderation: Susanne von Jan (Hanns-Seidel-Stiftung)

 

Zuletzt geändert: 08. February 2024

Dokumentation der Frühjahrstagung 2016 des Arbeitskreises Entwicklungspolitik

Tagungsthema: Monitoring & Evaluierung in fragilen Kontexten.
Was tun in Afghanistan, Syrien, Sierra Leone…?


Im Folgenden finden Sie eine kurze Zusammenfassung der Frühjahrstagung 2016 des AK-Epol. Eine ausführliche Dokumentation finden Sie im Tagungsprotokoll.

Donnerstag, 14. April 2016
10.45-11.15 Begrüßung durch Klaus Altemeier und Jens Koy

Dr. Klaus Altemeier, Geschäftsführer der GFA Consulting Group GmbH und Jens Koy, Sprecher des AK Entwicklungspolitik der DeGEval begrüßen die diesjährigen TeilnehmerInnen der Tagung.

Dr. Klaus Altemeier: Begrüßung und Vorstellung der GFA Consulting Group (siehe auch Präsentation

  • Vorstellung der GFA-Arbeit im Bereich M&E. Seit 2015 gibt es eine eigene fachliche Unit in der GFA zu „Monitoring und Evaluierung“, die innerhalb der Abteilung „Public Finance Management“ angesiedelt ist.
  • Kurzer Überblick über GFA-Arbeit in fragilen Staaten. Die GFA ist weltweit tätig, somit auch bspw. in fragilen Kontexten in Afghanistan, im Irak oder im Südsudan. Zahlreiche GFA-Mitarbeiter sind lang- oder kurzfristig in diesen Ländern tätig. Ein Teil der GFA-Arbeit in Afghanistan im Bereich M&E wird nachmittags in einem Werkstattgespräch der Tagung vorgestellt.

Jens Koy: Vorstellung des AK Entwicklungspolitik, Einführung ins Tagungsthema

11.15-11.30 AG Neue Technologien in M&E des AK-Entwicklungspolitik (Rosilin Bock, Robert Heine)

Rosilin Bock und Robert Heine stellen das Ziel der AG sowie die bisherigen Arbeitsschritte und -ergebnisse vor:

  • Fokus der AG: Nutzung von Information und Communication Technology (ICT) für M&E
  • Die AG besteht aktuell aus ca. 10 Personen, die sich monatlich austauschen.
  • Die AG organisiert sich über die Web-Plattform WebMo.
  • Die HauptansprechpartnerInnen der AG sind Rosilin Bock und Robert Heine.

Die AG freut sich auch über neue interessierte Mitglieder. Interessenten können sich an die beiden o.g. AnsprechpartnerInnen wenden, oder sich mit Verweis auf den/die AnsprechpartnerIn registrieren: www.Akepol.webmo.info

11.30-12.30 Monitoring & Evaluierung in fragilen Kontexten – Einführung in die Herausforderungen und die aktuelle Diskussion (Jörg Faust)

Prof. Dr. Jörg Faust, Direktor des Deutschen Evaluierungsinstituts der Entwicklungszusammenarbeit (DEval) führt in das Tagungsthema ein.
Für eine ausführliche Dokumentation siehe das Tagungsprotokoll und die entsprechende Präsentation.

Zusammenfassung:

  • Es bestehen definitiv große Herausforderungen bei Evaluierungen in fragilen Kontexten.
  • Gleichzeitig nimmt ihre Relevanz jedoch stark zu.
  • Eine umfassende Kontextanalyse ist dabei zentral.
  • Anspruchsvolle Evaluierungen sind mit geeigneten Methoden möglich, können jedoch hohe Kosten erfordern.
  • Der Evaluierung werden klare Grenzen durch existierende Sicherheitsrisiken und eine Einhaltung des Do No Harm-Prinzips gesetzt.

 

12.30-13.00 Versicherungen – Informationen zu Versicherungen für Gutachterinnen und Gutachter sowie Auftraggebende, die in fragilen Kontexten arbeiten

Claus-Helge Groß der BDAE Holding GmbH gibt einen kurzen Überblick über den nötigen Versicherungsschutz freier Evaluatoren in fragilen Kontexten (siehe auch Präsentation).

  • Auslandskrankenversicherung: Es ist immer nötig, zu überprüfen, ob bei der KV ein passives Krisen/ Kriegsrisiko mitversichert ist.  
  • Entführung und Lösegeldversicherung: Eine Entsprechende Versicherung für den Schadensfall deckt nicht nur eine potenzielle Lösegeldforderung ab, sondern managt im Entführungsfall auch den gesamten Prozess bis hin zur Freilassung.

 

18.00-18.30 Kurzvorstellungen aus den Werkstattgesprächen, AGs und dem Sicherheitstraining im Plenum im linken blauen Haus

a.    Humanitäre Hilfe und EZ - Erfahrungen mit M&E in fragilen Kontexten (DRK und WHH) (siehe auch Fotodokumentation)

  • Stabilisierende Faktoren und destabilisierende Faktoren
  • Evaluierungen erfüllen hier vor allem eine Kontrollfunktion und dienen der Urteilssicherheit
  • Erkenntnisgewinn: Blick nach außen ist genauso wichtig wie der Blick von außen. Die Auftraggeber haben oftmals auch ein Interesse zu erfahren – wie machen es andere in ver-gleichbaren Kontexten?
  • Aufbau lokaler Wissenssysteme
  • Evaluierungen über Inter Agency Cluster organisieren, nicht so sehr über unseren Input
  • Syrien: große Herausforderung, den Datenanforderungen gerecht zu werden. Bilder und GPS- Daten bieten Ansatzpunkte.


b.    M&E von Advocacy-Arbeit und Pressefreiheit in fragilen Staaten / M&E von Frauenrechtsarbeit (siehe auch Präsentation)

  • Gender based violence als besondere Form von Fragilität
  • In diesen Fällen sind nur langfristige Wirkungen beobachtbar, frühestens nach 10 Jahren
  • In Evaluierungen sollte man Empowerment und Selbstwirksamkeit beobachten und dies in M&E-Systeme direkt mit einbauen.
  • Das Evaluationsdesign muss zu den Menschen im Projekt und dem Kontext passen. Es kann sinnvoll sein, holistische Mehrebenenansätze anzuwenden.


c.    „Good enough monitoring“ (Bsp. Afghanistan, siehe auch Präsentation)

“Blitzlichter” aus der Diskussion:

  • Je höher die Fragilität des Kontextes, desto höher die Eintrittswahrscheinlichkeit der ange-nommenen Risiken
  • Umso komplexer das Umfeld und das Projekt selbst, umso einen höheren Detailierungsgrad hat das Monitoringsystem.
  • Im fragilen Kontext braucht man viel Flexibilität in Bezug auf die theory of Change und in Bezug auf die Wahl der Indikatoren.
  • Die Einbindung der Partner vor Ort ist entscheidend: Wie viel ist nötig und möglich? Man muss den richtigen Grad finden, um die staatliche Funktionalität von politischen Partnern angesichts der starken Geberpräsenz und -fragmentierung im Land nicht unnötig zu belasten.


d.    SMS, Geocoding, Digital Data Entry mit Tablet und Smartphone: 3 Impulsreferate (u.a. Live-schaltung aus Nairobi, siehe Präsentation von SAVE, Plan, ona (a und b))

  • Überblick über Stärken und Schwächen von bestehende Tools als Teil von remote Manage-ment in humanitären Kontexten: Z.B. Telefon, SMS, Geocoding, Tablet, die Teil eines erstellen Toolkits des Global Public Policy Insitute sind
  • Es wurde ein cloud-basiertes Monitoring System von Plan International vorgestellt.
  • Fallstudie eines Third Party Monitoring eines  innovativen Projektes für DFID Somalia mit dem Ziel, ein allumfassendes M&E System der Katastrophenhilfeprogramme zu entwickeln. Der 145 Mio £ schwere Fonds beinhaltet 34 Partner und über 100 lokale Partnerorganisatio-nen.
  • Herausforderung bei der Nutzung von ICT für die Evaluierung für die PO: Es ist nicht nur eine Auseinandersetzung mit Logframe/Wirkungslogik etc. nötig, sondern zusätzlich eine Analyse geeigneter Software/Tools etc.
  • Vorteil der Nutzung entsprechender Tools: hohe Zeit- und Geldersparnis


e.    Sicherheitstraining
Der Trainer des Sicherheitstrainings, Benjamin Beutekamp (BDAE / Human Resource Protection) appellierte daran, sich über erlebte Belastungen in Krisenländern immer auszutauschen, um Folgeschäden zu minimieren.

Freitag, 15. April 2016


09.00-10.45 Erfahrungen mit Evaluationen in verschiedenen fragilen Kontexten

Erfahrungen von GIZ und KfW mit Evaluierungen in Afghanistan
Claudia Kornahrens, Gesellschaft für Internationale Zusammenarbeit (GIZ) und
Prof. Dr. Eva Terberger, KfW-Bankengruppe

Für eine ausführlichere Dokumentation siehe die Power Point Präsentationen von GIZ und KfW.

  • Projektfortschrittskontrollen heißen in der GIZ inzwischen Projektevaluierungen
  • Vor der Evaluierung ist die Ziel- und Auftragsklärung essentiell: Was steht im Vordergrund, Rechenschaftslegung oder Lernorientierung?
  • Realistische Ziele setzen!
  • Festlegung des Evaluierungsgegenstands anhand des GIZ Wirkungsmodells
  • Entsprechend dem Leitfaden für konfliktsensibles Monitoring sollen die Erfahrungen zusammengefasst werden.

 

Evaluierung der Ebola-Response von Brot für die Welt in Sierra Leone
Stefan Jansen, Iber-Consult/FAKT und Rosilin Bock, Brot für die Welt

Hintergrund:

  • Die Ebola Dynamik wurde falsch eingeschätzt, internationale Hilfe kam zu spät
  • Brot für die Welt  konnte auf ein gutes Netzwerk mit Partnerorganisationen vor Ort setzen
  • 10 Mio. Funding für die Ebola-Response
  • Bundle approach (Implementierung durch Konsortium der Partnerorganisationen)
  • Intervention mit kirchlichen Mitteln und Mitteln des BMZ
  • Nach einem halben Jahr wurde die Intervention evaluiert (BMZ Vorgabe)


Vgl. Power Point Präsentation, Vortrag Stefan Jansen

  • Stefan Jansen wies auf die ethische Dimension der Evaluierung im Ebola-Kontext hin, insbe-sondere im Hinblick auf nationale Gutachtende, die zumeist ökonomischen Zwängen unter-liegen und im gegebenen Fallbeispiel einer erhöhten Gefahr ausgesetzt waren als der internationale Experte.
  • Berücksichtigung von Do No Harm-Prinzipien stellte einen wichtigen Teil des Evaluierungsansatzes dar, insbesondere im Umgang mit traumatisierten Personen aus den Zielgruppen der Evaluierung (z.B. Ebola-Überlende).
  • Stichprobe: 300-350 Personen


11.15-12.25 Abschlussdiskussion

mit Sibylle Braune (DRK), Bernd Bültemeier (FAO), Prof. Dr. Jörg Faust (DEval) und Dr. Karin Stahl (freie Gutachterin)


Der Anknüpfungspunkt für die Abschlussdiskussion war die vor der Tagung durchgeführte Online-Befragung der TagungsteilnehmerInnen bzgl. ihrer Meinung zu drei Statements (siehe auch Präsentation der Auswertung). Diese wurden hier wieder aufgegriffen und unter den vier Podiumsgästen diskutiert.  

Im Folgenden werden die Statements genannt, zu denen die Podiumsgäste diskutierten, eine ausführliche Darstellung findet sich im Tagungsprotokoll.

1. „Es ist unverantwortlich, internationale Gutachtende für Evaluierungen in fragile Staaten zu senden.“

2. „Die Kontextbedingungen sind so schwierig, dass man auf Eval. verzichten sollte.“

3. "Sind im fragilen Kontext spezielle Ansätze & Verfahren für Evaluierungen nötig?“

Zuletzt geändert: 07. January 2019

Effizienzbewertung in Evaluation

Nach zwei Jahren legt die Arbeitsgruppe Effizienz nun ihre Handreichung zum Thema vor (Download hier). Wer sollte die Handreichung lesen? Um was geht es konkret? Wir sprachen mit Jens Koy, dem Koordinator der AG.

AK-Epol: An wen richtet sich das Papier?

Jens Koy: An GutachterInnen und Auftraggebende, die die Analysen im DAC-Kriterium „Effizienz“ in Projekt- und Programmevaluationen weiter qualifizieren wollen. Es geht um „durchschnittliche“ Projektevaluierungen und Programme der Entwicklungszusammenarbeit mit Evaluationsteams von 1-2 Personen, 10-20 Tagen Feldaufenthalt bei einer Gesamtevaluationsdauer von ca. 25-35 Tagen pro GutachterIn.

AK-Epol: Um was geht es konkret?

JK: Wie können in 1-2 Tagen Erhebungen zu „Effizienz“ vorgenommen werden? Dafür ist wichtig, dass EvaluatorInnen die Fragestellungen der Effizienzbewertung in ihr bereits vorhandenes Repertoire an Erhebungsmethoden und -instrumenten, wie Aktenanalysen, Interviews, Gruppengespräche, Workshops und Fragebögen, integrieren können. Dafür haben wir eine Reihe von Beispielen ausgearbeitet. Ein anderer wichtiger Punkt für die Effizienzbetrachtung ist der Vergleich. Wir haben dazu vier Ebenen identifiziert, wovon die allermeisten EvaluatorInnen schon heute 2-3 verwenden, sie aber i.d.R. nicht für die Effizienzdiskussion nutzen: a) Vergleich mit den früheren Vorgehensweisen im Projekt, b) Vergleich mit anderen Projekten, c) Standardindikatoren/Statistiken und  d) kontrafaktischer Vergleich im Sinne von: Was wäre eine effizientere Situation? Des Weiteren haben wir Tipps und Anregungen für die Nutzung von Stückkosten, Expenditure Tracking und Benchmarking aufgeführt…

AK-Epol: Das hört sich schon ganz schön umfassend an. Sollten jetzt Effizienzbewertungen in jeder Evaluation vertieft  werden?

JK: Nein! Gute Evaluationen benötigen nicht zwangsläufig explizite Effizienzanalysen. Ist zum Beispiel die Zusammenarbeit zwischen Geldgeber bzw. Förderorganisation und Partnerorganisation angespannt, dann können vertiefte Fragestellungen der Relevanz (Tun wir das Richtige? Ist unser Arbeitsansatz Stand der Fachdiskussion?) oftmals hilfreicher in puncto Erkenntnis, Lernen und Zusammenarbeit sein. 

AK-Epol: Und wie geht es jetzt weiter?

JK: Die Praxis der Effizienzbewertung bei Projekt- und Programmevaluationen in der Entwicklungszusammenarbeit steckt in vielen Bereichen noch in den Anfängen. Die aus anderen Arbeitsbereichen wie der Volks- und Betriebswirtschaft verfügbaren Methoden und Vorgehensweisen sind oft wenig alltagstauglich für die EZ. Von daher will und kann die Handreichung keine abschließenden Weisheiten verkünden, sondern nur zur maßvollen und bedarfsgerechten Anwendung von Methoden und Vorgehensweisen ermuntern. Sehr wichtig ist jetzt die Anwendung in der Evaluationspraxis. Sollten wir einen weiteren Bürokratisierungsschub feststellen, dann klingeln die Alarmglocken und wir müssen gegensteuern.

AK-Epol: Vielen Dank für das Gespräch! 

Zuletzt geändert: 07. January 2019

Artikel: Sind Evaluationen grau und langweilig? Veröffentlichung, Verwertung und Verbreitung von Entwicklungsevaluierungen

Sind unsere Evaluierungen viel zu technisch und zu langweilig, als dass die Öffentlichkeit sie wahrnimmt? Zur Erfüllung von Evaluationsaufträgen sind in aller Regel auch Datenbearbeitungen und Bewertungen zu technischen Details notwendig – kann man da erwarten, dass sie in Gänze tatsächlich durch die Öffentlichkeit wahrgenommen werden? Diesen und weiteren Fragen zum Thema Verwertung, Verbreitung und Veröffentlichung von Entwicklungsevaluierungen widmete sich der AK Entwicklungspolitik auf seiner diesjährigen Frühjahrstagung... (zum Artikel)

Zuletzt geändert: 17. June 2016

Dokumentation der Frühjahrstagung 2015 des Arbeitskreises Entwicklungspolitik

Tagungsthema: „Sind Evaluationen grau und langweilig? Veröffentlichung, Verwertung und Verbreitung von Entwicklungsevaluierungen“

13.-14. April 2015

Gastgeber: Brot für die Welt – evangelischer Entwicklungsdienst, Berlin

Montag, den 13.4.2015

Als Mitglied des Sprecherteams begrüßte zunächst Fr. Dr. Neubert die rund 50 Tagungsteilnehmerinnen und –teilnehmer aus Wissenschaft, EZ-Organisationen, politischen Stiftungen und der Consultingwirtschaft. Sie bedankte sich bei den Gastgebern für die Räumlichkeiten und die Organisation.

Fr. Neubert stellte die zentralen Fragen der Tagung vor, die in den eineinhalb Tagen produktiv und kontrovers diskutiert werden sollten. Die Klärung dieser Aspekte sei zentraler Auftrag der anwesenden Evaluatoren und Institutionen.

• Sind unsere Evaluierungen viel zu technisch und zu langweilig, als dass die Öffentlichkeit sie wahrnimmt?

• Zur Optimierung von Evaluierungen sind technische Details notwendig - sollen Evaluierungsergebnisse überhaupt durch die Öffentlichkeit wahrgenommen werden?

• Ist die Öffentlichkeit überhaupt an der Wirksamkeit von Vorhaben interessiert?

• Wenn ja, soll an der Vermarktung der Ergebnisse gearbeitet werden?

Nach Vorstellung des Programms übergab Fr. Dr. Neubert an Jens Koy, der als Moderator durch den Tag führte.

Im ersten inhaltlichen Block stellte die AG Effizienz, vertreten durch Barbara Winker von der Kindernothilfe, Bernhard Hoeper von der Welthungerhilfe und Jens Koy, den aktuellen Stand der Handreichung „Effizienzbewertung in Evaluationen“ vor. Fazit der Überlegungen der AG sei, dass mit der Effizienzbewertung sofort begonnen werden könne. Im Zentrum stehe die Frage, was der Mitteleinsatz koste und welche alternativen Vorgehensweisen es gebe. Sie betonten, dass die Bewertung des Kriteriums nicht als Audit, sondern als Lerninstrument zu sehen sei (weiter & Präsentation).

Im Anschluss gab Alexander Kocks von der DEval einen Input zur Cost-Utility Analysis. Diese Methode eigne sich für Maßnahmen mit mehreren, nicht-monetären Outcomes. Um unterschiedliche Outcomes zueinander in Beziehung zu setzen, müssten diese unter Anwendung verschiedener Methoden in Nutzwerte transferiert werden. Dazu böte sich eine Zusammenarbeit mit der Zielgruppe an. (weiter….).

Nach der Mittagspause begann der Block zum eigentlichen Tagesthema: Sind Evaluationen grau und langweilig? Tilman Henke, Leitung des Vorstandsbereichs Finanzen, Organisation und internationale Personaldienste bei Brot für die Welt – evangelischer Entwicklungsdienst, begrüßte die Teilnehmer. Er betonte, dass Evaluierungen elementarer Bestandteil der Arbeit von Brot für die Welt als lernende Organisation seien. Empfehlungen und Ergebnisse würden aber oft nur von den unmittelbar Beteiligten genutzt. Wichtig sei es daher, Querschnitte zu anderen Gebern und den Partnern im Süden herzustellen. Für den Austausch mit der Öffentlichkeit sei die Aufbereitung in verständliche Sprache zentrales Kriterium. Zusätzlich sei die Nutzung neuer medialer Wege über Film oder interaktive Websites in Betracht zu ziehen.

In der Keynote betrachtete der freie Journalist Dirk Asendorpf die Frage, warum Medien nicht über Evaluierungen berichten würden. Unabhängige Medien könnten vor allem durch kontraintuitive, originelle Themen begeistert werden, wozu die anonymisierten, technischen und oft gesichtslosen Evaluierungen nicht passten. Außerdem berge die Veröffentlichung ein gewisses Risiko, da die Endredaktion nicht mitgestaltet werden könne. Ein großer Teil des Verwertungspotenzials bliebe somit ungenutzt (weiter…).

Im Anschluss boten parallel verlaufende Werkstattgespräche Raum für offene Diskussionen. Die zentralen Erkenntnisse wurden anschließend im Plenum präsentiert (weiter…).

1) Wie erreichen wir die Aufmerksamkeit der Medien? mit Dirk Asendorpf (freier Journalist)

2) Zur Perspektive der Humanitären Hilfe , mit Katja Maurer von Medico International

3) Veröffentlichung von Evaluierungsergebnissen - Gefahr oder Chance für spendensammelnde Organisationen? mit Matthias Lanzendörfer (Misereor), Bernhard Hoeper (Welthungerhilfe) und Thorsten Baer (World Vision Deutschland).

4) Von Evaluation erzählen – Welche Geschichten braucht ein Redakteur? – mit Gregor Jungheim (Magazin DIE STIFTUNG)

Dienstag, den 14.4.2014

Zu Beginn des zweiten Tages stellte Martina Vahlhaus von der Deutschen Gesellschaft für internationale Zusammenarbeit (GIZ) die Realität der TZ-Evaluierung und die Organisation von Wahrnehmung dar. Die GIZ veröffentliche alle Ergebnisse in Form von Kurzberichten oder journalistisch aufgearbeiteten, übergreifenden Broschüren. Die Verbreitung würde durch Veranstaltungen, die Nutzung von Plattformen und enge Zusammenarbeit mit der Unternehmenskommunikation unterstützt. Zentrale Herausforderung seien wiederum die Sprache und Länge der Berichte im Allgemeinen und die Aufbereitung der DAC-Kriterien im Speziellen (weiter & Präsentation).

Im Anschluss berichtete Eva Terberger von der KfW Entwicklungsbank über die Farbigkeit von FZ Evaluierungen und deren eher graue Berichterstattung. Während die Inhalte in den Augen der Evaluierer/innen schillernd und interessant seien, interessiere sich kaum jemand anderes dafür. Die KfW wirke dem durch ein neues Berichtsdesign und eine verständliche Sprache in Kurzfassungen entgegen. Auch würde operatives Personal mit auf Evaluierungsmissionen entsendet, um Erfahrungen in das eigene Projektmanagement zu transferieren. Wichtig sei außerdem die zielgruppengerechte Aufbereitung. Abschließend plädierte sie für Bescheidenheit der Evaluierer/innen, da Entwicklungspolitik auch durch andere Faktoren maßgeblich beeinflusst würde (weiter & Präsentation).

In einer lebhaften Abschlussdiskussion wurden die Vorträge resümiert sowie offen geblieben Fragen formuliert. Vor allem standen dabei der Fokus auf die interne Verbreitung und das institutionelle Lernen, die Aufbereitung für die Öffentlichkeit sowie der Anspruch an die Weiterverwendung der Ergebnisse zur Debatte (weiter…).

Der inhaltliche Teil der Tagung endete mit einer Themensammlung für die Frühjahrstagung 2016. Fr. Neubert wies darauf hin, dass sich vor allem Themen mit einem methodischen und einem sektoralen Bezug bewährt hätten. Folgendes wurde gesammelt:

• Moderierte Diskussionsforen, zum Beispiel zum Thema Genderfrage: (Tagungsthema oder AG)

• Monitoring

o Wie sollen Monitoringsysteme aussehen um Evaluierbarkeit herzustellen?

o Monitoring der SDGs in Zusammenhang mit der Nachfolgediskussion zu Busan (Global Monitoring Framework)

• Neue Instrumente und Methoden zur Wirkungsmessung

• Wie lassen sich Evaluierungen bedarfsgerechter gestalten?

o Wie spiegeln wir Ergebnisse zurück ins Feld, was benötigen die Partner?

o Wie werden Ergebnisse in house verbreitet und wie zwischen den Häusern?

o Wie kann man Evaluierungen als OE Instrument nutzen?

o Wie kann die Datensammlung effizienter gestaltet werden, vor allem unter Verwendung moderner Technologie?

• Randomised Control Trials (RCT)

• OE im Bereich des Monitoring: Behinderung oder Tool für wirkungsorientiertes Monitoring?

• Wie evaluieren wir capacity development? Verbindung mit Effizienz Messung

• Abbau von Demokratie und Speckröllchen der EZ (Menge der gesammelten Daten steht nicht im Verhältnis zur Reflexion)

• Evaluierung in fragilen Staaten

o Evaluierung von Friedensbildungsprozessen

• Crowdsourcing bei Evaluierungen: wie können mehr Ressourcen genutzt werden?

Im abschließenden Blitzlicht wurde die Vielfalt des Themas und die Möglichkeit zum Austausch gelobt. Das Sprecherteam bedankte sich bei allen Teilnehmenden und verabschiedete sich!

Im Anschluss zum inhaltlichen Teil der Tagung fand daraufhin die Sitzung des Arbeitskreises Evaluation von Entwicklungspolitik statt (weiter...).

Zuletzt geändert: 17. June 2016

Effizienzbewertung in Evaluationen

Die AG Effizienz des AK Entwicklungspolitik stellt den Entwurf ihrer Handreichung zur Effizienzbewertung von Projekten und Programmen der Entwicklungszusammenarbeit zur Diskussion. Rückmeldungen bitte bis zum 14.04. an Jens.Koy@web.de (Mehr dazu im Papier auf Seite 4). Wir wünschen gute Lektüre (Download Handreichung hier).

Zuletzt geändert: 17. June 2016

Dokumentation der Frühjahrstagung 2014 des Arbeitskreises Entwicklungspolitik

Tagungsthema: „Evaluierung von Vorhaben der Politikberatung – Advocacy, Policy Advice und Good Governance –staatlicher und nicht-staatlicher Organisationen“

5. - 6. Juni 2014

Gastgeber: Physikalisch-Technischen Bundesanstalt (PTB), Braunschweig

Zum Tagungsprogramm

Donnerstag, den 5.6.2014

Als Mitglied des Sprecherteams begrüßte zunächst Frau Dr. Susanne Neubert die rd. 60 Tagungsteilnehmerinnen und -teilnehmer aus Wissenschaft, EZ-Organisationen, politischen Stiftungen und der Consultingwirtschaft. Sie bedankte sich bei Frau Dr. Stoldt, Fachbereichsleitung der PTB und Herrn Ackermann, Projektkoordinator für die Möglichkeit in diesen Räumlichkeiten zu tagen und für die hervorragende Organisation sowie großzügige Bewirtung durch die PTB.

Frau Neubert betonte zunächst die Wichtigkeit des Tagungsthemas. Es sei zentral für die Entwicklungszusammenarbeit, da Politikberatung die Kerntätigkeit dieses Berufsfeldes sei. Trotz des daher sehr relevanten und breiten Feldes würde die Evaluierung von Politikberatung oft vernachlässigt. Daher würde man nun dieser Fragestellung die gesamte Tagung widmen (weiter….).

Das Sprecherteam schlage folgende Leitfragen für die Tagung vor:

• Welche Methoden eignen sich?

• Welche Interessen werden berührt?

• Welche Daten werden benötigt?

• Welche Barrieren tun sich auf?

• Welche Akteure werden evaluiert?

• Welche Lösungsstrategien existieren?

Frau Dr. Marion Stoldt, Fachbereichsleiterin Technische Entwicklungszusammenarbeit der PTB, begrüßte ebenfalls die Teilnehmerinnen und Teilnehmer der Tagung und unterstrich mit der Messung als zentrales Element der PTB wie auch der Evaluierung die PTB als geeigneten Veranstaltungsort.

Bevor die erste Präsentation zum Tagungsthema gehalten wurde, stellte Jens Koy zunächst die Zwischenergebnisse der Arbeitsgruppe Effizienz vor. Er beschrieb die bisherige, noch junge Arbeit der AG und stellte eine geplante Handreichung für die Praxis vor. (weiter & Präsentation). Dr. Robert Poppe vom Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval), Kompetenzzentrum Methodenentwicklung, beschrieb im Anschluss zudem die Effizienzinitiative des DEval und die Zusammenarbeit mit der AG Effizienz und stellte Kernelemente eines Leitfadens und Methodenpapiers vor, die sich momentan in Arbeit befänden.

Nun hielten Franziska Krisch, heute ebenfalls am DEval, zuvor FAKT gGmbH, und Bernward Causemann, assoziiert bei FAKT gGmbH, einen Vortrag zu den Herausforderungen und Schlussfolgerungen einer Querschnittsevaluierung zur Politikbeeinflussung durch zivilgesellschaftliche Organisationen. Neben der Analyse des Beziehungsgeflechts und der Orientierung am Politikzyklus seien methodisch vor allem das Heranziehen sozialwissenschaftlicher Theorien des Wandels und eine Erhebung der Sichtweise möglichst vieler Betroffener hilfreich (weiter & Präsentation).

Nach der Mittagspause boten die politischen Stiftungen im Rahmen von parallel verlaufenden Werkstattgesprächen in Untergruppen Raum für offene Diskussionen. Anschließend wurden die zentralen Erkenntnisse dem Plenum präsentiert.

1. Eva-Maria Köhler-Renfordt: Einleitung zur Arbeit der politischen Stiftungen

2. Heinrich-Böll-Stiftung (Christiane Dilger): Querschnittsevaluierung der Arbeit der Stiftung 2012

3. Rosa-Luxemburg-Stiftung (Anja Scherkus und David Vossebrecher): Evaluation der Schnittstelle zwischen Zivilgesellschaft und Nationalversammlung in Vietnam

4. Hanns-Seidel-Stiftung (Klaus Heinle): Interne Evaluation einer Delegationsreise

5. Friedrich-Naumann-Stiftung (Eva-Maria Köhler-Renfordt): Evaluation der Zusammenarbeit mit Parteien im Ausland

 

Freitag, den 6.6.2014

Zu Beginn des Tages stellte Frau Dr. Justine Hunter von der Deutschen Gesellschaft für Internationale Zusammenarbeit (GIZ) in ihrem Vortrag Indikatorentypen und Kategorien für Good-Governance-Vorhaben vor und zeigte zentrale Herausforderungen im GIZ- Auftragsmanagement auf. Die Indikatorenbestimmung als politischer Prozess verlange eine Balance von Ownership und Verhältnismäßigkeit sowie eine genaue Konzeptualisierung von Governance (weiter & Präsentation)

Susanne von Jan, CEval, berichtete anschließend über die Evaluation politischer Institutionen als Beitrag zur Politikberatung. Sie beschrieb Hintergrund, Vorgehen, Besonderheiten und Herausforderungen am Beispiel Costa Rica. Es zeige sich der Vorteil eines Quellen- und Methodenmixes, aber auch die Notwendigkeit eines flexiblen Evaluierungsdesigns und bestimmter Vorkenntnisse der Evaluierenden (weiter & Präsentation).

In einer lebhaften Abschlussdiskussion wurden die Vorträge resümiert sowie offen geblieben Fragen formuliert. Vor allem standen dabei die Komplexitätsreduzierung zur Debatte, die Schwierigkeit der Zuordnung (Attribution) und der klaren Definition des Beitrags (Kontribution) sowie die Herausforderung eine geeignete Ziel- und Wirkungsorientierung zu verfolgen (weiter….).

Damit war der inhaltliche Teil der Frühjahrstagung beendet. Das Sprecherteam bedankte sich bei allen Teilnehmenden und verabschiedete sich!

Zuletzt geändert: 26. May 2015

Wie weiter mit der Effizienzbewertung in Evaluationen? - Frühjahrstagung 2013 des AK Entwicklungspolitik

Welche Ansätze zur Bewertung von Effizienz werden derzeit eingesetzt? Wie anspruchsvoll sind sie und wie werden sie in der Praxis bei Evaluationen umgesetzt? Effizienzbewertung war das Hauptthema auf der Frühjahrstagung des AK Entwicklungspolitik am 6. und 7. Juni 2013 in Bonn. Markus A. Palenberg, Institute for Developement Strategy (PPT) und Dr. Melody Garcia, Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) (PPT) führten in die Thematik und aktuelle Diskussion ein. Dann wurden anhand von vier Beispielen aus der Evaluationspraxis Erfahrungen und Möglichkeiten der Effizienzbewertung präsentiert und diskutiert. Die Bandbreite reichte von der KFW-Entwicklungsbank (Prof. Eva Terberger) über die Consulting-Wirtschaft (Lennart Raetzell, Ramboll Management Consulting) (PPT) bis hin zu den NGOs (Dr. Matthias Lanzendörfer, MISEREOR) (PPT) und freien Gutachterinnen und Gutachtern (Dr. Karin Stahl, freie Gutachterin). Die Diskussion wurde von den gut 70 Teilnehmenden der Frühjahrstagung interessiert verfolgt. Das Follow-up übernimmt in diesem Bereich eine am Ende der Tagung gegründete AG Effizienz, die im Rahmen des AK Entwicklungspolitik weiter zum Thema arbeiten wird. Ansprechperson ist derzeit Jens Koy (Jens.Koy@web.de).

Weitere spannende Themen der Frühjahrstagung waren die Präsentation und Verabschiedung des Papiers „Systemische Ansätze in der Evaluation“ (PPT), das im Rahmen einer AG entwickelt wurde und der Vortrag zum „Stand des Aufbaus des Deutschen Evaluierungsinstituts der Entwicklungszusammenarbeit (DEval)“ durch den Direktor Prof. Helmut Asche.

Abschließend wählte der AK ein neues SprecherInnenteam. Sprecherin ist Dr. Susanne Neubert, Direktorin des Seminars für Ländliche Entwicklung, Berlin. Vertreter sind Dr. Stefan Silvestrini, Geschäftsführer der CEval GmbH, Saarbrücken und Jens Koy, freier Gutachter, Bonn.
 

Zuletzt geändert: 16. June 2015

Komplexität und systemische Ansätze - Veranstaltungen des AK-EPol im Rahmen der Jahrestagung

Auch auf der diesjährigen Jahrestagung war der Arbeitskreis Entwicklungspolitik mit zwei sehr gut besuchten Sessions vertreten:

SESSION 1: Evaluation von Programmen mit zahlreichen Dimensionen und Akteuren

     

  • Andrea Heisel (Stabstelle M&E, GIZ): Das Wirkungsmodell der GIZ – Antworten auf komplexe Interventionsmaßnahmen aus Sicht der GIZ (PPT)
  • Dr. Lioba Weingärtner (freie Gutachterin): Zwischenevaluation des Wiederaufbauprogramms Haiti der Welthungerhilfe (PPT)
  •  


SESSION 2: Evaluation von Programmen auf mehreren Politikebenen und zwischen unterschiedlichen Ressorts

     

  • Ursula Kopp und André Martinuzzi (Research Institute for Managing Sustainability der Wirtschaftsuniversität Wien): Komplexität durch Multi-Level-Governance – Erfahrungen im Einsatz von Systemaufstellungen in der Evaluation eines Strukturfondsprogramms (PPT)
  • Dr. Lioba Weingärtner (freie Gutachterin): Evaluierung der deutschen staatlichen humanitären Hilfe mit vielen Kooperationspartnern (PPT)
  •  


Darüber hinaus fand am Rande der Tagung das jährliche Arbeitstreffen des AK statt, in dem u.a. die Themen für die kommende Frühjahrstagung abgestimmt wurden. Weitere Informationen zu dem Treffen finden Sie im Protokoll.

Zuletzt geändert: 16. June 2015

Frühjahrstagung am 12./13. Mai 2011 in Bonn-Hardtberg

Der AK Entwicklungspolitik lädt zu seiner Frühjahrstagung 2011 ein, die von der Arbeitsgruppe „Systemische Ansätze und Evaluation“ gestaltet wird. Das Thema lautet „Systemische Ansätze in der Evaluierungspraxis: Potenziale und Grenzen“. Die Veranstaltung findet statt in den Räumen des Evangelischen Entwicklungsdienst in der Ulrich-von-Hassell-Straße 76 in 53123 Bonn-Hardtberg. Beginn ist am 12.5. um 10h30 und Ende am 13.5. um 13h00.

Die Gestaltung der Tagung folgt systemischen Prinzipien und ist interaktiv angelegt. Der Einstieg in die Tagung erfolgt mit einem sinnlichen Erlebnis von Grundprinzipien von Systemen und einer Einführung in die Arbeit der AG „SAE“. Die Vorstellung des systemischen Evaluationsansatzes  “Program Theory and Logic Models“ in 7 Stufen  nach Patricia Rogers und die Bearbeitung der vier zentralen Konzepte der systemischen Herangehensweise (Beziehungen - Stakeholderperspektiven - Analyseperspektiven – Systemgrenzen) geben einen Einblick in die systemische Praxis bei Evaluierungen. Der erste Tag der Veranstaltung schließt mit Diskussionen zu den Veränderungen in der Evaluierungspraxis durch systemische Ansätze im Hinblick auf deren Merkmale und Besonderheiten, auf Implikation für die Rolle der Evaluierenden, auf ihre Verknüpfung mit dem Logframe-Ansatz und auf mögliche Brücken zu den DAC-Evaluierungskriterien. Der Beginn des zweite Tages dient der Rekapitulation der Diskussionen des Vorabends. Potenziale und Grenzen systemischer Ansätze in der Evaluierungspraxis werden im Fishbowl diskutiert und Schlussfolgerungen werden gezogen zu der Fragestellung, ob und wie systemisches Denken die Qualität von Evaluation verbessern kann. Mit einem kritischen Rückblick auf die Tagung und dem Sammeln von Anregungen und offene Fragen für die AG „Systemische Ansätze und Evaluation“ lassen wir die Tagung ausklingen.Werbetafeln und Ansprechpartner geben über die gesamte Tagung  Auskunft über die von der AG SAE vorgestellten Verfahren und Instrumente. Die Ansprechpartner stehen auch bilateral und informell am Rand der Veranstaltung für Auskünfte zur Verfügung.
Eine Tagungspauschale von 60,00 € für Nichtmitglieder der DeGEval und von 40,00 € für Mitglieder ist bei Tagungsbeginn zu entrichten. Studierende zahlen ein Betrag von 20,00 €.

Im Anschluß an die Tagung führen wir eine Sitzung des Arbeitskreises Entwicklungspolitik (für Interessierte & Mitglieder der DeGEval) durch und besprechen aktuelle Themen (Fortführung von und neue Themen für Arbeitsgruppen, Vorbereitung des AK-Treffens und AK-Aktivitäten bei der DeGEval-Jahrestagung „Partizipation- dabei sein ist alles?“ in Linz, Vorbereitung der AK-Frühjahrstagung 2012, u.a.)

Wir bitten sich bis zum 30. April per E-mail an sigfrid@milango.com (mit Namen und Organisation) anzumelden.

Das Sprecherteam des Arbeitskreises: Petra Feil, Helge Roxin und Sigfrid Schröder-Breitschuh

Anmeldeformular und Programm der Frühjahrstagung

Zuletzt geändert: 06. September 2011

Frühjahrstagung 2010 am 6./7. Mai in Bonn

FRÜHJAHRSTAGUNG 2010
6. / 7. MAI 2009 bei InWEnt in BONN
„Wirkungsorientierung zwischen Alltagstauglichkeit und
wissenschaftlichem Anspruch“

Das Programm finden Sie hier.

Zuletzt geändert: 06. September 2011

AG Systemische Analyse und Evaluation

Vorschlag zur Gründung einer Arbeitsgruppe "systemische Analyse und Evaluation"

von Dirk Guenther und Stefan Silvestrini
Dirk Guenther, Leiter der Stabsstelle Evaluation der Welthungerhilfe, Bonn
Stefan Silvestrini, Bereichskoordinator Bildung und Entwicklungszusammenarbeit am Centrum für Evaluation, Saarbrücken


Auf der Frühjahrstagung 2008 des Arbeitskreises Entwicklungspolitik der DeGEval in Freiburg, wurde die Idee zu einer neuen AG „Systemische Analyse und Evaluation“ formuliert.

(Anmerkung: Mit „systemischer Analyse“ wird in diesem Zusammenhang die Untersuchung aller relevanten Wirkungszusammenhänge in der wirtschaftlichen, sozialen, politischen, kulturellen, ökologischen (etc.) Umwelt eines zu evaluierenden Programms oder Projekts verstanden. Dabei sind nicht nur alle von den Maßnahmen ausgelösten Veränderungen im „System“ zu betrachten, sondern darüber hinaus auch die Rückwirkungen der Umwelt (i.w.S.) auf die Programmumsetzung sowie auf die Nachhaltigkeit und weiteren Folgen der erzeugten Programmwirkungen.)


Im Folgenden soll die Idee zu diesem Thema kurz umrissen werden.

Projektplanung und Durchführung in der Entwicklungszusammenarbeit (EZ) und damit auch die Evaluation von EZ Vorhaben folgen meist der Logik von Wirkungsketten (zur Verknüpfung von Leistungen, Nutzung und Nutzen auf verschiedenen Ebenen). Wirkungsketten stellen ein stark vereinfachtes Model der menschlichen Wirklichkeit dar, da im Wesentlichen lineare Kausalbeziehungen abgebildet werden. Die reale Lebensumwelt wird dagegen von vielschichtigen und komplexen miteinander verbundenen Faktoren und Einflüssen, die fördernd, hemmend oder neutral aufeinander wirken, gebildet. Soziale Systeme der EZ stellen ein komplexes und offenes System von direkten und indirekten Wechselwirkungen dar.

Anders als in Forschungsfeldern wie der Ökonomie, der Ökosysteme, der Hydrologie oder den Technologiefolgen, werden zur Entwicklungszusammenarbeit bisher nur sehr wenige systemische Untersuchungen angestellt. Die Evaluationen (insbesondere Zwischen- und Endevaluation) der (projektumgebenden) EZ Sozialsysteme beruhen daher immer noch vorwiegend auf der spezifischen und praktischen Berufserfahrung der jeweiligen Gutachter, die hierbei „ihre“ System-Erfahrung in die Evaluation mit einbringen. Die Ergebnisse sind daher in hohem Maße subjektiv.  Abweichungen zwischen Ergebnissen der von unterschiedlichen Gutachtern durchgeführten Schluss- und ex-post Evaluationen, die nicht auf (objektiv messbaren) Veränderungen im Untersuchungssystem zurückzuführen sind, sind daher häufig.

Obgleich die Notwendigkeit von systemischen Ansätzen bei der Programmplanung und bei ex-post Evaluationen zur ganzheitlichen Bewertung der Maßnahmenwirksamkeit vielerorts anerkannt wird, kommen diese aufgrund ihres i.d.R. erheblichen Ressourcenbedarfs bisher nur selten zum Einsatz. Der hierfür erforderliche zeitliche und personelle Aufwand, ist von Durchführungsorganisationen oftmals nicht zu leisten, da sie i.d.R. nicht über die hierfür erforderlichen Mittel und Kapazitäten verfügen.

Hier könnte sich ein interessantes Feld zur Zusammenarbeit zwischen Praxis und Forschung ergeben. So könnten Untersuchungen von komplexen Wirkungszusammenhängen in der EZ, deren besseres Verständnis von der Praxis benötigt wird, verstärkt von der wissenschaftlichen Forschung durchgeführt werden. Dies könnte eine objektivere Basis für zukünftige Evaluationen geben, da sich Gutachter stärker auf Forschungsergebnisse stützen könnten. Dies wäre gerade bei der Abschätzung potentieller Wirkungen und deren Nachhaltigkeit bei Zwischenevaluationen nützlich.

Ziel der hier angeregten AG wäre: „den Bedarf der Praxis an systemischer Untersuchung der Sozialsysteme der Entwicklungszusammenarbeit und die Möglichkeit der Forschung zur Untersuchung dieser herauszuarbeiten“. Die AG soll keine Forschung betreiben, sondern zur Verbesserung der Zusammenarbeit von Forschung und Praxis beitragen, und gerade dafür wäre die DeGEval eine gute Plattform.

Mögliche Schritte einer solchen AG könnten sein:

     

  • Information (ggf. Fachvorträge) zu systemischer Untersuchung aus unterschiedlichen Themenfeldern um systemisches Denken aus verschiedenen Perspektiven darzustellen
  • Herausarbeiten der Bereiche, in denen in der EZ Forschungsbedarf zu systemischer Untersuchung besteht.
  • Identifikation möglicher Instrumente und Verfahren der verschiedenen Forschungstraditionen (z.B. Politikfeldanalyse, Technikfolgen-Abschätzung, Umweltforschung etc.)
  • Das Produkt einer solchen AG könnte eine kurze Veröffentlichung sein, in der die Thematik dargestellt, der mögliche Bedarf an systemischer Forschung umrissen sowie mögliche Herangehensweisen zur Umsetzung entsprechender Analysen (sowohl durch die Forschung als auch durch Vertreter der EZ-Praxis) aufgezeigt werden.
  •  


Eine solche verbesserte Zusammenarbeit wäre nicht nur für größere Organisationen vorteilhaft (da Forschung nicht zu ihren Aufgaben gehört, wissenschaftliche Qualität in der Evaluation aber häufig gefordert wird). Gerade auch kleinere Organisationen, die sich solche Untersuchungen kaum leisten können, und freie Gutachter könnten auf solche Ergebnisse zurückgreifen. Letztendlich sollte sich ein Vorteil für die Akteure der Entwicklung ergeben, denn für Systeme, die man besser versteht, kann man auch sinnvollere Verbesserungsmaßnahmen durchführen.

Die genannte AG "systemische Analyse und Evaluation" könnte parallel zur anderen angedachten AG "Budgethilfe" innerhalb des AK EZ der DeGEval laufen. Es ergäben sich keine größeren Überschneidungen und auch der Interessentenkreis wäre sicher ein anderer.

Wir hoffen durch diese Darstellung Interesse an einer solchen AG und Interesse an der Verbesserung oder Weiterentwicklung der dargestellten Gedanken geweckt zu haben.


Kontakt:
Dipl.-Soz. Stefan Silvestrini
Bereichskoordinator Bildung und Entwicklungszusammenarbeit
Centrum für Evaluation (CEval), Universität des Saarlandes
Postfach 15 11 50, 66041 Saarbrücken
Tel.: 06 81 - 3 02 - 36 79
Fax: 06 81 - 3 02 - 38 99

E-Mail: s.silvestrini@ceval.de

Zuletzt geändert: 10. November 2011

Frühjahrstagung

Frühjahrstagung des AK Entwicklungspolitik
5. / 6. Juni 2008
Freiburg

"WIRKUNGSANALYSEN"

> Programm/ Anreise/ Unterkunft

> Anmeldeformular

Zuletzt geändert: 06. September 2011