Die Frühjahrstagung 2023 des AK Methoden in der Evaluation fand in Zusammenarbeit mit dem Statistischen Bundesamt (Destatis) als Präsenzveranstaltung am 19. und 20. Juni 2023 in Wiesbaden statt.
In Evaluationen werden unterschiedliche Erwartungen an die Rolle und Funktion von Theorien gerichtet. Als gegenstandsbezogene Theorien sollen sie erstens erklären, wie und warum eine Intervention (nicht) wirkt. Gegenstandsbezogene Theorien bilden zweitens die Basis für die empirische Untersuchung von Programmen bzw. Interventionen. Sie rücken in den Blick, welche Aspekte empirisch zu untersuchen sind und strukturieren die Wahl des Evaluationsdesigns. Drittens stellen gegenstandsbezogene Theorien mit den in sie eingelassenen Maßstäben und Erkenntnishorizonten die Grundlage für die Bewertung von Programmen bzw. Interventionen dar. Sie können zudem, viertens, als Verständigungsgrundlage im Stakeholderprozess dienen, dabei das Aushandeln von Zielen und Fragen erleichtern sowie eine bessere Kooperation und geteilte Sichtweisen auf die Funktionsweise und Umsetzung von Programmen fördern (Hense/Taut 2021).
Diesen vielseitigen und komplexen Ansprüchen an Theorien widmete sich die Frühjahrstagung 2023. Im Zentrum der Tagung standen dabei u.a. die Rolle und Güte gegenstandbezogener Theorien in der Evaluation und Fragen danach, wie sich Theorie und Evaluationsdesign wechselseitig bedingen, welche methodischen Implikationen sich aus der jeweiligen Theorie für das Evaluationsdesign ergeben, wo Grenzen der Theoriebildung und -testung liegen und welchen Anforderungen bzw. Herausforderungen sich Theorien im Stakeholderprozess stellen.
Die AK Sprecher*innen, Dr. Alexander Kocks und Dr. Franziska Heinze, eröffneten die Tagung und leiteten inhaltlich in das Tagungsthema ein. Im anschließenden Grußwort der gastgebenden Institution, stellte Christoph Unger, Vizepräsident des Statistischen Bundesamtes (Destatis), u.a. die vielfältigen Aufgaben der Datenerhebung aufseiten des Statistischen Bundesamtes und die unterstützenden und beratenden Aufgaben der hier angesiedelten Kompetenzstelle der Bundesregierung für Evaluierung im Dienstleistungszentrum für Bessere Rechtsetzung dar. Er betonte die Bedeutung von Theorien als „das Fundament einer guten Evaluierung“ sowie damit verbunden die besondere Relevanz des Tagungsthemas für die Evaluation.
Die Keynote von Prof. Dr. Jan Hense adressierte die Frage, inwiefern die zahlreichen Ansprüche an Wirkmodelle bzw. Programmtheorien in der derzeitigen Evaluationspraxis eingelöst werden und welche Potenziale bislang wenig genutzt erscheinen. Dabei schlug er einen Bogen von den Anfängen programmtheoriebasierter Evaluationsansätze zu Desideraten für die Weiterentwicklung der gegenwärtigen Evaluationspraxis. Dabei betonte er zugleich die Notwendigkeit eines realistischen Erwartungsmanagements bei der Nutzung von Wirkungsmodellen. In den nachfolgenden Inputs reflektierte zunächst Dr. Anna von Werthern, was genau es bedeute, eine Programmtheorie zu erarbeiten, was es mit der Theorie hinter der Programmtheorie auf sich hat und wie sich eine Programmtheorie praxisnah und effizient nutzen lässt. Dr. Martin Bruder widmete sich anschließend am Beispiel einer Evaluation des „weltwärts“-Freiwilligendienstes der Frage, wie sich über Theory Knitting („Theoriestricken“) sozialwissenschaftliche Theorien und Programmtheorien in der evaluatorischen Tätigkeit miteinander verschränken lassen, um profunde Erkenntnisse über die jeweiligen Wirkzusammenhänge zu erlangen. Den Abschluss des offiziellen Programms des ersten Tages bildete das Treffen des Arbeitskreises Methoden in der Evaluation.
Am zweiten Tagungstag folgten Inputs von Dr. Jan Gellermann und Norbert Knoll. Dr. Jan Gellermann widmete sich in seinem Beispiel aus der Evaluation eines Coaching-Angebots für Langzeitarbeitslose der Frage, wie ein Mixed Methods-Design dazu beitragen kann, die gegenstandsbezogene Programmtheorie zu schärfen, zu verfeinern und damit letztlich zur Weiterentwicklung des Programms beitragen kann. Norbert Knoll veranschaulichte anhand der Evaluation von österreichischen Förderungsprogrammen für Unternehmen, dass es notwendig sei, die unterschiedlichen Zielstellungen der beteiligten Stakeholdergruppen in Programmtheorie und Evaluierungsdesign einzufangen. So können Lerneffekte generiert werden, die für die Programmweiterentwicklung in Wert gestellt werden können. Zum Abschluss diskutierten die Referierenden gemeinsam mit dem Publikum Good Practices bei der Nutzung von Programmtheorien im Stakeholderprozess. Die Notwendigkeit von Mindeststandards in der Theorieformulierung und -überprüfung wurde dabei ebenso reflektiert wie konkrete Lernerfahrungen und Tipps bezüglich einer Stakeholdergerechten (und partizipativen) Theorieformulierung und -vermittlung. Dank der engagierten Mitwirkung aller Teilnehmenden leuchtete die Tagung das Spannungsfeld von Erklärungsanspruch, Überprüfbarkeit und Praxistauglichkeit von Theorien in Evaluationen aus und generierte damit einen Mehrwert sowohl für die „Evaluierungspraktiker“ als auch die „Evaluierungstheoretiker“ – so das Credo der Teilnehmenden.
Präsentationen der Vorträge:
Prof Dr. Jan Hense (Selbstständiger Berater für Wirkungsorientierung und Evaluation, Gießen): »Des Kaisers neue Theorien: Wie viel Theorie steckt in unseren Wirkungsmodellen und wie viel braucht die Evaluationspraxis?«
Dr. Anna von Werthern (Ludwig-Maximilian-Universität, München): »Die Programmtheorie als Black Box - Theoriebasierte Evaluation im Spannungsfeld zwischen Anspruch und Anschlussfähigkeit«
Dr. Martin Bruder (Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit, Bonn): »Vom Gedankenknäuel zur passenden Theorie des Wandels: Theoriestricken für Anfänger*innen«
Dr. Jan Gellermann (Institut für Arbeitsmarkt- und Berufsforschung, Düsseldorf): »Reflexionen zu „Mixed-Method“-Ansätzen bei der Evaluation komplexer Arbeitsmarktprogramme«
Norbert Knoll (Austria Wirtschaftsservice Gesellschaft mbH, Wien): »Reflexionen zur Berücksichtigung von Stakeholdern im Design und in der Evaluierung aus der Perspektive einer Förderungsagentur«
Weitere Dokumentation:
Hier finden Sie eine detaillierte Übersicht über das Programm der Frühjahrstagung.
Die Frühjahrstagung 2021 findet vom 30.6.-1.7.2022 als virtuelle Tagung statt und wird vom Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) ausgerichtet.
Die Anforderung der Kombination quantitativer und qualitativer Methoden der Sozialforschung ist nahezu so alt wie die Sozialforschung selbst. In Evaluationen wird dagegen erst seit Ende der 1980er Jahre beziehungsweise Anfang der 1990er Jahr die Kombination quantitativer und qualitativer Methoden als eigenständige Strategie für die Entwicklung von Evaluationsdesigns beachtet (Mertens 2017). Mittlerweile gilt die Methodenintegration als gute Praxis von Evaluationen und so findet sich in vielen Ausschreibungen von Evaluationen die Anforderung, methodenintegrativ vorzugehen. Zugleich verändern sich aber auch die Ansprüche an sowie die Kontexte von Evaluationen. Illustrieren lässt sich dies anhand des zunehmenden Komplexitätsgrades von Evaluationen, bis hin zu sogenannten wicked problems (Patton 2011, Mertens 2015).
Vor dem Hintergrund zunehmender Komplexität von Evaluierungsgegenständen und des damit verbundenen Rufs nach mehr Methodenintegration stellt sich die Frage, wie Methodenintegration in komplexen Evaluationen umgesetzt werden kann, um ihr Potential bestmöglich in Wert zu setzen. Zugleich stellt sich aber auch die Frage nach den Herausforderungen der Methodenintegration in der Praxis. Im Rahmen der Frühjahrstagung 2022 stehen diese Fragen im Mittelpunkt, indem methodologische Grundlagen und anwendungsorientierte Beispiele vorgestellt und diskutiert werden.
Präsenationen der Vorträge:
Weitere Dokumentation:
Die Frühjahrstagung 2021 fand vom 10.-12.06.2021 als virtuelle Tagung statt und wurde von der Deutschen Hochschule der Polizei (DHPol) ausgerichtet.
Die Frage der Vorhersage spielt in Evaluationen sehr häufig eine wichtige Rolle: in prospektiven Evaluationsansätzen oder ex-ante-Evaluationen ist die Vorhersage Kernbestandteil des Erkenntnisinteresses. Diese Ansätze sollen vor Beginn einer Intervention eine Einschätzung der potenziellen Wirksamkeit dieser Intervention ermöglichen. Sie sollen einen Beitrag dazu leisten, die bestmögliche Vorgehensweise zur Bewältigung eines Problems bzw. die bestmögliche Ausgestaltung der Interventio n zu identifizieren. Ein exemplarisches Anwendungsgebiet ist die prospektive Gesetzesfolgenabschätzung.
Aber auch bei Zwischen- oder ex-post-Evaluationen ist die Vorhersage – hier meist implizit – von Bedeutung: Empfehlungen in Evaluationen werden meist auf Basis von Methoden erstellt, die zurückblickend die Umsetzung von Interventionen untersuchen. Obwohl diese Empfehlungen zukunftsgerichtet sind, findet selten eine empiriegeleitete Entwicklung von Empfehlungen statt, beispielsweise indem unterschiedliche Zukunftsszenarien entwickelt werden. Dabei gibt es in der empirischen Sozialforschung neuere Verfahren, die es ermöglichen, zukünftige Entwicklungen und Szenarien empirisch zu modellieren bzw. formulieren. Mit der Zukunftsforschung hat sich in der sozialwissenschaftlichen Debatte sogar ein eigenes Feld etabliert, das sich mit der empirisch basierten Vorhersage von wahrscheinlichen Zukunftsentwicklungen auseinandersetzt.
Die Frühjahrstagung 2021 des AK Methoden soll einen Beitrag dazu leisten, bisherige Erfahrungen aus Evaluation und Wissenschaft über prospektive Methoden zu bündeln und Möglichkeiten zu identifizieren, wie bestehende Verfahren und Ansätze der prospektiven Forschung verstärkt für Evaluationen nutzbar gemacht werden können.
Präsenationen der Vorträge:
Weitere Dokumentation:
Die Frühjahrstagung 2019 fand am 21./22.6.2018 in Wien statt und wurde von der Austrian Development Agency und dem Institut für Internationale Entwicklung der Universität Wien gemeinsam ausgerichtet.
Evaluatorinnen und Evaluatoren stehen heute mehr denn je vor der Aufgabe, den wissenschaftlichen und methodischen Ansprüche an Evaluationen gerecht zu werden. Per Definition müssen Evaluationen den Anforderungen wissenschaftlicher Güte entsprechen, sind somit ‚angewandte Wissenschaft‘. Die Frage adäquater Methodenanwendung ist Evaluierungen somit inhärent und war folglich von Beginn an Gegenstand intensiver Diskussionen. Ein zentrales und wiederkehrendes Thema betraf den Einsatz adäquater Methoden zur Kausalitätsanalyse, infolgedessen diverse Ansätze aufgezeigt wurden: Neben dem vermeintlichen Gold-Standard experimenteller Ansätze und quasi-experimentellen Designs stehen mittlerweile mit theoriebasierten Evaluationsansätzen auch wissenschaftstheoretische Alternativen zur Verfügung, die nicht auf der Untersuchung eines Kontrafaktums beruhen.
Dennoch unterscheiden sich insbesondere Kausalitätsanalysen im Rahmen von Evaluationen in der Praxis teilweise stark von wissenschaftlichen Studien: Einschränkungen in der Umsetzung anerkannter Methoden werden häufig mit Hinweis auf einen Unterschied zwischen Wissenschaft und Praxis als unumgänglich gesehen und auf ‚Plausibilität‘ bzw. ‚Plausibilitätsüberlegungen ‘verwiesen. Plausibilität wird hierbei gewissermaßen als ‚alternative Methode‘ zu den in der Wissenschaft angewandten Methoden und Designs bzw. als zulässige Alternative zu gängigen wissenschaftlichen Gütekriterien beschrieben. Durch den Bezug auf Plausibilität soll die Reliabilität und Validität von Evaluierungsergebnissen gewahrt werden. Plausibilität wird jedoch nicht näher definiert und dementsprechend unterschiedlich und in Abhängigkeit der Evaluierenden genutzt. Letztendlich ist ungeklärt, was konkret unter ‚Plausibilität‘ verstanden wird. Ungeklärt ist auch, welcher konkrete Unterschied zwischen Wissenschaft und (Evaluation-)Praxis existiert, der Plausibilität erfordern könnte, und inwieweit dies mit einer geringeren methodischen Qualität von Evaluationen einhergeht.
Die Frühjahrstagung 2019 des AK Methoden sollte einen Beitrag zur Schließung dieser definitorischen Lücke leisten. Vor der übergeordneten Frage, ob und wie sich Evaluationen in methodischer Hinsicht von wissenschaftlichen Studien unterscheiden, wurde aus verschiedenen fachlichen Perspektiven der Begriff der Plausibilität beleuchtet und diskutiert, inwieweit Plausibilität wissenschaftlicher Güte entsprechen kann und welche Mindeststandards gegeben sein müssen. Damit wurde zeitgleich über potentielle Grenzen zwischen Wissenschaft und Evaluation und ihrer Überwindung diskutiert.
Präsenationen der Vorträge:
Weitere Dokumentation:
Bilder der Tagung:
![]() |
![]() |
|
![]() |
![]() |
|
|
![]() |
|
|
Potentiale und Grenzen von Big Data in Evaluationen
Die Frühjahrstagung 2018 fand am 22./23.6.2018 in Bonn statt und wurde vom Nationalen Zentrum für Kriminalprävention (NZK) ausgerichtet.
Keinem anderen Ansatz wird derzeit ein ähnlich großes Potential zugesprochen, wenn es um die Weiterentwicklung von Evaluierungsansätzen geht, wie Big Data. Gleichzeitig nutzen Evaluationen bis dato nur sehr selten neue Datenquellen als empirische Basis. Diese Diskrepanz zu erklären, ist Ziel der Frühjahrstagung 2018 des Arbeitskreises Methoden in der DeGEval. In den vergangenen 10 bis 15 Jahren sind eine Reihe von neuen Datenquellen entstanden, die das Potential haben, Probleme der Datenerhebung im Rahmen von Evaluierungen zu lösen: Menschen hinterlassen immer mehr elektronische Spuren, rezipieren und produzieren elektronischen Content oder lassen ihr alltägliches Handeln, z. B. durch Bewerbungsprofile, verfolgen. Somit lässt sich das tatsächliche Handeln von Menschen statistisch verfassen – ohne dass auf selbstberichtetes Verhalten im Rahmen von Fragebögen zurückgegriffen oder ein reaktives Verfahren wie die Beobachtung verwendet werden muss. Auch lassen sich erstmals Aspekte untersuchen, die zuvor nur schwer erfassbar waren – beispielsweise umfassende elektronische Freundschaftsnetzwerke. Auch Einstellungen, Werte, Normen können somit untersucht werden. Big Data verspricht zudem, schnell und unkompliziert Daten bereitzustellen und zeitnah empirische Evidenz als Entscheidungsgrundlage zu liefern.
Vor diesem Hintergrund stellt sich die Frage, warum Big Data in vergleichsweise wenigen Evaluierungen angewandt wird. Um dieser Frage nachzugehen, werden im Rahmen der Frühjahrstagung 2018 die Potentiale von Big Data systematisch erarbeitet. Es werden Grenzen der Anwendung von Big Data in Evaluierungen diskutiert und Fragestellungen und Gegenstände identifiziert, bei denen der Einsatz von Big Data zielführend sein kann. Außerdem sollen Voraussetzungen und Hindernisse für die praktische Anwendung von Big Data diskutiert werden.
Präsentationen der Vorträge:
Weitere Dokumentation:
Bilder der Tagung:
![]() |
![]() |
![]() |
|
|
|
|
|
|
|
Mechanismen als Alternative zu kausaler Attribution – Aktuelle (Weiter-)Entwicklungen von Evaluationsmethodologien
Die Frühjahrstagung 2017 fand am 9./10.6.2017 in Bonn statt und wurde vom Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) ausgerichtet.
In der internationalen Evaluationsforschung wird seit einiger Zeit vermehrt auf Mechanismen Bezug genommen. Mechanismen werden dabei als Möglichkeit gesehen, Zusammenhänge detailliert zu erklären – somit die „Black Box“ von Interventionen zu öffnen – und darüber Kausalität abzuleiten ohne ein (quasi-)experimentelles Design anzuwenden. Dieses Verständnis von Mechanismen als kausale Mechanismen wird vor allem in theoriebasierten Evaluierungsansätzen, wie der Realist Evaluation, vertreten. In der deutschen Evaluationslandschaft wird bislang noch wenig expliziter Bezug auf Mechanismen genommen. Die Frühjahrstagung 2017 sollte deshalb zunächst dazu beitragen, den aktuellen Stand der internationalen Debatte wiederzugeben. Dazu sollte das Verständnis von Mechanismen in theoriebasierten Evaluationen vorgestellt werden. Zudem wurden alternative methodische Herangehensweisen an Mechanismen dargestellt und diskutiert. Übergeordnetes Ziel der Frühjahrstagung war es, die Nützlichkeit einer auf Mechanismen basierenden Evaluation vor dem Hintergrund beschränkter Ressourcen zu diskutieren.
Präsentationen der Vorträge:
Weitere Dokumentation:
Bilder:
Zur Qualität qualitativer Sozialforschung in der Evaluation – Möglichkeiten und Grenzen
Die Frühjahrstagung 2016 des AK Methoden in der Evaluation fand am 20. und 21. Mai 2016 in Bonn statt. Gastgeberin der Tagung war die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) GmbH. Die Frühjahrstagung 2016 wurde in Kooperation mit dem Nachwuchsnetzwerk der DeGEval durchgeführt. Als zweiter Teil der Tagung fand das Praxis- und Forschungskolloquium des Nachwuchsnetzwerks der DeGEval satt.
Obwohl die meisten Evaluationen zu einem großen Teil mit qualitativen Methoden arbeiten, wurde die Frage nach deren Qualität bisher kaum betrachtet. Im Rahmen der Frühjahrstagung des AK Methoden sollen daher in Fortführung der Frühjahrstagungen 2013 und 2014 dezidiert die Möglichkeiten und Grenzen guter qualitativer Sozialforschung im Kontext von Evaluationen betrachtet werden. Gemeinsam wollen wir qualitative Sozialforschung im Spannungsfeld zwischen Theorie und Praxis diskutieren sowie Möglichkeiten und Grenzen angemessener Lösungen für die Evaluationspraxis identifizieren. Hierbei soll etwa der Frage nachgegangen werden, welche Mindestanforderungen in der Umsetzung qualitativer Methoden notwendig und in der Evaluationspraxis machbar sind. So stellt sich z.B. die Frage, inwieweit eine Mitschrift ausreichend ist oder Interviews mitgeschnitten und gar transkribiert werden sollten. Während ein Großteil der im Rahmen von Evaluationen umgesetzten nicht standardisierter Daten einer reinen Textinterpretation unterzogen wird, stellt sich ebenso die Frage, inwieweit auch andere qualitative Zugänge für Evaluationsfragestellungen sinnvoll und geeignet sind. Neben der konkreten Frage nach Gütekriterien und Qualitätsmaßstäben soll außerdem die Rolle von qualitativen Ansätzen in Evaluationen beleuchtet werden. Auch hierbei stehen Fragen der Grenzen und Möglichkeiten qualitativer Ansätze im Mittelpunkt.
Präsentationen der Vorträge:
Weitere Dokumentation:
Bilder der Tagung:
"Was heißt hier eigentlich Evidenz?" Der Gold-Standard in der Diskussion
Unter diesem Titel fand an der Hochschule für Wirtschaft und Technik des Saarlandes (htw saar) am 29./30. Mai 2015, die Frühjahrstagung des Arbeitskreises Methoden in der Evaluation statt.
Bei der Bewertung der Qualität und Validität von methodischen Designs und Ergebnissen von Evaluationen wird häufig eine "Hierarchie der Evidenz" unterstellt, bei der das randomisierte Versuchs-Kontrollgruppendesign als (nur selten erreichbares, aber als regulative Zielidee normativ sehr einflussreiches) Ideal methodischer Strenge und wissenschaftlicher Aussagekraft gilt.
Die Einsicht in die Validitätsbedrohungen und Probleme echter Experimente in den Sozialwissenschaften lässt jedoch Zweifel aufkommen, ob eine derart einfache und unilineare Hierarchie der Evidenz sinnvollerweise angenommen werden kann. Insbesondere im Rahmen der Diskussion um "Mixed Methods" in der empirischen Sozialforschung gibt es eine verstärkte Tendenz, die Beschränkungen und Schwächen unterschiedlicher (auch vermeintlich "rigoroser") Designs zu thematisieren und pluralistischere Konzepte von Evidenz vorzuschlagen.
Dokumentation des Impulsvortrags:
Weitere Dokumentation:
Zwischen wissenschaftlichen Gütekriterien und den Erfordernissen der Evaluationspraxis II
Die Frühjahrstagung 2014 des AK-Methoden fand am 25./26. April im Deutschen Evaluierungsinstitut der Entwicklungszusammenarbeit gGmbH (DEval) in Bonn statt.
Mit der Frühjahrstagung 2014 wurde die inhaltliche Auseinandersetzung, die in der Frühjahrstagung 2013 begann, fortgesetzt. Vor einem Jahr standen unter dem gleichen Titel quantitative Verfahren im Mittelpunkt. Mit der Tagung 2014 wurden nun qualitativ orientierte Designs näher betrachtet werden. Im Mittelpunkt stand die Rolle von wissenschaftlichen Kriterien und Standards in Evaluationsprozessen. Dies betrifft etwa Fragen nach der wissenschaftlichen Dignität und Seriösität von Methoden der Datensammlung und –auswertung, die in der Evaluationspraxis eingesetzt werden. Hiermit ist aber auch das Spannungsverhältnis angesprochen einerseits zwischen empirischer Forschung, die objektive und wertneutrale Beschreibung von Sachverhalten (etwa „Zielerreichung“) anstrebt, und Werturteilen andererseits (wie sie etwa im Begriff „Qualität“ immer schon angelegt sind). Es wurde diskutiert, wie Auftraggebende und Evaluatoren/Evaluatorinnen in diesen Spannungsverhältnissen verantwortbare und umsetzbare Standards und Lösungen für die Praxis finden können.
Präsentationen der Vorträge:
Weitere Dokumentation:
Zwischen wissenschaftlichen Gütekriterien und den Erfordernissen der Evaluationspraxis I
Die Frühjahrstagung 2013 fand am 26./27.4.2013 in der der Deutschen Gesellschaft für internationale Zusammenarbeit (giz) in Eschborn statt.
In der Frühjahrstagung des AK Methoden ging es um die Rolle von wissenschaftlichen Kriterien und Standards in Evaluationsprozessen und um die Bedeutung unterschiedlicher Wissenschaftsverständnisse in diesem Kontext.
Dies betrifft etwa Fragen nach der wissenschaftlichen Dignität und Seriösität von Methoden der Datensammlung und –auswertung, die in der Evaluationspraxis eingesetzt werden. Hiermit ist aber auch das Spannungsverhältnis angesprochen einerseits zwischen empirischer Forschung, die objektive und wertneutrale Beschreibung von Sachverhalten (etwa „Zielerreichung“) anstrebt, und Werturteilen andererseits (wie sie etwa im Begriff „Qualität“ immer schon angelegt sind). Diskutiert wurde, wie Auftraggebende und Evaluatoren/Evaluatorinnen in diesen Spannungsverhältnissen verantwortbare und umsetzbare Standards und Lösungen für die Praxis finden können. Die Tagung wird sowohl Vorträge externer Referenten, einen Kurzbericht aus der Forschungspraxis und Arbeits- und Diskussionsphasen umfassen.
Dokumentation:
„Best Practice“ zwischen wissenschaftlichen Standards und politischer Einflussnahme
Die Frühjahrstagung des AK-Methoden fand am 13./14. April 2012 in Braunschweig im Johann Heinrich von Thünen Institut (vTI) statt.
Evaluation vollzieht sich in der Regel in einem Feld, in dem beteiligte und betroffene Akteure mit divergierenden Interessen und unterschiedlichen Machtressourcen auf die Prozesse der Zielformulierung, Instrumentenkonstruktion, Datenerhebung, Datenanalyse und Dateninterpretation Einfluss nehmen können und wollen. Hierbei entstehen leicht Konflikte mit Qualitätskriterien von Evaluation und Evaluatoren, aber auch Auftraggeber können sich in unterschiedlichen Dilemmata zwischen organisationsbezogenen Anforderungen, ökonomisch-politischen Sachzwängen und professionellen Ansprüchen wiederfinden. Auf der Tagung wurden durch verschiedene Vorträge und in intensiver Kleingruppenarbeit typische Zwänge, die sich aus dem Spannungsverhältnis zwischen Machtstrukturen einerseits und wissenschaftlichen und professionellen Handlungsorientierungen andererseits ergeben ausgelotet, aber auch Handlungsspielräume und Strategien zur Bewältigung dieser Probleme erarbeitet.
Dokumentation:
Der Arbeitskreis Methoden in Gründung veranstaltete seine Frühjahrstagung am Freitag und Samstag, den 27. und 28. Mai 2011 an der Helmut-Schmidt Universität der Bundeswehr in Hamburg.
Ein wichtiger Schwerpunkt der Tagung war die Diskussion unserer zukünftigen Schwerpunktthemen und des Arbeitsprogramms des Arbeitskreises. Hierzu konnten drei Referenten gewonnen werden, die theoretische Grundsatzpositionen formulierten, so dass eine gute Diskussionsgrundlage für die Tagung gegeben sein wird.
Dokumentation: