Tarek Azzam

Fall

Using public databases to study relative program impact

Auteurs:
Pages:
57-68

On exige de plus en plus des évaluateurs qu’ils répondent à la question « en comparaison à quoi? » lorsqu’ils analysent l’inci dence des programmes qu’ils étudient. Le contexte des programmes et d’autres contraintes rendent souvent impossible l’utilisation de certaines de nos méthodes les plus rigoureuses, comme les essais randomisés, dans l’étude de leurs impacts. Il est impératif d’analyser et de diffuser des méthodes de rechange qui en permettent l’étude en dépit de contraintes contextuelles extrêmes. Cet article propose une méthode qui s’appuie sur des banques de données publiques disponibles pour établir des groupes de référence et déterminer l’incidence relative des programmes.

Spring

Research on Evaluation: A Needs Assessment

Auteurs:
Pages:
39-64

Cette étude enquête a tenté de comprendre les questions de recherche auxquelles les évaluateurs ont été les plus intéressés à répondre. Les résultats suggèrent qu'il y a un grand intérêt dans les efforts de recherche qui (a) explorent les facteurs qui augmentent l'impact de l'évaluation, (b) aident à développer de nouvelles méthodologies, (c) examinent l'influence du contexte sur les évaluations, et (d) permettent d'aborder les dilemmes éthiques. Les répondants ont aussi fourni des questions de recherche pour chaque thème, révélant un corps diversifié de préoccupations et d'enjeux. L'étude indique également que la recherche sur l'évaluation est considérée comme un projet important avec un fort soutien de la communauté.