Volume 25, 2010 - Printemps

Putting God in the Logic Model: Developing a National Framework for the Evaluation of Faith-Based Organizations

Auteurs :
Pages :
1-26

En comparaison avec la contribution que les organismes confessionnels apportent à la société canadienne, rares sont leurs évaluations. Le défi pour les évaluateurs est le développement de processus d'évaluation qui rencontrent avec satisfaction les exigences des sciences sociales tout en respectant l'aspect central de la foi dans les interventions de ces organismes. Le défi est encore plus grand pour l'évaluation de l'innovation confessionnelle. Cet article examine le statut actuel de l'évaluation dans un cadre confessionnel et en présente les limites. L'article propose ensuite un cadre national innovant d'évaluation confessionnelle tentant de remédier aux limites identifiées. Cet article se termine par des réflexions critiques sur les constats découlant de ce cas et les implications pour d'autres secteurs.

Evaluability Assessment of a National Driver Retraining Program: Are We Evaluating in the Right Lane?

Auteurs :
Pages :
27-50

Une évaluation de l'évaluabilité (EE) du programme 55 ans au Volant, un programme visant à améliorer les habiletés des conducteurs âgés, a été entreprise. Cette EE s'ajoute à la littérature dans le domaine car des évaluations antérieures de résultats ont négligé d'investiguer si ce programme se prêtait à ce type d'évaluation. Un protocole requérant des méthodes mixtes a été utilisé auprès de trois sites communautaires. Des recommandations pour les évaluations futures découlent des résultats de cette EE : (a) l'importance d'un échantillonnage comprenant tous les nivaux des parties prenantes, (b) l'utilisation de l'EE afin de faciliter l'engagement des parties prenantes, et (c) l'inclusion de chercheurs se spécialisant dans le domaine évalué.

Constructing and Verifying Program Theory Using Source Documentation

Auteurs :
Pages :
51-67

Expliciter la théorie d'un programme constitue l'une des premières étapes essentielles de l'évaluation fondée sur la théorie. Une fois explicite, la logique de programme peut être décrite en établissant les liens essentiels entre la théorie, les activités, et les résultats du programme. Malgré son importance, l'évaluateur se retrouve souvent dans des situations où la théorie du programme n'est pas explicitée. Dans ces circonstances, l'évaluateur doit recourir à une solution de rechange pour concevoir une théorie de programme en fonction d'un délai et de ressources limités. Recourir à la documentation source (e.g., plans de cours, énoncés de mission) afin d'élaborer la théorie d'un programme est considéré, dans la littérature sur l'évaluation, comme une option de rechange viable, lorsque le délai et les ressources ne favorisent pas cette élaboration a priori. Malheureusement, la littérature sur l'évaluation est dépourvue d'une méthodologie illustrant la façon de traduire la documentation source en théorie de programme explicite. L'article décrit les étapes du recours à la documentation source en vue de l'élaboration et de la vérification de la théorie de programme, en plus d'illustrer l'application de ces étapes. Il se conclut par une analyse de la faisabilité et des limites de cette méthodologie.

De l'usage des indicateurs qualitatifs en évaluation et en suivi de gestion dans l'administration publique

Auteurs :
Pages :
69-89

Avec l'avènement de la gestion par résultats dans l'administration publique, la demande pour les indicateurs s'est accrue. Si cette notion d'indicateur est traditionnellement quantitative, il reste que depuis l'engouement pour la mixité des méthodes en évaluation, il s'est, par extension, développé des indicateurs dits qualitatifs. Qu'en est-il de la situation, étant donné la confusion qui règne concernant les usages, définitions, et utilisations des indicateurs qualitatifs? Afin de favoriser un emploi plus clairement situé de ce type d'indicateur, cet article propose une classification des différents usages des indicateurs qualitatifs et soumet une démarche d'intégration de ce type d'indicateur au processus d'évaluation.

Using Web-Based Technologies to Increase Evaluation Capacity in Organizations Providing Child and Youth Mental Health Services

Auteurs :
Pages :
91-112

Étant donné le climat actuel d'incertitude écque et de restriction budgétaire, les organismes offrant des services en santé mentale aux enfants et aux adolescents doivent s'acquitter de leur tâche avec des ressources limitées. Dans ce contexte, les prestataires de services subissent une pression additionnelle, celle d'exécuter des programmes fondés sur des données probantes et de démontrer leur efficacité. Le Centre d'excellence de l'Ontario en santé mentale des enfants et des adolescents collabore avec des organismes pour satisfaire à ces exigences en renforçant les capacités d'évaluation des programmes. Bien que la formation personnelle et le mentorat constituent des formes importantes de soutien, les consultations individuelles ne s'avèrent pas toujours rentables. Dans le présent article, nous définissons le recours à la technologie interactive et à l'apprentissage assisté par ordinateur comme option de rechange et (ou) démarche complémentaire (aux consultations individuelles) de diffusion de l'information et de la formation sur l'évaluation. En plus d'analyser le processus d'élaboration de ces outils, nous faisons part de nos conclusions sur l'évaluation préliminaire de leur efficacité quant à l'amélioration du soutien à l'évaluation que nous offrons aux prestataires de services en santé mentale aux enfants et aux adolescents.

An Alternative to the Traditional Literature Review

Auteurs :
Pages :
113-119

Les informations externes sont habituellement recueillies pour, et fournies aux, parties prenantes de l'évaluation sans prendre suffisamment en considération leurs besoins précis. Par conséquent, les ressources d'évaluation sont souvent utilisées d'une manière inefficace et l'impact du processus d'évaluation est diminué. Le processus External Information Search and Formatting (EISF) est une nouvelle approche qui cherche à éviter de telles situations. Cet outil exige que la personne qui recherche de l'information travaille en collaboration avec les parties prenantes pour garantir que leurs besoins informationnels sont bien satisfaits et que les informations sont présentées d'une manière qui leur est utile.

BOOK REVIEW: Nick L. Smith & Paul R. Brandon (Éds.). (2008). Fundamental Issues in Evaluation. New-York: Guilford, 266 pages.

BOOK REVIEW: R. Bickel. (2007). Multilevel Analysis for Applied Research: It's Just Regression! New York, NY: Guilford, 355 pages.

BOOK REVIEW: D.J. Treiman. (2009). Quantitative Data Analysis: Doing Social Research to Test Ideas. San Francisco, CA: Jossey-Bass.