Volume 30, 2015 - Automne

Editor's Remarks / Un mot du rédacteur

Auteurs :

La composition du mot du rédacteur pour la  RCÉP 30(2) m’a fait énormément plaisir. Ce numéro, rempli de joyaux, couvre une grande variété de sujets brûlants et moins brûlants. Il contient des articles pour tous les goûts pouvant intéresser les lecteurs venus des diff érentes sphères de la communauté canadienne et internationale. [...]

Useful Theory of Change Models

Auteurs :
Pages :
119-142

Bien que les théories du changement soient souvent débattues dans la littérature portant sur l'évaluation et qu'il y ait un consensus sur ce qu'est, conceptuellement, la théorie du changement, il n'y a, en réalité, aucun accord au-delà de la définition générale de ce que la théorie du changement comprend, de ce qu'elle démontre ainsi que de la manière dont elle peut être représentée et utilisée. Cet article donne un aperçu de modèles de théories du changement, ainsi que leur développement, lesquels se sont montrés très utiles lors d'interventions tant simples que complexes. Les modèles sont intuitifs, fl exibles et bien définis en matière de composantes. De plus, ils sont liés à de rigoureux modèles de causalité. Les modèles fournissent un cadre structuré au développement de théories du changement utiles et à l'analyse de l'intervention qu'ils représentent.

Meeting at the Crossroads: Interactivity, Technology, and Evaluation Utilization

Auteurs :
Pages :
143-159
Cet article est une critique et une intégration de la littérature portant sur l'utilisation de l'évaluation. Il met un accent novateur sur l'utilisation de la technologie pour accroître l'utilité de l'évaluation. Les recherches sur l'utilisation de l'évaluation représentent l'un des importants dilemmes en cours dans le domaine de l'évaluation : qu'est-ce que les intervenants considèrent comme étant utile ou pertinent? Nous pensons qu'une approche constructiviste est utile pour donner un sens à la trajectoire de ce corpus, dans lequel ce qui est « utile » et ce qui évolue en « usage » sont devenus des notions plus fl exibles, lesquelles sont continuellement renégociées par les évaluateurs et les parties intéressées. Nous postulons qu'il peut être important pour les évaluateurs travaillant étroitement avec les intervenants de porter une plus grande attention à cette interactivité afin de développer une vision commune de ce qui est « utile ». Nous postulons que, bien qu'il ne s'agisse pas d'une mince tâche, les évaluateurs pourraient tirer profit d'une exploration des innombrables technologies et des outils sociaux disponibles. L'utilisation de ces outils dans des contextes locaux axés sur la participation pourrait être utile pour encourager l'interactivité, ce qui pourrait encourager l'apprentissage, la créativité et l'appropriation. Cet article cherche à mettre l'accent sur le fait que l'intégration de la technologie dans la pratique quotidienne d'évaluation, lorsque possible, pourrait, finalement, améliorer l'utilité et la pertinence de l'évaluation.

Increasing the Utility of AAMC Canadian Graduation Questionnaire Data for Program Evaluation: Subscale Development

Auteurs :
Pages :
160-176

Le Questionnaire à l'intention des diplômés canadiens de l'AFMC (QDC) est fréquemment utilisé pour évaluer les programmes de premier cycle en médecine. Cependant, l'analyse individuelle de chaque item limite son utilité. Afin de mieux soutenir l'administration et l'interprétation du QDC, cette étude a combiné les items des sections sur l'expérience clinique, les compétences de médecin et les services aux étudiants en plusieurs échelles et a examiné leur validité interne ainsi que leur fidélité. Les analyses factorielles réalisées auprès d'un échantillon de 517 étudiants de premier cycle en médecine appuient la combinaison des items en 15 échelles. Deux exemples illustrent la façon dont les échelles peuvent être utilisées pour l'évaluation longitudinale ou comparative de l'expérience des étudiants de différentes cohortes et de différents sites.

Challenges in Evaluating a Prototype Project in a Large Health Authority: Lessons Learned

Auteurs :
Pages :
177-194

Une évaluation évolutive a été entreprise pour évaluer un essai de prototype d'un nouveau modèle de prestation de soins de santé périnataux déployé dans les unités de soins de maternité de courte durée, de soins de santé publique et de soins de santé primaires de deux hôpitaux d'une grande régie de la santé. Le projet a été lancé pour combler les lacunes dans les soins à travers les contextes aigus et communautaires pour s'assurer que les expériences des femmes dans les soins de santé périnatale sont homogènes. L'objectif de l'évaluation était de soutenir le processus de prototypage en fournissant des données pour aider à éclairer les décisions tout au long du développement du prototype et documenter les décisions prises. Cet article explore les défis rencontrés durant l'évaluation, notamment le manque de familiarité du secteur de la santé avec les projets de mise à l'essai de prototypes et leur incertitude inhérente, le fossé entre le rythme rapide de tels projets et les obstacles bureaucratiques liés au travail au sein d'une grande organisation ainsi qu'un haut taux de roulement des personnes responsables de la direction du projet. La manière dont ces défis ont été gérés ainsi que les leçons apprises, lesquelles éclaireront les futures évaluations, sont aussi abordées.

Implementation and Evaluation of an Evidence-Based Treatment of Disruptive Behaviour within a Children's Mental Health Program

Auteurs :
Pages :
195-204

Cette note sur les méthodes donne une explication détaillée de la mise en oeuvre synchrone et de l'évaluation évolutive d'un nouveau modèle de soins qui intègre un traitement fondé sur des données probantes destiné aux enfants au comportement nuisible au sein d'un centre de santé mentale canadien en milieu communautaire. L'objectif général du projet était d'évaluer l'impact et la viabilité du programme intégré. Une équipe multidisciplinaire a utilisé un cadre « connaissance à la pratique » pour guider les activités de mise en oeuvre et une approche « évaluation évolutive » pour soutenir l'apprentissage et l'innovation ainsi que mesurer le succès du programme. Les leçons clefs apprises en matière du développement des capacités du personnel et de l'appréciation de l'évaluation, de l'équilibre entre les pratiques cliniques et d'évaluation ainsi que la durabilité des procédures d'évaluation sont examinées. Des suggestions en matière de travaux futurs semblables au sein d'un contexte de santé mentale pour enfants sont fournies.

Inspiring Future Program Evaluators through Innovative Curriculum for Undergraduates

Auteurs :
Pages :
205-215

La formation en évaluation de programme est difficile étant donné la nature interdisciplinaire inhérente du domaine. De plus, il n'existe pas de discipline qui se prête particulièrement à la formation de l'évaluation; il existe cependant quelques programmes officiels et plusieurs universités offrent des cours dans le domaine. Malgré ces limites, la formation au niveau postsecondaire est nécessaire pour soutenir la professionnalisation de l'évaluation de programme, surtout si l'on vise une accréditation. Le présent article présente un projet novateur comprenant à la fois un enseignement et une formation pratique en matière d'évaluation de programme pour des étudiants de premier cycle. Dans le cadre d'un cours avancé en psychologie, plusieurs cours magistraux ciblant des compétences spécifiques en évaluation de programme ainsi qu'un exercice concret furent proposés aux étudiants. Les étudiants ont été invités à élaborer un modèle de logique de programme. Ensuite, on leur a demandé d'identifier les mesures d'évaluation psychométriques basées soit sur le programme d'une organisation communautaire, soit sur un exemple théorique. À la fin du cours, les étudiants ( N = 58) ont répondu à un questionnaire afin de jauger leurs connaissances dans le domaine; on leur a aussi demandé d'évaluer leur expérience du volet en évaluation de programme. Dans l'ensemble, les élèves ont démontré qu'ils avaient acquis des compétences et des connaissances spécifiques en évaluation. De plus, le sondage a révélé que le cours avait réussi à promouvoir un intérêt pour l'évaluation de programme en tant que discipline. Cette expérience démontre qu'il est possible d'intégrer l'évaluation de programme et d'éveiller l'intérêt dans la discipline dans des cours de premier cycle en utilisant des stratégies d'engagement.

Évaluation de la qualité d'un partenariat dans le cadre de la mise en place d'une intervention intersectorielle de type école, famille et communauté

Auteurs :
Pages :
216-227

Le partenariat tend à s'imposer en tant que principe d'action au coeur des politiques publiques de différentes natures. Il peut se définir comme une association formelle entre des entités qui décident de coopérer en vue de réaliser un objectif commun. L'évaluation formative du degré d'atteinte des conditions de qualité de l'action en partenariat s'avère utile pour soutenir les partenaires dans l'amélioration de leur pratique. Cet article décrit un outil disponible pour réaliser un diagnostic collectif par les membres d'un partenariat s'investissant volontairement dans une démarche d'évaluation et présente un exemple d'application. Il conclut en exposant quelques connaissances et quelques leçons dégagées de l'expérience de l'évaluation d'un partenariat développé relativement à une intervention intersectorielle globale et intégrée de type école, famille et communauté.

Book Reviews: Trevisan, M. S., & Walser, T. M. (2015) Evaluability assessment: Improving evaluation quality and use. Thousand Oaks, CA: Sage. 181 pages. ISBN 978-1452282442.

Auteurs :
Pages :
228-230

Book Reviews: Trevisan, M. S., & Walser, T. M. (2015) Evaluability assessment: Improving evaluation quality and use. Thousand Oaks, CA: Sage. 181 pages. ISBN 978-1452282442.

Book Reviews: Donaldson, S. L. (Ed.). (2013). The future of evaluation in society: A tribute to Michael Scriven. Charlotte, NC: Information Publishing. ISBN 978-1-62396-451-1.

Auteurs :
Pages :
231-233

Book Reviews: Donaldson, S. L. (Ed.). (2013). The future of evaluation in society: A tribute to Michael Scriven. Charlotte, NC: Information Publishing. ISBN 978-1-62396-451-1.