Eric Dionne

Spring

Un outil à visée pédagogique pour discuter de méthodologie

Auteurs:
Pages:
90-113

Dans le cadre de cet article, nous abordons l’importance de la communication de la démarche d’évaluation (processus, méthodologie, résultats et limites de l’évaluation), et ce, dans le but de favoriser l’utilisation des résultats et la mise en oeuvre des recommandations. Nous proposons un outil méta-évaluatif formatif à visée principalement pédagogique, centré sur les aspects méthodologiques du processus évaluatif afin d’accompagner les évaluateurs, et plus particulièrement les évaluateurs novices, dans la planification, la mise en oeuvre et la communication rigoureuses de la méthodologie. Nous portons particulièrement notre attention sur la communication de la démarche d’évaluation de programme par l’intermédiaire de rapports d’évaluation (techniques et finaux) qui sont généralement le véhicule offrant le maximum d’informations concernant à la fois les résultats et le processus évaluatif. Bien que nous soyons conscients que d’autres moyens de communication existent (ex. : articles publiés dans des revues scientifiques), leur format ne permet pas toujours de fournir l’ensemble des informations inhérentes autant aux résultats qu’à la démarche mise de l’avant par le(s) évaluateur(s) puisqu’on y présente généralement les faits saillants sans s’attarder aux aspects méthodologiques. Puisque notre propos touche spécifiquement aux considérations méthodologiques, il nous apparaissait plus pertinent de nous appuyer sur les informations contenues dans les rapports. Ce choix n’est pas anodin, puisque la qualité d’une évaluation repose, entre autres, sur une méthodologie avérée permettant de fournir les données probantes nécessaires à l’exercice du jugement. Aussi, nous discuterons du rôle de la méta-évaluation (MEV) dans l’enrichissement de la pratique des évaluateurs et la promotion de la qualité d’une évaluation de programme; et nous présenterons un outil méta-évaluatif que nous avons conçu afin de favoriser l’opérationnalisation de méthodologies évaluatives de qualité et la mise en oeuvre de pratiques évaluatives efficaces.

Fall

L'analyse de données secondaires dans le cadre d'évaluation de programme: regard théorique et expérientiel

Auteurs:
Pages:
253-261

L’analyse de données secondaires (ADS) est une méthode permettant d’avoir accès à des données potentiellement utiles pour mener à bien des opérations d’évaluation de programme. Les moyens technologiques actuels permettent de constituer et d’interroger de plus en plus facilement des bases de données importantes. Malgré cela, on note que l’ADS est encore peu documentée d’un point de vue théorique et l’on retrouve peu de propositions pragmatiques pour mener avec succès une ADS. Cet article vise, dans un premier temps, à présenter les principaux fondements théoriques de l’ADS et, dans un second temps, à proposer des recommandations pour faciliter la réalisation d’une ADS.

Spring

COMPTE-RENDU: DeMars, C. (2010). Item Response Theory. Oxford, UK: Oxford University Press. 137 pages.

Auteurs:
Pages:
126-128

Spring

(Compte-rendu) Program Evaluation and Performance Measurement: An Introduction to Practice (2 nd ed.), J. C. McDavid, I. Huse, and L. R. L. Hawthorn

Auteurs:
Pages:
99-102

(Compte-rendu) Program Evaluation and Performance Measurement: An Introduction to Practice (2 nd ed.), J. C. McDavid, I. Huse, and L. R. L. Hawthorn

Spring

COMPTES RENDUS DE LIVRES: Valéry Ridde & Christian Dagenais (Éds.). (2009). Approches et pratiques en évaluation de programme

Auteurs:
Pages:
182-184