L’ONGI MERCY CORPS recrute pour ces 03 postes (27 Septembre 2024)

Informations sur l'emploi

Titre du Poste : Consultant en évaluation de l'apprentissage (3)

Lieu du Travail : Nigeria

Description de l'emploi

Mercy Corps est une organisation mondiale de premier plan, animée par la conviction qu’un monde meilleur est possible. Lors de catastrophes et de difficultés dans plus de 40 pays à travers le monde, nous collaborons pour mettre en œuvre des solutions audacieuses, aidant les gens à triompher de l’adversité et à bâtir des communautés plus fortes de l’intérieur, aujourd’hui et pour l’avenir.

Intitulé du poste : Consultant en évaluation de l’apprentissage
Lieux : Abuja (FCT), Kaduna et Plateau
Type d’emploi : Contrat

Contexte du programme

  • Le projet Action pour la paix pour une réponse rapide et transformatrice au Nigéria (PARTNER) est une activité de 5 ans financée par l’USAID et mise en œuvre dans le centre-nord et le nord-ouest du Nigéria par Mercy Corps et d’autres partenaires du consortium, notamment le Réseau ouest-africain pour la consolidation de la paix (WANEP), l’Agence de consolidation de la paix du Plateau (PPBA), la Commission pour la paix de l’État de Kaduna (KSPC), l’Institut pour la paix et la résolution des conflits (IPCR), avec le soutien de Stopping at Success (SAS +). Le programme est mis en œuvre du 1er octobre 2021 au 30 septembre 2026.
  • L’objectif de PARTNER est d’aider les acteurs de la communauté, du gouvernement, de la sécurité et de la société civile nigérians à collaborer pour accroître l’efficacité, l’appropriation locale et la durabilité d’un système inclusif d’alerte précoce et de réponse précoce (EWER) pour une meilleure prévention de la violence, tout en assurant une transition durable du programme géré par Mercy Corps vers WANEP.
  • Le programme est mis en œuvre en utilisant un ciblage géographique à plusieurs niveaux, avec un engagement profond dans les États de niveau 1 de Kaduna et de l’État du Plateau, et une croissance et une expansion dans les États de niveau 2 des États de Benue, Kano, Katsina et Nasarawa, en capitalisant sur les gains réalisés grâce au programme d’initiatives communautaires pour la promotion de la paix (CIPP) dirigé par Mercy Corps et financé par l’USAID, avec un renforcement prévu du système de bas en haut dans les États de niveau 3 des États de Kogi, Niger et Zamfara.
  • Mercy Corps devrait fournir une sous-subvention à WANEP, qui pourrait devenir éligible à une subvention directe (également appelée « subvention de transition ») de l’USAID. En outre, Mercy Corps devrait développer les capacités de WANEP de manière à ce que l’organisation puisse être éligible à recevoir une subvention directe de l’USAID ou d’autres donateurs à l’avenir, y compris en leur permettant potentiellement de faire la transition vers la réception d’une subvention directe de l’USAID pour l’activité PARTNER.
  • Selon les termes de l’accord de coopération, Mercy Corps devait diriger le programme en tant que mentor au cours des années 1 et 2, en étroite collaboration avec WANEP, qui assumera la direction à partir de la troisième année. WANEP coordonnera ses activités avec des partenaires clés, notamment l’Institut pour la paix et la résolution des conflits (IPCR), l’Agence de consolidation de la paix du Plateau (PPBA) et la Commission pour la paix de l’État de Kaduna (KSPC), dans la mise en œuvre des activités PARTNER.
  • L’approche de PARTNER repose sur la théorie selon laquelle SI les acteurs locaux renforcent les processus inclusifs de résolution des conflits et de cohésion sociale et augmentent les compétences et la coopération en matière de surveillance, d’analyse et de signalement des conflits en temps opportun, ET SI un système national EWER robuste unifie les systèmes disparates, GRÂCE à une capacité et un engagement accrus de l’État et de la société civile en matière de prévention de la violence, ALORS il y aura des réponses plus proactives et plus rapides à l’alerte précoce, réduisant la violence et augmentant la paix à long terme.

Objectif de l’évaluation des apprentissages

  • L’activité PARTNER étant en transition d’ici septembre 2024, Mercy Corps, le principal exécutant de cette activité, commandera une évaluation de l’apprentissage axée sur l’évaluation du mérite et de la valeur des résultats obtenus par le programme à ce jour, les résultats étant définis comme des résultats prévus ou non, influencés par les activités du programme grâce à l’investissement de l’USAID.

Plus précisément, l’évaluation des apprentissages vise à :

  • Pour faire le point sur les principales connaissances acquises et les apprentissages tirés de la mise en œuvre des programmes, l’évaluation des apprentissages est prévue du 1er au 30 septembre 2024 pour atteindre les trois objectifs suivants
  • Évaluer les résultats de l’activité PARTNER réalisés à ce jour afin d’établir les facteurs favorables et défavorables qui ont ancré les résultats des activités à ce jour. L’évaluation de l’apprentissage est conçue pour « récolter » les résultats de PARTNER et évaluer les réalisations à ce jour afin de déterminer dans quelle mesure ils vérifieraient les progrès réalisés vers les objectifs stratégiques du programme dans le plan opérationnel (de travail) et le cadre logique
  • Évaluer le potentiel du programme PARTNER à contribuer davantage aux objectifs d’alerte précoce et de réponse rapide, de consolidation de la paix et de résilience des communautés touchées par les conflits et vulnérables dans le centre-nord et le nord-ouest du Nigéria (à travers MC et ses partenaires de mise en œuvre, le gouvernement de l’État, les partenaires de mise en œuvre, les donateurs et les participants au projet), et fournir des recommandations stratégiques pour une conception et des modalités de mise en œuvre idéales
  • Contribuer à un consortium plus large et à l’apprentissage organisationnel en matière de mesure et de suivi des performances en matière d’alerte précoce et de réponse rapide dans le nord-ouest et le centre-nord du Nigéria. Plus précisément,
    • Fournir des informations et des justifications sur les performances à ce jour et des recommandations pour l’évaluation finale du programme.
    • Profil des principaux succès du programme et des informations permettant d’identifier les domaines de recherche potentiels à explorer compte tenu des futurs programmes d’alerte précoce et de réponse précoce dans le nord-ouest et le centre-nord du Nigéria.
  • Les conclusions de l’évaluation des apprentissages seront liées à l’évaluation finale qui devrait se dérouler en même temps que l’évaluation finale qui débutera en septembre 2024, en fournissant des enseignements spécifiques au contexte et une compréhension approfondie des modalités et des processus de mise en œuvre du programme et de leurs effets sur l’activité PARTNER. Le rapport validera et fournira des leçons spécifiques au contexte qui complèteront l’évaluation finale et renforceront davantage la méthodologie et les questions d’évaluation pour l’évaluation finale.
  • Compte tenu des performances globales et des réalisations du programme à ce jour, nous espérons que l’évaluation de l’apprentissage explorera des facteurs contextuels plus approfondis, démontrera l’apprentissage du programme en vue d’une mise en œuvre adaptative des activités et des principes du programme qui peuvent être appliqués, ou affinés, pour éclairer l’action collective au carrefour des programmes humanitaires, de paix et de développement qui renforcent la résilience dans les contextes de crise prolongée.
  • Pour ce faire, un examen des rapports et documents du programme et de l’évaluation, du plan opérationnel/de la stratégie de l’État et des documents gouvernementaux sera effectué afin de mieux comprendre les approches appliquées lors de la mise en œuvre du programme.

Principaux utilisateurs et utilisations prévus des résultats d’apprentissage :
Les principaux utilisateurs et utilisations prévus des résultats d’apprentissage sont résumés ci-dessous :

  • L’USAID est le principal bailleur de fonds de l’activité PARTNER. Nous espérons que les enseignements tirés de cette expérience serviront à décider si et comment soutenir davantage des initiatives similaires d’alerte précoce et de réponse rapide dans le nord-ouest et le centre-nord du Nigéria
  • Mercy Corps Nigeria et les partenaires du consortium – Nous espérons que les résultats de l’évaluation seront pertinents pour guider l’examen des plans de réalisation et de durabilité du programme, affiner les documents clés du programme, y compris les cadres logiques du programme, les indicateurs de performance et les outils, et développer une stratégie de financement et aider à développer des relations avec les bailleurs de fonds.
  • Partenaires de mise en œuvre et organisations internationales à but non lucratif plus larges – pour les partenaires de mise en œuvre et les organisations à but non lucratif mettant en œuvre de tels programmes dans le nord-ouest et le centre-nord du Nigéria, nous espérons que les résultats seront utiles pour évaluer leur rôle dans la conception et la mise en œuvre de programmes similaires (co-création)
  • En outre, nous espérons que les enseignements tirés seront non seulement essentiels pour atteindre l’objectif susmentionné, mais serviront également d’expérience d’apprentissage, où le processus de génération de réponses aux questions d’apprentissage proposées fournira à Mercy Corps, à l’équipe de mise en œuvre et aux membres du consortium une nouvelle compréhension des réalisations du programme et éclairera une évaluation efficace de fin de programme pour PARTNER.

Méthode et conception d’évaluation de l’apprentissage proposées :

  • Bien que la méthodologie proposée ne soit pas exhaustive, l’évaluation de l’apprentissage propose une méthodologie qualitative de récolte des résultats adaptant les principes de cartographie des résultats des évaluations à cette tâche spécifique. Cette méthodologie devrait offrir une opportunité non restrictive de récolter les résultats, de rassembler les réussites et de fournir des informations contextuelles. En consultation avec MC et l’équipe de mise en œuvre, l’équipe d’évaluation sera désireuse d’ajouter et/ou d’affiner la méthodologie proposée pour cette évaluation afin de répondre efficacement aux questions d’apprentissage proposées.
  • Au minimum, l’équipe d’évaluation examinera les documents du programme, mènera des entretiens approfondis avec l’équipe de mise en œuvre du programme et animera des groupes de discussion pertinents avec les participants au programme afin de comprendre les réalisations et les résultats du programme à ce jour qui peuvent être explorés plus avant pour générer les connaissances et les apprentissages nécessaires et leur utilisation potentielle pour les activités et stratégies de programmation d’alerte et de réponse précoces, de cohésion sociale et de consolidation de la paix. Les participants à ces groupes de discussion proviendront des trois objectifs de l’activité, comme indiqué ci-dessous :
    • Groupes de discussion avec différents groupes cibles soutenus par différentes interventions – hommes, femmes, jeunes hommes et femmes et toutes les LGA couvertes (au moins 8)
    • KII avec différents groupes cibles soutenus par différentes interventions (au moins 6)
    • KII avec les parties prenantes gouvernementales (au moins 5)
    • KII avec un personnel PARTNER sélectionné (au moins 3 employés)
  • La base d’échantillonnage finale sera élaborée lors du démarrage du projet en collaboration avec les consultants.

Matrice d’évaluation des parties prenantes

Acteur du projet PARTNER Dimension d’évaluation Question d’évaluation Méthodologie de collecte de données
Personnel du programme (CoP, DCoP et gestionnaire de programme) Conception et pertinence Le programme est-il adapté au contexte dans lequel il est mis en œuvre ? La manière dont le programme est structuré lui permet-elle d’atteindre les objectifs/résultats ? Entretiens avec des informateurs clés
Personnel du programme (conseillers EWER, agents de projet) Efficacité Dans quelle mesure la mise en œuvre du programme est-elle rentable ? Les mêmes résultats auraient-ils pu être obtenus avec moins de ressources ? Les modalités d’exécution et de mise en œuvre sont-elles appropriées ? Les accords de prise en charge des coûts avec les partenaires de mise en œuvre du programme sont-ils efficaces ? Entretiens avec des informateurs clés
Participants au programme (participants qui bénéficient de formations et de renforcement des capacités) Efficacité Le programme a-t-il entraîné un changement particulier dans la vie des participants ou dans la vie des autres, que ce soit en termes de conditions physiques ou sociales, de cohésion sociale, de résultats en matière d’engagement des jeunes, de gestion des conflits et de consolidation de la paix, ou d’autres indicateurs de réussite ? Quelle a été l’importance de ce changement et comment s’est-il produit ? Quels sont les éléments et composantes du programme qui ont été responsables des changements mentionnés ci-dessus ? Enquêtes + discussions de groupe
Participants au projet Durabilité Les changements causés par le programme se poursuivront-ils au-delà de la durée de vie du programme ? Pourquoi… ? Le programme a-t-il permis d’acquérir des connaissances et des idées qui peuvent aider l’intervention à assurer un impact durable pour les participants à grande échelle ? Groupes de discussion sur l’enquête
  • La compréhension des résultats du programme (en tant que changement de comportement observable des acteurs sociaux auquel les programmes ont contribué) devrait conduire à la formulation de questions d’apprentissage qui serviront de point de départ pour décortiquer plus en détail les résultats du programme à travers les entretiens structurés proposés (décomposition des KII et des FGD ci-dessus) qui seront menés avec tous les participants concernés du programme, y compris la direction et le personnel pour consolider l’apprentissage. La méthodologie proposée doit être participative dans son approche, soucieuse d’engager la participation de ceux qui ont le plus de connaissances sur les changements observables qui ont eu lieu grâce à la contribution de la mise en œuvre des activités du programme. La méthodologie proposée doit permettre de justifier davantage les apprentissages documentés en fournissant des informations qui peuvent vérifier l’apprentissage et les idées pour renforcer la crédibilité et approfondir la compréhension.
  • Les activités ont été mises en œuvre en utilisant la conception RCT dans le but de tester l’impact des systèmes EWER de PARTNER dans le cadre des objectifs du programme 1 et 2, ainsi que l’impact supplémentaire de l’objectif 3. Le programme a poursuivi deux thèmes d’apprentissage : 1) quand, comment et où les acteurs concernés répondent efficacement aux incidents (ou non) ; et 2) si les communautés participant à PARTNER subissent une violence réduite par rapport aux sites témoins (et si oui, dans quelle mesure). L’ECR s’est concentré sur le deuxième thème, afin d’évaluer si l’EWER aide à prévenir, limiter et/ou mieux mobiliser les réponses à la violence. Nous souhaitons également comprendre si les initiatives de cohésion sociale contribuent également à réduire la violence, soit en améliorant ou en amplifiant l’efficacité de l’EWER, soit en s’attaquant aux facteurs structurels de conflit.
  • L’une des principales hypothèses sur lesquelles reposait l’ECR était que des informations plus fiables sur la violence et les risques liés aux conflits, si elles étaient fournies en temps utile aux autorités compétentes qui disposent des outils et de la volonté nécessaires pour y répondre, permettraient aux communautés de mettre fin, de prévenir et/ou d’atténuer les flambées de violence (ou leur escalade). Une autre hypothèse, conforme à la théorie du changement du programme, est que le renforcement de la cohésion sociale améliorerait les capacités et l’engagement des communautés en matière de prévention de la violence, et jetterait les bases d’une paix à long terme.

Ces hypothèses sont basées sur certaines hypothèses critiques, notamment

  • Les acteurs locaux et communautaires sont disposés à signaler les conflits et les menaces de conflit par le biais de mécanismes de suivi établis et ont confiance en ceux qui les administrent.
  • Les événements violents dans la communauté sont précédés d’au moins quelques indices détectables par les acteurs locaux et communautaires.
  • Les personnes qui travaillent pour les structures de conflit sont les personnes appropriées, et les communautés connaissent et comprennent le rôle et l’existence des structures de paix et des mécanismes de signalement.
  • Les personnes et les organismes chargés de répondre aux avertissements (par exemple, la police et les forces de sécurité) sont capables et disposés à réagir.
  • Il existe une infrastructure locale disponible pour soutenir les campagnes d’information publique, les médias sociaux et les canaux médiatiques traditionnels restent accessibles à tous les membres de la communauté, y compris les jeunes, les femmes et les groupes vulnérables, et la participation ne met pas les membres de la communauté en danger.

Justification de l’ECR :

  • Des outils de plus en plus sophistiqués ont été développés pour prédire les violences et les conflits, et les systèmes d’alerte précoce et de réponse rapide (EWER) visant à prévenir la violence et les atrocités de masse ont proliféré ces dernières années. La forme et la fonction des systèmes EWER varient selon le contexte, mais il existe peu de preuves rigoureuses concernant l’impact de ces interventions : en particulier, si elles conduisent réellement à une réduction significative de la violence ou d’autres risques de conflit. Étant donné la prévalence de ce type d’interventions, nous avons besoin de preuves rigoureuses concernant leur efficacité afin de pouvoir reproduire et adapter ces systèmes, et justifier des investissements continus dans ces systèmes. La plupart des études sur les systèmes EWER sont basées sur une analyse qualitative de cas et de données d’observation, qui peinent à démontrer des relations de cause à effet.
  • Certaines évaluations ont montré que ces systèmes peuvent être efficaces pour générer des alertes précoces, mais peuvent être moins efficaces pour générer les types de réponses nécessaires pour réellement arrêter ou prévenir la violence. Cet ECR comble donc une lacune majeure dans la littérature sur la violence et la prévention des conflits. Bien que Mercy Corps ait utilisé des interventions EWER dans divers programmes, il s’agirait du premier test explicite de l’approche. L’étude approfondira également notre compréhension de l’impact des initiatives visant à renforcer la cohésion sociale en utilisant des données d’analyse comparative issues du traitement et du contrôle. Plus précisément, l’ECR vérifiera si ces initiatives sont nécessaires pour un système EWER efficace – ou du moins contribuent à améliorer la qualité de celui-ci – ou si elles agissent comme un multiplicateur de paix à long terme en plus des interventions destinées à arrêter ou à prévenir la violence (comme l’EWER).

Les résultats et les effets d’intérêt comprennent :
Les indicateurs suivants intéressent l’activité PARTNER :

  • Nombre d’alertes/incidents signalés via le système EWER ;
  • % de membres de la communauté qui connaissent le système EWER ;
  • % de membres de la communauté qui ont entendu une alerte EWER à un moment donné ;
  • Exactitude des avertissements ;
  • Prévalence des rumeurs/faux rapports sur la violence ;
  • Spécificité et rapidité des alertes (par exemple, délai moyen entre le signalement et la réponse) ;
  • % de membres de la communauté qui estiment que les acteurs du gouvernement, de la sécurité et de la justice répondent aux demandes de prévention de la violence et/ou de résolution efficace des situations violentes ;
  • % des groupes de signalement locaux, des membres de l’EWRG et des membres du cluster EWER qui trouvent la plupart des informations dont ils ont besoin sur un incident particulier via la plateforme ;
  • % de membres des groupes de signalement qui se sentent confiants dans leur capacité à identifier et à signaler les signes avant-coureurs ;
  • % de personnes déclarant avoir amélioré leurs connaissances ou leurs compétences en matière de résolution de conflits ;
  • Nombre de litiges résolus ;
  • Fréquence et gravité de la violence ;
  • Rapidité et efficacité des réponses des forces de sécurité (par exemple, rapidité avec laquelle la police intervient en cas de violence/tension/avertissement)
  • % des membres de la communauté qui estiment que leur communauté est paisible, sûre et sécurisée ;
  • % de membres de la communauté qui croient que les personnes responsables de la gestion des conflits dans leur région sont efficaces pour résoudre les conflits dans leur communauté ;
  • Attitudes à l’égard de la paix et du recours à la violence ;
  • Perceptions du gouvernement et des forces de sécurité (par exemple, confiance, volonté de coopérer, etc.) ;
  • Cohésion sociale entre communautés en conflit.

Facteurs affectant la réussite de la mise en œuvre et l’obtention des résultats :

  • La mise en œuvre du programme et l’obtention des résultats se déroulent-elles bien et conformément au plan ? Existe-t-il des obstacles/goulots d’étranglement/problèmes en suspens au niveau du programme, du partenaire ou du donateur qui limitent la mise en œuvre réussie et l’obtention des résultats du programme ?

Facteurs externes :

  • Dans quelle mesure le contexte plus large et l’environnement politique restent-ils propices à l’obtention des résultats escomptés, y compris l’impact des politiques et la réplication des enseignements tirés de la mise en œuvre des programmes ?

Plus précisément, à cet égard, dans quelle mesure les hypothèses critiques (se référer au cadre logique) dont dépend le succès du programme sont-elles toujours valables ?

  • Existe-t-il d’autres facteurs externes au programme qui influent sur la réussite de la mise en œuvre et l’obtention des résultats ?
  • Dans quelle mesure les institutions locales de paix impliquent-elles/incluent-elles tous les groupes dans les processus visant à renforcer la paix et la résilience ?
  • Comment l’inclusion des parties prenantes concernées dans les institutions de paix locales renforce-t-elle la résilience et favorise-t-elle un programme collectif de consolidation de la paix ?
  • Dans quelle mesure les agences internationales collaborent-elles avec les gouvernements, les agences de sécurité et les OSC pour promouvoir la paix et la bonne gouvernance ?

Facteurs liés au programme :
Conception du programme (pertinence et qualité) :
Tenez compte des éléments suivants :

  • Le concept/la logique et la conception du programme sont-ils optimaux pour atteindre les objectifs/résultats souhaités du projet ?
  • Lors de l’évaluation de la conception, tenez compte, entre autres, des éléments suivants :
    • Les questions de genre pertinentes ont-elles été traitées de manière adéquate dans la conception du programme ?
    • L’orientation institutionnelle du programme sur le contexte de mise en œuvre était-elle appropriée ? Le contexte identifié était-il le choix d’unité le plus stratégique et le plus viable pour une mise en œuvre efficace des activités du programme ? Le programme est-il suffisamment centré sur les autres niveaux institutionnels au vu de ses objectifs ?
  • Le processus de préparation du programme (formulation, lancement) et ses produits (cadre logique, plan d’opérations du projet, plans de travail annuels) ont-ils été conçus de manière adéquate pour garantir une mise en œuvre et une mesure de qualité ?
  • Le document du programme comprenait-il des directives adéquates pour la mise en œuvre du programme ?
  • Les objectifs du programme restent-ils valables et pertinents ? Une fois atteints, généreront-ils une valeur ajoutée stratégique ? La conception et la documentation du programme doivent-elles être revues et mises à jour ?

Gestion de projet :

  • Appui technique : L’assistance technique et l’appui de PARTNER et de ses partenaires sont-ils appropriés, adéquats et opportuns pour aider le programme à atteindre ses objectifs ?
  • Existe-t-il d’autres facteurs liés au programme qui influent sur la réussite de la mise en œuvre et l’obtention des résultats ?

Positionnement stratégique et partenariats du partenaire
L’activité PARTENAIRE et son engagement dans l’État et le pays sont-ils positionnés de manière optimale stratégiquement, par rapport à :

  • Les efforts des donateurs/gouvernementaux sur le même secteur dans les États de niveau 1 et 2 ?
  • Mettre en œuvre les priorités nationales, telles que reflétées dans les stratégies nationales de développement ?
  • Quelles sont les priorités des donateurs et comment tirer le meilleur parti de leurs avantages comparatifs ?
  • PARTNER exploite-t-il au maximum ses partenariats réels/potentiels ?
  • Quel niveau de valeur ajoutée et de conséquence peut être attaché à l’intervention du programme dans sa mise en œuvre ?

Critères d’évaluation de l’apprentissage :

  • Les questions d’apprentissage élaborées pour cette évaluation seront également éclairées par la conception du programme, la théorie du changement PARTNER et le cadre logique. En plus de générer des apprentissages, l’activité PARTNER cherchera à comprendre les éléments suivants :

Pertinence et conception :

  • Le programme est-il adapté au contexte dans lequel il est mis en œuvre ? La manière dont le programme est structuré lui permet-elle d’atteindre les objectifs/résultats ?
  • Dans quelle mesure le programme a-t-il tenu compte des différents besoins des personnes en fonction de leur âge, de leur sexe, de leur appartenance ethnique et de leurs autres identités sociales ? Comment s’est-il adapté pour répondre à ces différents besoins ?
  • Comment le programme a-t-il veillé à ce que les voix des participants soient entendues et reflétées dans les activités du programme et, plus largement, dans l’interaction de PARTNER avec les organismes gouvernementaux et les autres parties prenantes ?
  • Quels aspects de la conception devraient être modifiés pour améliorer les performances du programme (en termes de modalités de mise en œuvre et de gestion) ?

Efficacité:

  • Dans quelle mesure la mise en œuvre du programme est-elle rentable ?
  • Les mêmes résultats auraient-ils pu être obtenus avec moins de ressources ?
  • Comment le programme tire-t-il parti des connaissances acquises et des nouvelles connaissances acquises au cours de la mise en œuvre ? Comment ces connaissances sont-elles partagées et contextualisées pour une mise en œuvre efficace du projet ?
  • Dans quelle mesure les modalités d’exécution et de mise en œuvre sont-elles appropriées ?
  • Dans quelle mesure le soutien fourni par les équipes de gestion de programme et PaQ est-il adéquat ?
  • Dans quelle mesure les accords de soutien aux coûts conclus avec les partenaires de mise en œuvre du programme sont-ils efficaces ?
  • Les parties prenantes, en particulier les participants directs, participent-elles à la gestion du programme ? Si oui, quelle est la nature et l’étendue de leur participation, notamment en fonction du sexe ?

Efficacité:

  • Est-ce que PARTNER, en tant que consortium, met en œuvre le programme comme prévu et si non, pourquoi ?
  • Le programme a-t-il entraîné un changement particulier dans la vie des participants ou dans celle des autres, que ce soit en termes de conditions physiques ou sociales, de cohésion sociale, d’engagement des jeunes, de résultats en matière de gestion des conflits et de consolidation de la paix, ou d’autres indicateurs de réussite ? Quelle a été l’importance de ce changement et comment s’est-il produit ?
  • Quels composants et éléments du programme ont été responsables du changement indiqué ci-dessus ?
  • Dans quelle mesure les activités et les résultats sont-ils utiles aux besoins des participants directs et finaux ? Existe-t-il une différence significative entre les sexes dans l’utilité des résultats pour les participants directs et finaux ?
  • Les extrants contribuent-ils à la réalisation des objectifs immédiats du programme ?
  • Quels facteurs influencent la mise en œuvre du programme ?

Impact:

  • Y a-t-il des signes avant-coureurs d’un succès potentiel ? Quels changements observables se manifestent actuellement… ?
  • Quels sont les effets inattendus du programme et comment ont-ils influencé les résultats ?
  • Comment le programme a-t-il contribué au développement de la capacité des participants directs à réagir et à s’adapter aux chocs et aux stress ?
  • Existe-t-il des signes d’un impact probable du programme au-delà des participants/bénéficiaires directs et ultimes ?

Durabilité:

  • Les changements causés par le programme se poursuivront-ils au-delà de la durée de vie du programme ? Pourquoi… ?
  • Le programme a-t-il permis d’acquérir des connaissances et des idées qui peuvent aider l’intervention à garantir un impact durable pour les participants à grande échelle ?
  • Comment le programme a-t-il travaillé avec les partenaires pour accroître leurs capacités de manière durable ?
  • En plus d’évaluer les questions ci-dessus, l’équipe d’évaluation analysera tout autre problème pertinent qui doit être traité ou qui peut ou devrait influencer l’orientation future du programme et l’engagement des PARTENAIRES dans les États et le pays.

Transcription:

  • Les données qualitatives recueillies sur le terrain seront transcrites par les enquêteurs responsables du processus de collecte des données. Ce processus sera réalisé sous la direction du consultant. Chaque équipe sera chargée de transcrire les données à l’aide du guide du cadre analytique et de l’outil de transcription qui seront partagés.

Stratégie de mise en œuvre et plan de travail :

  • Mercy Corps gérera le processus d’évaluation de l’apprentissage en coordination avec l’équipe d’évaluation (consultant externe) pour fournir un soutien technique dans le perfectionnement de la méthodologie d’évaluation et dans le cas des outils de collecte de données, des intrants et de tous les documents d’appui pour guider la conception et la finalisation de la méthodologie d’évaluation et des instruments de collecte de données. L’évaluation étant en grande partie qualitative, l’engagement d’enquêteurs pour cette mission n’est pas prévu. Cependant, Mercy Corps dispose d’un pool d’enquêteurs prêts à être engagés en cas de besoin.
  • L’évaluation de l’apprentissage devrait commencer et être terminée d’ici le xxx septembre 2024. Vous trouverez ci-dessous un aperçu des activités, de leur durée et des intervenants responsables du processus d’évaluation de l’apprentissage. La durée/le niveau d’effort inclus est provisoire et sera finalisé une fois que l’équipe d’évaluation aura été constituée.
Durée Activité Partie prenante
1 jour Entrée et démarrage – Examinez le cahier des charges de l’évaluation de l’apprentissage avec les évaluateurs externes pour clarifier le calendrier, les objectifs de la mission et le budget disponible. Convenez des outils d’évaluation, des calendriers et du délai de livraison des activités de collecte de données. PARTENAIRE COP, PARTENAIRE MEL Advisor, Country MEL Manager, PaQ Director, PaQ Manager et Evaluateur/Consultant externe
2 jours Élaborer et partager un rapport initial avec une conception d’évaluation détaillée pour recueillir les commentaires et les contributions des équipes de mise en œuvre du PARTENAIRE Évaluateur/Consultant externe
2 jours Fournir des commentaires sur le rapport initial et les outils d’évaluation pour que l’évaluateur externe les intègre PARTENAIRE COP, PARTENAIRE MEL Advisor, Country MEL Manager, PaQ Director, PaQ Manager et Evaluateur/Consultant externe
2 jours Fournir les versions finales du rapport initial et des outils d’évaluation. Traduire les outils d’évaluation selon les besoins Le consultant/l’entreprise soumet la version complète du PLAN D’ANALYSE DES DONNÉES (DAP) au POC de Mercy Corps (une version complète comprend des tableaux fictifs, des espaces réservés pour les graphiques/graphiques/images, une description de la manière dont la triangulation/synthèse des données sera effectuée, comment les données qualitatives seront analysées, etc. Le POC de Mercy Corps distribue la version complète du DAP à TOUS les examinateurs de Mercy Corps (et aux examinateurs des donateurs si nécessaire) et consolide les commentaires en les renvoyant au consultant/entreprise Le consultant/l’entreprise soumet le DAP FINAL au POC de Mercy Corps après avoir traité tous les commentaires consolidés Évaluateur/consultant externe PARTNER COP, PARTNER MEL Advisor Country MEL Manager, PaQ Director, PaQ Manager et évaluateur/consultant externe Évaluateur/consultant externe
10 jours Initier et mener une collecte de données complète avec les équipes de programme et les participants au programme Évaluateur/Consultant externe
2 jours Encoder et analyser les données collectées Évaluateur/Consultant externe
2 jours Préparer et partager le projet de rapport d’évaluation Évaluateur/Consultant externe
2 jours Fournir des commentaires détaillés sur le projet de rapport (une série de révisions) PARTENAIRE COP, PARTENAIRE MEL Advisor, Country MEL Manager, PaQ Director, PaQ Manager et Evaluateur/Consultant externe
1 jour Organisez un atelier virtuel de rétroaction/validation avec le personnel clé de Mercy Corps pour présenter les résultats examinés et rassembler les commentaires finaux Évaluateur/consultant externe + PARTNER COP, PARTNER MEL Advisor, Country MEL Manager, PaQ Director, PaQ Manager et évaluateur/consultant externe
4 jours Finaliser le rapport, produire une présentation des résultats et mettre à jour les documents clés du programme et les partager avec MC (pas plus de 30 pages – tous les autres ajouts peuvent être inclus sous forme d’annexes) Les ensembles de données, les livres de codes, la syntaxe, etc. sont livrés au POC de Mercy Corps Évaluateur externe
Nombre total de jours 28 jours

Structure et contenu du rapport d’évaluation proposé
Conformément aux directives et aux modèles de marque de Mercy Corps, les éléments suivants sont proposés pour les documents livrables de l’évaluation.

  • Page de couverture, liste des acronymes
  • Table des matières
  • Résumé : Cette section doit être un document autonome clair et concis qui donne aux lecteurs le contenu essentiel du rapport d’évaluation, y compris un résumé des principales contraintes, opportunités et recommandations.
  • Méthodologie : Cette section doit être suffisamment détaillée pour clarifier la méthodologie d’évaluation en fonction de l’exactitude du rapport et de ses conclusions. Cette section doit aborder les contraintes et les limites de la méthodologie, ainsi que les implications de ces limites pour les conclusions, notamment si et pourquoi certaines conclusions de l’évaluation ne sont pas concluantes.
  • Résultats : Cette section doit fournir des résultats d’évaluation clairs. Il convient de faire référence à toute information d’évaluation ainsi qu’à la littérature existante, etc.
  • Synthèse, recommandations et enseignements tirés : c’est l’espace permettant à l’équipe d’évaluation de réfléchir aux données et aux résultats et de faire des recommandations concrètes pour la conception et les améliorations du programme actuel ou futur, et de commenter généralement les données et les résultats.
  • Conflits d’intérêts : Divulguer tout conflit d’intérêts ou toute apparence de conflit d’intérêts, y compris l’intérêt du personnel du programme à ce que le programme soit réussi.
  • Annexes : Celles-ci doivent inclure un dossier complet des instruments de collecte de données en anglais et des traductions en haoussa ; une liste des groupes de parties prenantes avec le nombre et le type d’interactions ; un cahier des charges, des protocoles qualitatifs développés et utilisés, tous les ensembles de données (ceux-ci peuvent être fournis sous format électronique), toutes les photos requises, les profils des participants ou toute autre documentation spéciale nécessaire.
  • L’évaluateur (cabinet de conseil) doit fournir un rapport d’évaluation final complet et de qualité professionnelle. Le rapport d’évaluation doit être présenté sous forme électronique (PDF et Word – soumis par voie électronique) accompagné du plan d’analyse et de l’ensemble des données. La limite de pages du rapport complet ne doit pas dépasser 30 pages (sans compter les annexes et les pièces jointes).

Qualifications et expertise du cabinet/  consultant

  • Qualifications académiques : Au minimum une maîtrise en études de la paix et des conflits, en études du développement, en économie, en sciences sociales ou dans un domaine connexe.
  • Expérience professionnelle : Vaste expérience (au moins 5 ans) dans la conduite de recherches et d’analyses dans le domaine de la paix, de la démocratie et de la gouvernance, notamment en matière d’alerte précoce et de réponse précoce, de cohésion sociale.
  • Expérience avérée dans la conduite réussie d’évaluations ou d’études similaires et compréhension des réglementations de l’USAID
  • Compétences techniques : Maîtrise de la revue de la littérature, de la collecte et de l’analyse de données qualitatives. Solides compétences analytiques pour identifier les tendances, les défis et les opportunités dans les interventions de consolidation de la paix. Familiarité avec les méthodes de recherche qualitative et quantitative, notamment les enquêtes, les entretiens et les discussions de groupe. Capacité à élaborer des rapports complets avec des recommandations pratiques pour les parties prenantes.
  • Compétences en communication et en rédaction de rapports : Excellentes compétences en communication et en relations interpersonnelles pour faciliter les entretiens, les enquêtes et les discussions de groupe. Maîtrise des techniques de rédaction et de présentation de rapports
  • Compétences en gestion de projet : Solides compétences en gestion de projet pour superviser l’ensemble du processus de recherche, du début à la fin. Capacité à élaborer des plans de travail, à gérer les échéanciers et à coordonner les activités de terrain. Souci du détail et capacité à respecter les délais et les budgets du projet.
  • Maîtrise de la langue : La maîtrise de l’anglais et du haoussa est requise, et/ou la connaissance des langues locales parlées dans l’État du Plateau et de Kaduna serait un avantage pour être efficace.

Communication avec les parties prenantes :

  • Normes éthiques : Engagement à respecter les normes éthiques dans la recherche, notamment l’obtention d’un consentement éclairé, la garantie de la confidentialité et le respect des droits et de la dignité des participants à la recherche.

Critères de sélection :

Numéro de série Domaines techniques Score
1 Proposition : Le consultant doit présenter une proposition détaillée mettant en évidence son expérience dans un domaine connexe et ses domaines d’expertise. 20
2 Expertise et savoir-faire technique :
Le cabinet de conseil doit : Avoir au moins 5 ans d’expérience professionnelle dans la conduite d’analyses de la littérature, d’analyses de données et d’évaluations des apprentissages. Être familier avec les méthodes de recherche qualitative et quantitative, y compris les enquêtes, les entretiens et les discussions de groupe. Avoir la capacité d’élaborer des rapports complets avec des recommandations pratiques pour les parties prenantes. dans les méthodologies de recherche, y compris la collecte, l’analyse, l’interprétation et la rédaction de rapports de données, en particulier dans le secteur ou le domaine de la consolidation de la paix.
40
3 Compréhension du contexte :
Le consultant doit avoir une compréhension des facteurs culturels, sociaux et économiques du Plateau et de l’État de Kaduna.
20
4 Budget :
Un budget détaillé comprenant les livrables et les échéanciers des activités
20
100

Conditions de paiement :

Livrable Conditions de paiement
Rapport initial avec outils de collecte de données 30%
Rapport final 70%

Note

  • La durée de la mission débute dès l’adhésion du consultant au cabinet.

Candidature :
Les candidats doivent envoyer leur proposition en saisissant les informations ci-dessous :

  • Nom de l’entreprise, nom et contact de la personne focale, adresse du bureau, type d’enregistrement et numéro de l’entreprise et description de ce que fait l’entreprise.
  • Profil/CV du/des consultant(s), y compris les détails de leur parcours académique et/ou professionnel
  • Preuve de travaux similaires réalisés.
  • Note conceptuelle de cinq pages maximum avec une expérience antérieure dans une activité connexe
  • Résumé du budget du coût total
  • Activité du programme par rapport à un échéancier (plan de travail) – basé sur l’activité proposée.

Date limite de candidature :
2 octobre 2024.

Méthode de candidature
Les candidats intéressés et qualifiés doivent envoyer leur proposition détaillée, leur budget financier et leur CV à :  [email protected]  en utilisant le titre du poste comme objet du courrier, par exemple « Consultant en évaluation de l’apprentissage ».