Dans un texte publié par le Bureau de Communication du MENFP, nous avons appris que L’Unité de Coordination de Projets (UCP) du Ministère de l’Education Nationale et de la Formation Professionnelle (MENFP) organise du 16 au 21 mars 2026 une mission d’administration et de supervision de ses interventions dans le Grand Nord.
Le texte nous informe que :
- Les différents projets pilotés par cette instance et financés par la BID sont soumis à l’évaluation au cours de cette rencontre stratégique, à savoir les Projets d’Appui au Plan Décennal d’Éducation et de Formation (PAPDEF) 1 et 2, le Programme d’Appui à la Gouvernance Educative (PAGE) et le Programme d’Appui à la Réforme Curriculaire (PARC).
- Parallèlement à ces interventions dans le Grand Nord, l’UCP avait conduit, de manière spécifique, des opérations dans le Grand Sud. Après le séisme de 2021, soixante-trois (63) écoles de la région avaient bénéficié d’une subvention. Cette opération a été financée par l’État du Qatar.
- Cet accompagnement comprend la formation continue des maîtres et des chefs d’établissements, la cantine scolaire, la subvention aux écoles, les kits scolaires, la réforme curriculaire et la mise en œuvre du Plan Amélioration Ecole (PAE). Ce dernier aspect accorde une considération toute particulière à l’implication des parents dans le fonctionnement au regard de la Politique de Gestion de Proximité développée par le MENFP.
Le bureau de communication termine le texte en citant des chiffres qui, apparemment, cherchent à montrer le succès des différents projets en question. L'énumération de chiffres bruts est une technique classique de communication publique visant à impressionner l'opinion par un effet d'accumulation, sans pour autant démontrer une réelle performance. Il appartient dès lors à la société civile de questionner la pertinence de ces données en les confrontant aux objectifs initiaux et aux besoins réels du pays. C'est précisément dans cette démarche de vigilance et de reddition de comptes que s'inscrit la présente note de l'Observatoire social d'Haïti.
- Les données indiquées par le bureau de communication
Le bureau de communication nous apprend que :
Suivant les données collectées :
- 91 064 élèves du fondamental ont droit depuis lors à un repas chaud;
- 10 276 enfants empêchés de poursuivre leur scolarité sont revenus à l’école au cours de l’année 2024-2025 ;
- 3 358 élèves de troisième Année Fondamentale ont participé à une évaluation des apprentissages ;
- 90 établissements ont réussi à élaborer leurs Plans Amélioration Ecole (PAE) dont 22 sont en cours de mise en œuvre ;
- 88 directeurs d’écoles et 503 enseignants ont pris part à des sessions de formation continue ;
- 330 enseignants ont été formés sur les activités socio-émotionnelles liées à l’art, au jeu et la culture en milieu scolaire ;
- Réalisation de cartes scolaires dans six Directions Départementales d’Education ;
- Publication de plusieurs annuaires de statistiques scolaires.
2. Le questionnement de l’Observatoire Social d’Haïti
L'Observatoire social d'Haïti (OBSHA) juge les statistiques publiées par le MENFP largement insuffisantes pour évaluer la performance réelle de l'action publique en milieu scolaire. En conséquence, il s'empresse de signaler les lacunes analytiques suivantes qui empêchent toute lecture sérieuse de l'efficacité de ces projets. L’observatoire s’empresse d’expliquer, néanmoins, que cette démarche s’inscrit strictement dans le cadre des missions de veille et d'analyse propres à tout observatoire de la société civile. Loin de toute volonté de polémique, l’Observatoire social d'Haïti entend simplement exercer son rôle technique de contrôle citoyen pour favoriser une culture de la transparence et de l'efficacité administrative.
- On relève une absence de référentiel (Objectifs vs Réalisations). En effet, un chiffre n'a de valeur que s'il est comparé à une cible. À titre d’exemple, le texte mentionne 91 064 élèves ont eu droit à un plat chaud. Si l'objectif était de nourrir 80 000, on pourrait en conclure qu’il s’agit d’un grand succès. Par contre, s’il était question d’atteindre 500 000 élèves, ce résultat serait un échec (18 %). Sans le résultat attendu, on ne peut pas mesurer l'efficacité de l'action. Présenter le résultat obtenu sans indiquer le résultat attendu équivaudrait à donner un score de "13 " sans préciser si c'est sur 20 ou sur 100.
Nous avons déjà expliqué, lors de la première revue sectorielle du PDEF (et cela nous a valu des ennemis) : un résultat sans comparaison avec l'objectif n'est qu'une activité constatée, pas une performance démontrée. Un résultat brut est une donnée isolée. Nous insistons sur le fait que sans la "cible" (le résultat attendu), on ne dispose pas d'échelle de valeur. On ne peut pas savoir si la performance est bonne, médiocre ou exceptionnelle.
Tant que le MENFP ne publie pas ses tableaux de bord avec les "Cibles vs Réalisations", ces chiffres restent des données de communication et non des preuves de réussite. On ne peut pas présenter une action comme un succès par le simple fait qu'elle a eu lieu. La véritable mesure de la gestion publique consiste en l'écart entre la promesse et la réalité.
- Outre le fait que sans point de comparaison, le résultat ne permet pas de prendre de décision. On ne peut pas savoir si on doit continuer ainsi ou changer de stratégie, l’OBSHA a noté l’absence de données globales du système éducatif haïtien lorsqu’il est question de mesurer l'impact réel d’un projet ou d’un programme. Pour mesurer un impact, il faut comparer la situation après le projet à celle avant son lancement. Sans données nationales, on ne peut pas savoir si un projet local est plus ou moins performant que la moyenne nationale. On ne peut pas non plus identifier si une innovation technologique "absorbée" localement est réellement généralisable à l'échelle du pays. Les chiffres présentés manquent cruellement de perspective proportionnelle. Dire que 503 enseignants ont été formés peuvent paraître énorme. Mais, que représente ce chiffre sur une population de dizaines de milliers d'enseignants à travers le pays ? On ne peut demander à un projet/programme de résoudre des problèmes structurels en ce qui concerne le système de formation. Mais, sans référence à des données globales, on ne peut pas mesurer l’'impact du projet/programme sur la qualité globale de l'éducation. L'absence de données globales transforme l'évaluation d'impact en un exercice à l'aveugle où l'on peut documenter des activités, mais rarement prouver une transformation systémique.
- Le texte du bureau de communication du MENFP se contente de lister des "moyens" ou des "activités", sans tenir compte des "résultats" qualitatifs. Savoir que 3 358 élèves ont participé à une évaluation ne suffit pas. Quels scores ont-ils obtenu? Qu'a-t-on appris sur leur niveau de lecture ou de mathématiques ? Savoir que 3 358 élèves ont tenu un stylo devant une feuille ne dit rien sur la santé du système éducatif : une telle information consiste à communiquer uniquement sur des outputs (sorties directes), donc sur un indicateur de logistique qui ne traduit pas un succès. Le véritable résultat (outcome) serait : "Les élèves ont progressé de 15 % en compréhension de texte". Autrement dit, lister des activités revient à documenter un effort et non un impact. Cela équivaudrait à un médecin qui se félicite d'avoir pris la tension de 100 patients sans jamais regarder si les chiffres indiquaient une hypertension ou une bonne santé. L’objectif d’une évaluation n’est pas de donner l’illusion de l’action, mais de contribuer à piloter le système. Évaluer pour évaluer ne garantit pas une amélioration de l'apprentissage. Si l'exercice s'arrête à la collecte des copies sans informer sur les notes obtenues, les lacunes spécifiques relevées, l’évaluation peut être un gaspillage de ressources qui ne permet pas de s'attaquer aux causes de l'échec scolaire.
- Annoncer 91 064 élèves ont eu droit à un plat chaud est un chiffre impressionnant pour une opération de communication, mais c'est un chiffre muet. Sans le coût unitaire, comment peut-on assurer qu’un projet est efficient ? On ne réclame pas une analyse fine de l’efficience (Coût vs Bénéfice). Seulement des données minimales comme
preuve de bonne gouvernance. Sans le budget total, on ne peut pas calculer le "coût par repas". Si le programme a coûté 10 dollars par repas alors que la moyenne régionale ou les standards des agences internationales (comme le PAM) sont à 1 dollar, l'intervention est un gouffre financier, même si les enfants ont mangé. Mais, ne pas mentionner les budgets investis pour ces résultats ne nous donne aucune idée sur l'efficience de ces interventions (consistant à obtenir le meilleur résultat au moindre coût). Au-delà du chiffre brut de 91 064, nous avons besoin de savoir le coût par élève pour un repas chaud pour déterminer si ou non il est exorbitant par rapport aux standards internationaux. En Haïti, où les fonds sont limités, dépenser "trop" pour un résultat "correct" signifie qu'on prive d'autres enfants du même service. Ne pas publier les coûts empêche de vérifier si l'argent a été utilisé de manière rationnelle ou s'il y a eu des surfacturations ou des gaspillages logistiques. - Le texte du bureau de communication informe que 10 276 enfants sont retournés à l'école. Mais, cette donnée brute est un chiffre isolé. Ce dont nous avons le plus besoin, ce sont des données comparatives exprimant des tendances : et si les enfants étaient 20 000 l'année dernière ? Et si 50 000 autres ont décroché durant la même période à cause de l'insécurité ? Comptabiliser les entrées (les succès) tout en ignorant les sorties (les échecs), c’est pratiquer une "comptabilité sélective. Quand on est en présence d’une baignoire avec une fuite d’eau, on ne peut pas se réjouir du débit du robinet sans regarder le trou au fond. Dans un contexte de crise sécuritaire comme celui d'Haïti, l'évaluation doit impérativement intégrer les facteurs d'exclusion. Ignorer le nombre d'enfants chassés des salles de classe par la violence des gangs revient à nier la réalité du terrain. Une communication honnête devrait présenter un tableau de bord complet avec : le nombre de nouveaux inscrits, le nombre de décrocheurs (estimés ou réels), le résultat final : Progression ou Recul.
En réalité, le communiqué est une liste d'extrants (outputs). Il ne nous renseigne en rien sur les résultats (outcomes). Pour que ces statistiques fassent sens, nous sollicitons des informations qui répondent à trois questions : (a) Quel était l'objectif initial ? (Pertinence) ; (b) Quel pourcentage de la population cible est couvert ? (Couverture) ; (c) À quel coût et pour quel changement durable ces projets sont mis en œuvre ? (Efficience et Impact)
Jacques Yvon PIERRE
