Les universités en Haïti : Le classement catastrophique et antiscientifique du « Scientifique »

Il circule sur la toile un soi-disant rapport pour classer les soi-disant universités en Haïti. Dans les lentilles aveuglantes du Centre de Recherche intégrée et scientifique d’Haïti (CRISH), auteur de ce rapport accablant, une dizaine de cabris additionnés à deux dizaines de cochons auraient donné une trentaine de chevaux. C’est la déduction logique qui émane d’une lecture in extenso de ce rapport illogique publié par Le Scientifique. Absurdité totale !

En prétendant pouvoir classer les soi-disant « universités » haïtiennes, Le Scientifique s’est livré à un jeu farfelu alors que l’initiative de classer les universités au sein d’un pays, aux États-Unis, en Europe ou dans le monde, n’a jamais été un projet fantaisiste. Le classement des établissements d'enseignement supérieur est censé baser sur des critères objectifs et fiables qui permettent de mesurer leurs performances sur plusieurs plans. En leur garantissant une publicité qui expose soit leur prestige ou leurs failles, les universités sont susceptibles de se faire côtoyer par des étudiants, des parents et des entreprises qui convoitent les meilleurs. S’il suit des règles de technicité pour se réaliser de façon objective, le classement universitaire peut éventuellement servir à orienter des gouvernements dans les décisions de réformer le système éducatif.

Force est de constater que par la subjectivité et les déficiences méthodologiques qui l’imprègnent, ce classement universitaire féerique publié par « Le Scientifique » est perçu comme un tort qu’un centre qui se dit de recherche scientifique a essayé d’infliger à la science. Il est facile de déceler des bévues arithmétiques élémentaires sinon des erreurs empiriques et une incompétence théorique flagrante dans la méthodologie adoptée par ce centre de recherche qui semble avoir été guidé par des intérêts voilés. Face à cette publication catatonique, un comportement léthargique de la société voire le silence de l’intelligentsia probe serait qualifié de complice. Devoir dialectique oblige, dans une analyse véritablement scientifique, nous tenons à décortiquer des faiblesses méthodologiques patentes dudit rapport et exigeons qu’il soit rentré et éventuellement corrigé dans la célérité. Avant de jeter le regard critique sur ce rapport subjectif du CRISH, je voudrais inviter le lecteur à mieux appréhender l’initiative de la publication du classement des universités dans le monde.

 

Le classement des universités dans le monde, un outil de décision

La littérature regorge de diverses méthodes de classement disponibles pour établir le classement des meilleures universités à l’échelle mondiale. Parmi les références les plus réputées on compte le classement de Shanghai, généralement considéré comme la norme ; le classement de Times Higher Education ; et le QS World University Ranking. Chacun de ces classements se caractérise par sa propre approche méthodologique, mais on relève peu de variations dans les dimensions qu’ils ont utilisées pour établir différents indicateurs de performance universitaire.  

Pour effectuer son évaluation, le Classement de Shanghai met l'accent sur la recherche. Ainsi, six critères liés aux activités de recherche y sont examinés : le nombre d'enseignants-chercheurs lauréats du prix Nobel ou de la médaille Fields (20 % du score), le nombre de "chercheurs très cités" (20 %), le nombre d'articles publiés dans les revues Nature et Science (20 %), le nombre d'articles dans les index Science Citation Index-Expanded et Social Science Citation Index (20 %), le nombre de diplômés lauréats du prix Nobel ou de la médaille Fields (10 %) et la performance académique per capita (10%). À la lumière du Classement de Shanghai, en 2022, on y recensait un trio d’universités américaines à la tête du peloton des meilleures universités au monde : la Harvard, la Stanford et le MIT.

Proches des critères de Shanghai, ceux retenus par le Time Higher Education reposent sur 13 indicateurs de performance. Ceux-ci sont calibrés pour mesurer la performance des institutions universitaires dans quatre domaines : l'enseignement, la recherche, le transfert de connaissances et la perspective internationale. Par exemple, on y prend en compte les citations des publications scientifiques, la part d'étudiants et d'employés internationaux, les collaborations internationales et le transfert de connaissances vers l'industrie. Le top des cinq universités dans le monde en 2023 selon le Time Higher Education est respectivement l’université d’Oxford, l’université de la Harvard, l’université de Cambridge, la Stanford et le MIT. Le Classement du Times Higher Education 2023 inclut 1,799 universités réparties dans 104 pays et régions.

Pour ce qui concerne le QS World University Rankings, son classement s’appuie également sur des critères de réputation et de ratio étudiants/enseignants internationaux. Le QS World University Rankings incorpore dans son score la proportion d'enseignants internationaux, la proportion d'étudiants internationaux, le taux de citation des publications par enseignant et le taux d'encadrement des étudiants. Pour l’année 2023, le QS World University y a ajouté des critères de durabilité, résultats en matière d'emploi et réseau de recherche international. Issu d’analyses de 17,5 millions d’articles universitaires et des avis d’experts de plus de 240 000 professeurs et de chefs d’entreprises du monde entier, le rapport 2024 du QS World University a catalogué le MIT (100 points) la meilleure université au monde. Suivent dans cet ordre, l’université de Cambridge (99.2 points), l’université d’Oxford (98.9 points), la Harvard (98.3 points) et la Stanford (98.1 points). À quel point ces classements reflètent-ils dans la fiabilité la qualité des universités ? Qu’en est-il de la précision de leurs méthodologies ?

Il n’existe pas de classement qui puisse faire unanimité. Des institutions vont toujours exprimer leurs désaccords face à un classement ou autre. Cependant, peu importe le classement, il s’appuie sur des méthodes statistiques validées et respecte les principes de calculs indiciels. Par exemple, le point commun aux trois classements de référence des universités exposés ci-dessus c’est qu’ils s’appuient sur des dimensions relatives à l’enseignement, la recherche et la réputation qu’ils ont pu transformer en des indices comparables. Au regard de ces trois classements très reconnus, nous n’avons constaté globalement que des différences superficielles. En effet, même si une université bien cotée n’occupe pas forcément la même position d’un classement à l’autre, entre les différents classements, le top des 100 meilleures universités demeure quasiment le même.

 

Très peu de substance scientifique dans ce rapport du Scientifique

Une liste de dix-sept « chercheurs » mobilisés à manier des chiffres et des lettres pour endosser ce rapport de 26 pages qui auraient classé les « universités » en Haïti, il faut croire que du temps et de l’énergie ont été consacrés pour produire un document malheureusement soufrant d’invalidité scientifique. Se référant au nombre de personnes impliquées, le citoyen lambda pourrait facilement nourrir l’impression qu’il s’agit d’un document impressionnant qui obéirait aux principes de l’art. Malheureusement, à travers des carences statistiques stupéfiantes, qu’il soit de bonne ou de mauvaise foi, c’est de la pire des manières que ce groupe a opté d’induire la société en erreur. « La culture scientifique au service du développement durable et de la paix » serait définitivement un slogan creux apposé à l’en-tête des documents officiels de ce « centre de recherche ». La méthodologie de ce rapport qui porte sur le classement des « universités » haïtiennes se dresse de manière diamétralement opposée aux prescrits de la culture scientifique. Les résultats de ce classement découlent de graves incohérences.  

Le CRISH dit considérer dix (10) indicateurs de performance, dont le nombre de recherches vulgarisées, le nombre de centres de recherche créés, la couverture des trois (3) cycles d'études supérieures, la réputation académique, la facilité d'employabilité des diplômés de l'université, l'entrepreneurialité de l’université, le ratio étudiants/professeurs, le nombre et l'importance des partenaires nationaux et internationaux, la couverture nationale de l’université et la mobilité internationale des étudiants et professeurs (échanges bidirectionnels). A priori, de tels indicateurs se révèleraient effectivement appropriés pour cerner la performance universitaire. Cependant, le mélange qui y a été fait paraît indigeste. Le centre de recherche préconise qu’il a fourni des informations fiables, intersectorielles, interdisciplinaires, actualisées et utiles sur les performances des universités en Haïti à travers un exercice dit-il scientifique, indépendant, impartial, objectif, vérifiable, gratuit et ouvert. Pourtant, de nombreuses erreurs sont perceptibles dans ce rapport qui n’est pas du tout technique. Il convient de noter les failles que voici.

 

Regroupement de termes dissemblables

« Regroupons les termes semblables ; transposons ; tirons l’inconnu (x) ». C’était un refrain académique rudimentaire dans la résolution des équations simples. Dans tous les domaines - mathématique, physique, chimique, scientifique - il existe des formules sacrées qui sont éternellement déposées dans notre subconscient pour guider nos réflexions et nos actions vers des voies salutaires. Le Centre dit de recherche se permet d’additionner : Recherches vulgarisées, Centres de recherche créés, Couverture des 3 cycles universitaires, Réputation académique, Facilité d'employabilité des diplômés, Entrepreneurialité de l’université, Ratio étudiant / professeur, Partenaires nationaux et internationaux, Couverture nationale de l’université et Mobilité internationale des étudiants et professeurs. Cette approche est totalement erronée.

Chacune de ces dimensions représente une mesure distincte qui se décline dans une unité spécifique ; on ne saurait les additionner pour par la suite en calculer une moyenne. Cela reviendrait par exemple à s’octroyer la liberté de faire la somme d’un ensemble d’éléments disparates comme des cabris, des moutons, des bœufs, des ânes, des mulets, des cochons et des chevaux pour les exprimer en une seule unité pour estimer la richesse d’un éleveur. Le Scientifique aurait-il le vent en pourpre à assassiner la Science ? Je veux croire que cela n’a pas été l’objectif de cette publication qui mérite alors d’être extraite par le Scientifique de la circulation dans les médias par exemple. Pour la gouverne de toutes ces têtes qui se sont jetées tête baissée dans cet exercice aberrant, sachez qu’avant de dégager un indicateur global, il devait y avoir des transformations objectives sur chacune de ces dimensions pour les mettre sur une base commune. Ainsi, un indice unique aurait pu être calculé. C’est de cette manière par exemple que le PNUD établit l’Indice de Développement Humain (IDH).

 

Confusion entre singletons, sous-ensemble, ensemble et l’univers

Les biais sont flagrants dans les critères de classement du CRISH qui n’enlève pas l’effet pervers de certaines dimensions quantitatives qui primeraient sur le cachet qualitatif.  Dans cette liste des IES classés maladroitement par le CRISH, il y en a qui n’accueillent qu’un faible nombre de disciplines et donc de personnels académiques (étudiants et professeurs). C’est le cas par exemple du CTPEA (102e position selon le CRISH) qui ne détient que trois départements et qui n’accueille annuellement qu’un faible nombre d’étudiants, moins d’une centaine. L’École Nationale Supérieure de Technologie (ENST) se retrouve dans le même panier. Cet autre centre prestigieux comme le CTPEA compte parmi les IES qui n’admettent qu’une faible quantité d’étudiants. Pourtant l’ENST est classé avant-dernier (155e) selon les critères du CRISH. La compétition pour une admission à l’École Nationale d’Administration et de Politiques publiques (ENAPP) est très féroce. Elle constitue une énorme opportunité pour un étudiant finissant qui vise à se préparer pour devenir un cadre de l’Administration publique. Pourtant, le CRISH classe à la queue du peloton cette école prestigieuse qui reçoit une partie très limitée de la crème de la crème pour les peaufiner avant de les mettre au service de certains ministères clés.  

 

Parallèlement, d’autres IES sont pratiquement des universités (malgré les faiblesses dont on leur reconnaît) qui logent une multitude de facultés, et donc un grand nombre de professeurs et d’étudiants. Par exemple, l’UEH (première place selon le CRISH) regroupe, en plus des onze (11) facultés disparates et dispersées à la capitale, plusieurs IES qui forment particulièrement des économistes et des avocats au niveau des autres villes du pays. Cette grande pourvoyeuse de ressources humaines qualifiées au pays est dotée d’environ un millier de professeurs et une vingtaine de milliers d’étudiants. Bien qu’elle ne dispose pas des mêmes avantages quantitatifs de l’UEH qui lui permettrait de rafler plus de points selon les critères asymétriques du CRISH, l’Université Quisqueya accueille un grand nombre d’étudiants. Elle compte un bon nombre de professeurs et offre également un éventail de disciplines scientifiques. En considérant le critère nombre de publications, saurait-on s’étonner que l’on compte pour l’UEH 10,400 recherches vulgarisées et 986 pour l’Université Quisqueya alors que l’on enregistre moins d’une centaine de publications pour chacune des autres entités au cours de l’année 2023 ? Et que dire de la qualité des publications qui est plus importante que leur quantité ? Le CRISH serait-il doté de moyens adéquats pour jauger de la qualité des articles, mémoires, thèses ou toute autre publication émanant des IES ?

 

Dans le même sens d’exposer les biais gonflés dans la quantité, j'aurais pu considérer d’autres facteurs tels que les Partenaires nationaux et internationaux, la Couverture nationale de l’université et la mobilité internationale des étudiants, pour relever les failles de ce rapport incohérent. On imagine par exemple que l'université A a pu graduer pour une année 5000 étudiants, et que 200 ont pu poursuivre avec leurs études à l'étranger. Cela fait une proportion de 2/50 en termes de mobilité internationale. D’autre part, l'université B enregistre seulement 50 licenciés parmi lesquels 40 ont pu continuer à l'étranger ; ce qui donne une proportion de 40/50. Selon le critère non-scientifique du "Scientifique" l'université A serait plus efficace que l'université B en matière de mobilité internationale car 200 valent 5 fois quarante (40). Pourtant, de manière pragmatique, la deuxième serait 20 fois plus performante que la première sur la base de ce critère s’il était pris en compte convenablement.

 

En osant comparer sur une base quantitative l’ENST avec l’UNIFA, le CTPEA avec l’UEH ; l’ENAPP avec l’UEH ; l’ANDC avec l’UNIQ, etc., le Scientifique est entrain de confondre élément (singleton), sous-ensemble, ensemble et univers. Alors que depuis le début du secondaire ces notions nous avaient été inculquées dans la plus grande précision par nos professeurs de Math, le CRISH aurait révolutionné dans la maladresse les principes mathématiques basiques. Par exemple, l’initié aux théories des ensembles devrait admettre qu’un élément appartient à un ensemble ; qu’un sous-ensemble est inclus dans un ensemble ; et que l’union ou l’intersection s’opèrent entre deux ensembles. Un aspirant étudiant peut nourrir le doute d’opter entre la FDS ou le CTPEA, la FDSE ou l’ENST, car à un certain degré, ces IES se situent sur une même base. Mais, comment saurait-on parler d’une certaine concurrence entre l’UEH qui englobe plus d’une vingtaine d’entités et le CTPEA ou l’ENST par exemple ? Absurde.

Le concept université n’est-il pas galvaudé ?

En dernier lieu, selon le rapport du CRISH, Haïti pourrait se targuer d’être dotée de 156 universités reconnues par le Ministère de l’Éducation nationale et de la Formation professionnelle (MENFP). Quelle plaisanterie ! Même les quelques rares IES œuvrant en Haïti que les références modernes peinent à offrir le statut d’universités, ne peuvent s’enorgueillir d’être de véritables universités. De multiples problèmes académiques relevant de l’absence de campus, de précarité de laboratoires scientifiques, de curricula inadaptés et de professorat peu qualifié sont parmi les obstacles confrontés par toutes ces entités qui sont aussi victimes du contexte global délétère. Tandis que le CRISH dresse une liste de 156 « universités » haïtiennes, les esprits qui croient dans un minimum de standard croient que si l’on pouvait recenser trois ou quatre universités en Haïti, ce serait déjà étonnant.     

S'il est vrai que l'essentiel dans l’offre de la formation tertiaire résulte surtout de la qualité du service que fournit un Institut d’enseignement supérieur (IES), le classement des universités par des centres de recherche en fonction de critères convaincants et compréhensibles envoie des signaux à la société sur la valeur et le prestige des institutions. En outre, un classement national devait pouvoir également servir de base de comparaison avec des classements des universités étrangères. Alors que le ratio étudiants/professeurs est un indicateur universel qui réfère au nombre d'étudiants inscrits dans une institution d'enseignement par rapport au nombre de professeurs, le ratio étudiants/professeurs estimé par le CRISH se solde en un nombre négatif. Comment saurait-on obtenir un quotient négatif entre deux nombres positifs (nombre d’étudiants et nombre de professeurs) ? 

 

Entachée de tellement d’irrégularités, cette publication du classement des universités en Haïti ne fait pas honneur à un centre qui se dit respectueux des principes scientifiques. À ce moment crucial où le pays est tant assoiffé de la production scientifique pour assurer son développement, on ne saurait laisser véhiculer des productions basées sur des mensonges effrontés ou truffées d’erreurs susceptibles de porter préjudice à la société. Un changement de paradigme afin d’emprunter les voies de la modernité requiert que le scientifique soit au service du politique. Alors, les personnalités qui se prêtent au jeu de la science doivent constamment exercer la prudence d’observer les vertus et les normes scientifiques afin de jouer des rôles de vigie pour éclairer les décisions des politiques publiques.

 

À propos de ce classement erroné des « universités » haïtiennes, nous faisons le vœu que des corrections soient apportées par le Scientifique. Et dans une extrapolation sociétale, que des dispositions de contrôle de qualité soient prises par les professionnels et les instituts de recherche pour mieux scruter leurs travaux avant de les publier.

 

Carly Dollin

carlydollin@gmail.com

LAISSEZ UN COMMENTAIRE

3 COMMENTAIRES