vendredi 17 novembre 2017

Mémoire collectif présenté dans le cadre de la consultation concernant la création d’un institut national d’excellence en éducation




Comme si la musique pouvait ainsi se réduire à la somme 
des notes et des silences qui composent la partition [1]

Le document Pour[2] la création d’un institut national d’excellence en éducation (MEES, 2017) est soumis pour consultation en cet automne 2017. Le document présente d’abord un corpus de données statistiques, définit les fondements et les trois objectifs poursuivis par un éventuel institut et se conclut sur une série de questions auxquelles les acteurs sont invités à répondre, questions qui gravitent essentiellement autour du statut et de la structure dudit institut. Aucune de ces questions n’interroge les fondements et la création mêmes de cet institut, ce qui nous amène à penser que l’INEÉ est acquis. L’impérieuse nécessité de créer cette institution reposerait par ailleurs sur l’« appui quasi unanime » quant à « l’objectif d’assurer le développement et l’appropriation des meilleures pratiques éducatives ». Précisons dès maintenant que les lignes qui suivent ont été rédigées par les tenants du « quasi » dans l’expression usitée « quasi unanime ». 

Qu’une institution indépendante se charge de mettre en débat les résultats des recherches menées et d’assurer le partage des connaissances entre chercheurs et praticiens dans le champ de l’éducation – qu’il s’agisse du Conseil supérieur de l’éducation ou d’une autre structure – tout chercheur en éducation ne peut que s’en réjouir, et tout praticien y trouverait du « grain à moudre ». D’emblée, nous tenons néanmoins à signaler que nous sommes hautement préoccupés par le choix d’établir sans équivoque la prépondérance d’un type de recherches menant à des « résultats probants ». C’est bien la diversité des recherches conduites qui permet de comprendre la complexité inhérente aux enjeux éducatifs que l’on retrouve dans des contextes scolaires québécois pluriels. Nous souhaitons donc, dans ce mémoire, apporter des réflexions relatives aux fondements de l’institut projeté plutôt que de discuter des modalités de sa mise en œuvre. 

Dans les lignes qui suivent, nous présentons ainsi plusieurs arguments qui nous amènent à remettre en cause, sur le fond, la création de l’institut :
  • L’usage de la notion de « pratique avérée » est problématique tant dans le champ scientifique que dans le champ de l’enseignement;
  • Les interventions fondées sur cette notion privilégient la mesure de résultats à court terme qui ne présagent en rien des dénouements éducatifs à long terme;
  • La croyance indiscutée en des « résultats probants à haut niveau de preuve » occulte d’une part le fait qu’il s’agisse d’un mode de production de données parmi d’autres et avec ses propres biais, d’autre part que le champ de la recherche est loin d’être un espace neutre et qu’il est traversé d’enjeux sociopolitiques;
  • La production de savoir n’est pas l’apanage des chercheurs, et les enseignants n’en sont pas que des usagers.    

  • Le mirage des « pratiques avérées » ?
    Lorsqu’il est question de « meilleures pratiques éducatives », elles se déclinent ainsi dans le texte : pratiques issues de la recherche, pratiques les plus prometteuses, pratiques efficaces, sans oublier l’expression « pratiques avérées » qui est mentionnée à sept reprises dans le document d’une vingtaine de pages. Cette dernière expression, tout comme celle de « résultats probants à haut niveau de preuve » qui la sous-tend, et dont nous traiterons plus loin, laisse perplexe. Il existerait donc des pratiques clés en main, des pratiques démontrant un statut de vérité indiscutable (« avérées »), connues des chercheurs en éducation et dont ils garderaient jalousement le secret ? Les chercheurs, représentants de LA science, détiendraient la vérité des pratiques à mobiliser dans les classes, toutes les classes, pour tous les élèves, quel que soit l’ordre d’enseignement, la discipline enseignée, le savoir concerné, le contexte organisationnel, culturel, social et économique local et global dans lesquels elles se déploient. Conséquemment, une formation adéquate des enseignants basée sur des recherches dites de haute qualité (et, si possible, assurée par les chercheurs afin d’éviter des distorsions dans le « transfert ») suffirait à garantir l’efficacité de leurs actions, à court, moyen et long termes. L’enseignant n’aurait ainsi qu’à puiser dans ce réservoir de bonnes pratiques, à les « adopter », comme le premier objectif de l’institut y invite, à les adapter quelque peu à la situation pour enfin constater une amélioration de la performance des élèves aux examens ministériels ou aux tests du PISA (Programme international pour le suivi des acquis des élèves). Ces résultats correspondent à ce que les sciences de la gestion qualifient d’outputs.
La logique marchande : le cumul de petits gains se solderait par une grosse fortune
Restons un instant sur cette notion doutputs. En gestion, les outputs sont des résultats à court terme, tangibles, sonnants et trébuchants (l’élève sait-il déchiffrer les syllabes?). Les outcomes relèvent de finalités à plus long terme (la personne peut-elle puiser dans l’univers de la langue pour vivre, travailler, penser, rêver, innover?). Insister sur les seuls résultats à court terme (la réussite à l’examen – b-a-ba) ne garantit pas l’atteinte de finalités au long cours (vivre, penser, etc.), voire pourrait leur nuire. Les politologues et les sociologues qui s’intéressent à la nouvelle gouvernance en éducation ont mis en évidence ce qui distingue ces deux types de résultats. Les premiers concernent donc des résultats à court terme, des performances qui permettent de mesurer l’état d’un système (par exemple le taux de réussite aux différents examens du ministère de l’éducation qui jalonnent la scolarité des élèves). On présuppose que l’accumulation de ces micro-résultats serait garante d’un apprentissage à haute valeur ajoutée (car dans l’économie du savoir, les connaissances sont considérées comme un capital). Les seconds, plus volatiles et complexes, concernent ce qui advient à long terme dans une société. Il s’agit d’un horizon, d’un but vers lequel tendre, mais dont on sait peu – humilité de tout penseur oblige – quelle voies il emprunte pour s’actualiser. Qu’arrive-t-il lorsque les cibles à court terme prennent le pas sur la vision du long terme? Christopher Hood[3], s’intéressant à la gestion axée sur les résultats a examiné les pratiques des ambulanciers et des personnels hospitaliers œuvrant dans les services d’urgence. Et il a rappelé, il y a quelques années, les effets pervers de la prévalence des résultats (outputs) sur les finalités (outcomes) dans le domaine de la santé. Face à une injonction de résultats (outputs) – les ambulanciers devaient amener les patients vers l’hôpital dans un minimum de temps; réciproquement, le temps entre l’arrivée du patient au service des urgences et sa prise en charge devait être minimal – chacun répondant aux exigences de résultats, voici ce qu’il advint : les ambulanciers amenaient les patients dans les temps à l’hôpital; les personnels travaillant à l’urgence retardaient l’inscription des patients pour répondre aux exigences de résultats. Les ambulanciers comme les urgentistes respectaient les critères de performance et les patients restaient dans l’ambulance tant qu’une place n’était pas disponible dans le service d’urgence. Les outputs (statistiques) étaient respectés, et les patients garés dans le stationnement de l’hôpital. Peut-on vraiment en déduire que la santé publique (outcome) était servie? 

Mesurer quoi et comment ?
Si la proposition telle que présentée dans le document soumis pour consultation allait de l’avant, nous courons tous le risque que le champ couvert par les recherches considérées dans les travaux de l’institut soit restreint par le choix même de l’indicateur principal sélectionné : « l’évolution de la part des diplômes dans le taux de diplomation et de qualification par cohorte au secondaire observé après cinq ans ». En effet, il est étonnant de constater l’exclusivité de cet indicateur quand on sait la multiplicité des enjeux auxquels font face les milieux scolaires, en particulier les enseignants et les élèves. Or, l’obtention d’un diplôme, mesurée par des outputs additionnés en bout de parcours, n’est pas garante du développement global de chaque élève, un outcome réaffirmé dans la récente Politique de la réussite éducative (MÉES, 2017)[4] et porteur d’un bien plus large éventail d’objets d’études. L’apprentissage dépasse la capacité à réussir une épreuve précise à un moment donné. Par ailleurs, un autre danger se profile à l’horizon : la proposition de projet de l’INEÉ impose des contraintes quant au choix de la démarche méthodologique employée; une autre voie méthodologique que celle préconisée conduirait l’organisme à ignorer bon nombre de travaux qui font pourtant écho à ce que vivent les praticiens : la recherche-action, la recherche collaborative visant le développement de pratiques adaptées à un public et à un contexte précis par exemple. Ces recherches dites participatives font de la relation (à entretenir) entre un champ de recherche et une pratique professionnelle un thème central de leur réflexion, tant sur le plan de la constitution de l’objet de recherche/d’intervention et de la démarche méthodologique que sur le plan éthique. Elles amènent notamment à réinterroger les relations entre le chercheur, souvent considéré comme un expert, et l'enseignant, considéré comme un novice ou un utilisateur de connaissances. Le document soumis pour consultation semble méconnaître ces travaux et privilégier une relation d’expert à utilisateur. Ainsi, avec l’institut proposé, nous faisons face à l’orientation à la fois des objets d’étude et de la méthodologie, ce à quoi nous nous opposons sans réserve. 

Des statistiques satisfaisantes démontrées par des données probantes : est-il avéré qu’il y a un pilote dans l’avion?

Revenons un instant sur ce qui caractérise les « pratiques avérées ». Elles sont, dixit le document soumis, fondées sur des « résultats probants à haut niveau de preuve ». Qu’est-ce donc qu’un résultat probant à haut niveau de preuve? Le texte le précise : il s’agit de résultats produits par des recherches de type 1 (que nous pourrions requalifier de « médaille d’or » des recherches) : essais comparatifs hasardisés de forte puissance ; méta-analyse d’essais comparatifs hasardisés ; analyse de décision fondée sur des études bien menées. Laissons de côté, pour le moment, cette dernière catégorie qui, pour tout chercheur rigoureux, manque cruellement de précision. Tout ce qui relèverait de la recherche qualitative – études rétrospectives, séries de cas, études épidémiologiques descriptives (transversale, longitudinale) – serait ainsi de « faible niveau scientifique ». L’histoire, l’anthropologie, l’ethnographie voire des pans théoriques entiers de la didactique, de la pédagogie, de la sociologie, de la psychologie, etc., seraient donc à jeter aux orties. Tout ce qui a fondé la mouvance de l’école inclusive par exemple (voir Brantlinger et al. 2005[5]), serait ainsi nul et non avenu. Comment se réjouir de l’exclusion de telles recherches de « faible niveau scientifique » qui ont pourtant modifié radicalement notre regard sur l’altérité? On ne peut ignorer que différents types de recherches s’intéressent à différents objets du champ éducatif et permettent d’étudier un même objet sous des angles complémentaires. Exclure ou qualifier de moins importantes les recherches descriptives longitudinales ou les séries de cas rigoureusement documentés par exemple conduirait à réduire les potentialités de réflexion pour praticiens et chercheurs qui tentent de résoudre des problèmes complexes rencontrés dans l’action pédagogique et ce dans le contexte particulier dans lequel s’inscrit telle ou telle pratique. 

Mais que sont ces essais hasardisés et méta-analyses qui seraient au fondement des « pratiques avérées »? Pour ceux qui méconnaîtraient ce jargon de chercheur, l’essai standardisé (parfois qualifié de «randomisé» par contagion linguistique) fonctionne globalement de la manière suivante: des recherches antérieures montrent que l’utilisation de telle technique (ou tel médicament) a davantage d’effet sur telle performance (tel indicateur biologique) que si l’on n’intervient pas (groupe témoin, groupe auquel on administre un placebo). On multiplie donc cette expérimentation à plusieurs reprises, on l’administre au plus grand nombre, et l’on en déduit que la pratique (qui se limite dans les faits à une intervention de courte durée) est la « meilleure » car elle produit les effets souhaités (une meilleure performance au test X). Il s’ensuit que l’enseignement, dans sa longue durée (de 5 ans à 16 ans dans le contexte actuel, voire plus si l’on considère l’éducation tout au long de la vie), pourrait mener à une plus grande réussite des élèves (surtout aux examens ministériels et tests internationaux) si les enseignants appliquaient une série d’interventions qui, cumulativement, permettraient d’optimiser les performances des élèves. 
La recherche : un espace scientifique et sociopolitique

Ce type de recherche est donc à même d’inspirer la pratique puisqu’il peut prétendre donner des pistes d’action précises. Or, dans la transmission des résultats de ces études, des aspects cruciaux souvent évoqués par les chercheurs eux-mêmes sont pourtant négligés par des diffuseurs et ceux que l’on nomme les courtiers de connaissances. D’une part, les résultats de ces recherches qui ne concordent pas avec les hypothèses souhaitées sont rarement publiés. Une partie de ces résultats peut faire l’objet d’une publication, évidemment, mais souvent pour mettre en valeur d’autres résultats qui confirment que le projet avait bel et bien raison d’être financé. D’autre part, les élèves inclus dans ces projets sont souvent dits « représentatifs » ou « typiques ». Tester des approches auprès d’élèves identifiés comme ayant des troubles, handicaps, problèmes de santé mentale ou autres difficultés s’avère périlleux pour bon nombre de chercheurs, car l’essai standardisé exige un contrôle étroit des variables qui pourraient avoir un effet sur ce qui est expérimenté. En outre, il importe de souligner une limitation importante des résultats de recherche produits dans de tels protocoles expérimentaux. Il s’agit de ce que nos collègues en sciences médicales nomment la comorbidité – et que nous qualifions de complexité – c’est-à-dire le fait qu’une même personne souffre d’au moins deux troubles. Dans ce cas de figure, qui est plus la règle que l’exception, l’interaction entre les deux maladies est spécifique à chaque personne. Il en ressort qu’elle redevient dans ce cas, un patient porteur d’une singularité irréductible à un guide d’action préétabli exigeant un sens clinique aigu. Qu’en est-il de notre public dans le champ de l’éducation? N’avons-nous pas affaire, dans de nombreuses situations, à des élèves ayant une histoire – sociale, scolaire, familiale, migratoire, etc. – complexe au sein de laquelle interagissent simultanément des facteurs relevant, par exemple, de problématiques sociales, linguistiques, familiales etc.? Ainsi, une question demeure. L’institut a l’intention de mettre en lumière l’intérêt de pratiques venant d’études prétendument très contrôlées, pour favoriser la réussite de qui, au juste? Un tel institut n’a-t-il pas un devoir de s’intéresser surtout aux élèves qui n’entrent pas dans la case des « typiques » ? Et dans cette foulée, quel type de recherche, car il y en a, se penche sur ces élèves? 

Bienvenue parmi les techniciens de l’enseignement...
Sans entrer dans des détails techniques, l’argument central (très séduisant pour le grand public) à la base des recherches de « haute qualité » est donc le suivant : le fait de fonder les affirmations sur un volume important de données expérimentales supposément robustes suffirait, de toute évidence, à attribuer un statut particulier aux résultats en question (un caractère de scientificité). Cependant, il n’est pas explicité, et pourtant très analysé et discuté en philosophie de sciences, qu’une science expérimentale n’est pas que l’accumulation d’affirmations validées empiriquement. Aucun type de recherche n’est à l’abri de ce qu’Edgar Morin (1999)[6] qualifie d’aveuglement paradigmatique. Présupposer que les recherches conduites dans la perspective de produire des « résultats à haut niveau de preuve » sont « les plus valides et les plus robustes » implique de se rendre soi-même aveugle à ce possible aveuglement. Autrement dit, il y a toujours des présupposés, non validés empiriquement, qui guident (donc biaisent) les observations réalisées et les mesures recueillies. Par exemple, comme nous avons déjà dit, la notion de pratique efficace présuppose (sans validation empirique) que l’accumulation de ces micro-résultats serait garante d’un apprentissage à haute valeur ajoutée; que l’apprentissage est le produit prévisible d’un enseignement basé sur des gestes identifiables et explicitables; que les actions effectives des acteurs engagés dans la relation éducative (en particulier, celles des élèves) et que les arrières plans culturels et sociaux au sein desquels ces actions se déroulent ne jouent qu’un rôle secondaire; que la pratique d’enseignement est réductible à l’application d’un ensemble de règles, de principes, de prescriptions permettant d’effectuer une activité; que d’autres actions de l’enseignant que celles prévues par les dispositifs d’enseignement étudiés n’influencent pas les apprentissages des élèves; que la reproduction d’une pratique d’enseignement n’a pas d’effets sur les résultats obtenus et sur les significations des objets de savoirs élaborés. La prétendue objectivité qui émerge de la « preuve » fournie par les données expérimentales est teintée par ces présupposés épistémologiques non explicités. 

Outre ces questions épistémologiques, le champ de l’éducation est éminemment marqué par les contextes (culturel, institutionnel, organisationnel, etc.). Philip Davies de l’université d’Oxford, dont il est difficile d’affirmer qu’il serait un opposant farouche à l’utilisation des résultats de la recherche en éducation, nous mettait déjà en garde il y a près de vingt ans : 
... research that is apparently more generalisable, cumulative, and based on highly representative samples for some purposes may be of little value to those with different practice needs and in quite different contexts from those in which the research took place. There is no such thing as context-free evidence [7]

Cette remarque s’articule directement à la question de la comorbidité abordée plus haut. Elle invite également à questionner le projet de l’institut de compiler des données probantes afin d’en proposer une vulgarisation accompagnée d’un guide d’action. En effet, il y a assez peu de recherches en éducation au Québec produisant des données dites probantes de façon générale et encore moins en situation dite naturelle de façon spécifique. Dès lors, l’institut proposerait aux enseignants avides de prescriptions des données compilées par d’autres interfaces existant dans le monde – majoritairement anglo-américain – telles que la Campbell Collaboration, l’Evidence for Policy and Practice Information Center, What Works Clearinghouse, etc. La seule valeur ajoutée de cet institut serait alors de produire des traductions de recensions systématiques de recherche et des guides d’action qui leur sont associés. Nous ne discuterons pas ici le danger d’une forme de colonisation de la recherche francophone en éducation. Il nous semble plus pertinent de mentionner que la philosophie de la production de données probantes exige, dans le cas où il existerait le moindre doute quant à une différence dans les caractéristiques sociales, culturelles, économiques, politiques, linguistiques, etc., entre le contexte de production et le contexte d’application de l’intervention, de remettre au banc d’essai l’intervention préconisée ! Bien sûr, cette philosophie est discutable, du moins du point de vue d’un esprit rationnel. Toutefois, du point de vue de la raison empirique, il relève d’un impératif catégorique. 

Les recherches de niveau 1 : une(?) science dénuée de tout biais?
Revenons également sur la question de LA science. LES sciences de l’éducation, expression qui pourrait elle-même être interrogée, se fondent sur l’inéluctable interdisciplinarité du champ. Un même phénomène éducatif – par exemple une même séquence d’enseignement – peut être analysé dans le cadre de différentes disciplines et théories (voir Blanchard-Laville, 1997[8]). L’instrument théorique choisi (et a fortiori la démarche méthodologique qui en découle), met en lumière un aspect d’une situation dont les enseignants savent la complexité. Cet instrument « affecte », en quelque sorte, la situation observée. Il en est de même pour les sciences dites « dures » : la physique quantique, qui n’est pas la plus molle des sciences, nous apprend que la mesure d’un phénomène affecterait le phénomène. L’illusion de transparence (je mesure ce qui est) est, depuis plusieurs décennies, remise en question (l’outil de mesure que j’utilise affecte ce que je mesure), même dans les disciplines scientifiques les plus « robustes ». Comment, dès lors, parler de LA science et de résultats dénués de tout biais? 

La définition des critères au fondement des données probantes cache les présupposés théoriques et fait croire, d’une certaine manière, à une interprétation unique. Par exemple, voici un des critères mentionnés : les « données objectives sont celles que tout évaluateur identifierait et interprèterait de façon similaire» (traduction libre de l’International Reading Association). Résumons : si « tout » évaluateur identifie et interprète les données de façon similaire, soit les données « parlent » d’elles-mêmes et imposent aux chercheurs la lecture à réaliser (ce qui nous plonge avec violence dans un empirisme naïf), soit il existe un consensus autour des critères d’interprétation (un paradigme dominant, un seul cadre interprétatif) permettant, par exemple, de définir, définitivement, ce que serait un « lecteur compétent » ou ce que signifierait « connaître les fractions ». Or ceci est loin d’être la réalité en éducation. En absence d’un tel accord interne parmi la communauté de chercheurs et de praticiens, les indicateurs en question sont définis en fonction de références externes (tests standardisés, test internationaux controversés). La question n’est que déplacée : dans la quête obsessionnelle et illusoire d’impartialité, les tests sont modelés et produits à l’image de l’objectivité que l’on cherche à établir. Ainsi, les questions méthodologiques prennent le pas sur les problèmes épistémologiques : ce n’est plus la discussion sur ce que serait un lecteur compétent qui est en question, mais la définition des items d’évaluation permettant clairement et hors tout doute de mesurer une connaissance déterminée. Le patient peut attendre, tant que les statistiques des ambulanciers et des urgentistes sont satisfaisantes. 

Les maux de la fin : personne n’est malade de sa méconnaissance
Malgré quelques résistances corporatistes à l’éventuelle « médicalisation de l’éducation », force est de constater que la figure du médecin et de la médecine (d’une certaine médecine) structure fortement l’imaginaire de ce que devrait être un enseignant. Au moins deux problèmes se posent ici :
  1. la pratique clinique du médecin est plus complexe que la stricte application de « pratiques avérées». Si l’on a figé la figure du médecin comme «technicien» qui puise dans le vademecum le bon médicament pour guérir le malade, la pratique clinique en médecine ne se réduit pas à ce geste (au Québec et peut-être encore plus dans d’autres contrées). Par ailleurs, ce qui est présenté comme un consensus dans un champ professionnel donné n’est pas avéré (compte tenu du propos du document, cela surprend). Le paradigme dominant (en médecine comme en éducation) n’épuise pas les débats scientifiques internes au champ professionnel. Si la santé devait être le champ de référence pour celui de l’éducation, les hypothèses et pratiques conflictuelles devraient avoir droit de cité. 
  2. le document à la base de la consultation (tout comme certains initiateurs de la création d’un tel institut) considère le modèle des pratiques efficaces en santé comme la référence ultime, sans aucune distinction apparente entre « guérir un malade » et « enseigner la lecture ». Espérons que le médecin écoute son patient dans la relation singulière qui s’instaure entre celui dont le corps parle et celui qui est à son chevet. Espérons que l’enseignant (le formateur, le compagnon, le professeur, bref toute personne qui prend la charge le « transmettre ») navigue entre les demandes des élèves et du groupe, de l’école, de la commission scolaire, du ministère, etc., en ayant pour enjeu principal l’éducation du plus grand nombre.
Dans le même ordre d’idées, il est sans doute utile de rappeler que le mouvement de l’Evidence Based Practice (EBP) constituait à l’origine un modèle de formation médicale visant le renforcement du caractère scientifique de la pratique clinique. Il s’agissait de créer les conditions nécessaires pour que les données probantes disponibles trouvent leur place aux côtés d’autres formes de savoirs dans le raisonnement clinique conduisant à la prise de décision relative à ce qu’il convient de mettre en œuvre pour répondre à la demande du patient. Ainsi, le mouvement des données probantes en médecine avait pour finalité de transformer le rapport aux données de recherche des cliniciens par le truchement de la formation.
Ce mouvement a connu de nombreuses dérives au point que les médecins en appellent maintenant à un retour aux sources revalorisant le jugement professionnel et réduisant la mainmise des gestionnaires de la santé sur les décisions cliniques. Pourquoi le groupe de travail ne fait-il pas état de ces critiques et nouvelles avancées dans la gestion de la connaissance? 

Au final, l’insistance de certains quant à la création d’un institut d’excellence en éducation conduit à questionner plutôt les enjeux politiques de celle-ci. Alors que dans le champ médical, le développement de la médecine basée sur des données probantes a été un vecteur de professionnalisation et de renforcement du pouvoir des cadres et gestionnaires ainsi que de dépossession du métier pour les cliniciens par la mise en place d’un système de managed care, cet institut ne risque-t-il pas de concrétiser une voie de professionnalisation pour différents acteurs de la gestion scolaire au risque alors d’une prolétarisation des enseignants?
L’objectif de ce mémoire est finalement d’inviter le groupe de travail à tirer les enseignements des nombreuses recherches analysant l’institutionnalisation de ce mouvement dans différents champs de l’action publique dans différents contextes nationaux. En insistant sur l’idée que le rapport entre recherche et pratique n’est ni automatique ni immédiat, il s’agit aussi pour nous d’inviter le groupe de travail à réfléchir à des modes de régulation des métiers de l’enseignement qui ne soient pas assujettis à la rationalité technique. Telle est la thèse que nous soumettons à la sagacité du lecteur en référence une philosophie de la pratique selon laquelle : « aucune conclusion de recherche scientifique ne peut être convertie en une règle immédiate de l’art d’éduquer » (John Dewey). 

Voici les quelques remarques, trop brièvement exposées sans doute, que le projet d’INEÉ nous amène à formuler. La vitalité du champ de recherche en éducation, comme celle de ses liens à la pratique, repose sur la diversité des hypothèses qui la fondent. L’INEÉ, tel que défini dans le document de consultation, fait fi de cet acquis des sciences. Les signataires, en professeurs qu’ils sont, invitent donc les rédacteurs à revoir leur copie.

--------------------------------------------------------- 
[1] Étienne Bourgeois et Gaëtane Chapelle (2011). Apprendre et faire apprendre, p.25.
 
[2] C’est nous qui soulignons pour signifier qu’il semble s’agir davantage d’un « manifeste pour » qu’une « consultation sur ».
[3]  Christopher Hood (2012). Public Management by numbers as a performance-enhancing drug: Two hypotheses. Public Administration Review, n°72.

[4]  Ministère de l’Éducation et de l’Enseignement supérieur (MÉES). (2017) Politique de la réussite éducative. Le plaisir d’apprendre, la chance de réussir. Québec : Gouvernement du Québec.

[5]  Ellen Brantlinger, R. Jimenez, J. Klingner, M. Pugach, et V. Richardson (2005). Qualitative studies in special education. Exceptional children, 71(2), 195-207.

[6]  Edgar Morin (1999) Les sept savoirs nécessaires à l’éducation du futur. Paris : UNESCO. Récupéré de http://unesdoc.unesco.org/images/0011/001177/117740Fo.pdf

[7]  Philip Davies (1999) What is Evidence-based Education?, British Journal of Educational Studies, 47(2), p.110-111.

[8]  Claudine Blanchard-Laville (Ed.) (1997). Variations sur une leçon de mathématiques. Analyse d'une séquence : L'écriture des grands nombres. Paris : L'Harmattan. 
--------------------------------------------------------- 
Signataires :
Sophie Grossmann, professeure, Département d’éducation et formation spécialisées, UQAM
Gustavo Barallobres, professeur, Département d’éducation et formation spécialisées, UQAM
Marie-Pierre Fortier, professeure, Département d’éducation et formation spécialisées, UQAM
Frédéric Saussez, professeur, Département de pédagogie, Université de Sherbrooke
Claudia Corriveau, professeure, Département d'études sur l'enseignement et l'apprentissage, Université Laval
Jean Horvais, professeur, Département d’éducation et formation spécialisées, UQAM 
Maryvonne Merri, professeure, Département de psychologie, UQAM
Catherine Turcotte, professeure, Département d’éducation et formation spécialisées, UQAM

Avec le soutien de :
Geneviève Audet, professeure, Département d’éducation et formation spécialisées, UQAM 
Yves de Champlain, professeur, Département d’éducation et formation spécialisées, UQAM 
Marie-Hélène Giguère, professeure, Département d’éducation et formation spécialisées, UQAM 
Delphine Odier-Guedj, professeure, Département d’éducation et formation spécialisées, UQAM 
Chantal Ouellet, professeure, Département d’éducation et formation spécialisées, UQAM

Aucun commentaire:

Enregistrer un commentaire

DISCOURS ET POLITIQUES PUBLIQUES DE L’EXCELLENCE : LE CAS DES PÔLES D’EXCELLENCE RURALE EN FRANCE COMME MATIÈRE À PENSER LES PERSPECTIVES EN ÉDUCATION

DISCOURS ET POLITIQUES PUBLIQUES DE L’EXCELLENCE : LE CAS DES PÔLES D’EXCELLENCE RURALE EN FRANCE COMME MATIÈRE À PENSER LES PER...

ARTICLES LES PLUS POPULAIRES