Comme si la musique pouvait ainsi se réduire
à la somme
des notes et des silences qui composent la partition [1]
Le document Pour[2] la création d’un institut national d’excellence en éducation (MEES, 2017) est
soumis pour consultation en cet automne 2017. Le document présente d’abord un corpus de
données statistiques, définit les fondements et les trois objectifs poursuivis par un éventuel
institut et se conclut sur une série de questions auxquelles les acteurs sont invités à répondre,
questions qui gravitent essentiellement autour du statut et de la structure dudit institut. Aucune de
ces questions n’interroge les fondements et la création mêmes de cet institut, ce qui nous amène à
penser que l’INEÉ est acquis. L’impérieuse nécessité de créer cette institution reposerait par
ailleurs sur l’« appui quasi unanime » quant à « l’objectif d’assurer le développement et
l’appropriation des meilleures pratiques éducatives ». Précisons dès maintenant que les lignes qui
suivent ont été rédigées par les tenants du « quasi » dans l’expression usitée « quasi unanime ».
Qu’une institution indépendante se charge de mettre en débat les résultats des recherches
menées et d’assurer le partage des connaissances entre chercheurs et praticiens dans le champ
de l’éducation – qu’il s’agisse du Conseil supérieur de l’éducation ou d’une autre structure – tout
chercheur en éducation ne peut que s’en réjouir, et tout praticien y trouverait du « grain à
moudre ». D’emblée, nous tenons néanmoins à signaler que nous sommes hautement préoccupés
par le choix d’établir sans équivoque la prépondérance d’un type de recherches menant à des
« résultats probants ». C’est bien la diversité des recherches conduites qui permet de comprendre
la complexité inhérente aux enjeux éducatifs que l’on retrouve dans des contextes scolaires
québécois pluriels. Nous souhaitons donc, dans ce mémoire, apporter des réflexions relatives aux
fondements de l’institut projeté plutôt que de discuter des modalités de sa mise en œuvre.
Dans les lignes qui suivent, nous présentons ainsi plusieurs arguments qui nous amènent à
remettre en cause, sur le fond, la création de l’institut :
-
L’usage de la notion de « pratique avérée » est problématique tant dans le champ
scientifique que dans le champ de l’enseignement;
-
Les interventions fondées sur cette notion privilégient la mesure de résultats à court terme
qui ne présagent en rien des dénouements éducatifs à long terme;
-
La croyance indiscutée en des « résultats probants à haut niveau de preuve » occulte
d’une part le fait qu’il s’agisse d’un mode de production de données parmi d’autres et avec
ses propres biais, d’autre part que le champ de la recherche est loin d’être un espace
neutre et qu’il est traversé d’enjeux sociopolitiques;
- La production de savoir n’est pas l’apanage des chercheurs, et les enseignants n’en sont pas que des usagers.
-
Le mirage des « pratiques avérées » ?Lorsqu’il est question de « meilleures pratiques éducatives », elles se déclinent ainsi dans le texte : pratiques issues de la recherche, pratiques les plus prometteuses, pratiques efficaces, sans oublier l’expression « pratiques avérées » qui est mentionnée à sept reprises dans le document d’une vingtaine de pages. Cette dernière expression, tout comme celle de « résultats probants à haut niveau de preuve » qui la sous-tend, et dont nous traiterons plus loin, laisse perplexe. Il existerait donc des pratiques clés en main, des pratiques démontrant un statut de vérité indiscutable (« avérées »), connues des chercheurs en éducation et dont ils garderaient jalousement le secret ? Les chercheurs, représentants de LA science, détiendraient la vérité des pratiques à mobiliser dans les classes, toutes les classes, pour tous les élèves, quel que soit l’ordre d’enseignement, la discipline enseignée, le savoir concerné, le contexte organisationnel, culturel, social et économique local et global dans lesquels elles se déploient. Conséquemment, une formation adéquate des enseignants basée sur des recherches dites de haute qualité (et, si possible, assurée par les chercheurs afin d’éviter des distorsions dans le « transfert ») suffirait à garantir l’efficacité de leurs actions, à court, moyen et long termes. L’enseignant n’aurait ainsi qu’à puiser dans ce réservoir de bonnes pratiques, à les « adopter », comme le premier objectif de l’institut y invite, à les adapter quelque peu à la situation pour enfin constater une amélioration de la performance des élèves aux examens ministériels ou aux tests du PISA (Programme international pour le suivi des acquis des élèves). Ces résultats correspondent à ce que les sciences de la gestion qualifient d’outputs.
La logique marchande : le cumul de petits gains se solderait par une grosse fortune
Mesurer quoi et comment ?
Restons un instant sur cette notion d’outputs. En gestion, les outputs sont des résultats à court
terme, tangibles, sonnants et trébuchants (l’élève sait-il déchiffrer les syllabes?). Les outcomes
relèvent de finalités à plus long terme (la personne peut-elle puiser dans l’univers de la langue
pour vivre, travailler, penser, rêver, innover?). Insister sur les seuls résultats à court terme (la
réussite à l’examen – b-a-ba) ne garantit pas l’atteinte de finalités au long cours (vivre, penser,
etc.), voire pourrait leur nuire. Les politologues et les sociologues qui s’intéressent à la nouvelle
gouvernance en éducation ont mis en évidence ce qui distingue ces deux types de résultats. Les
premiers concernent donc des résultats à court terme, des performances qui permettent de
mesurer l’état d’un système (par exemple le taux de réussite aux différents examens du ministère
de l’éducation qui jalonnent la scolarité des élèves). On présuppose que l’accumulation de ces
micro-résultats serait garante d’un apprentissage à haute valeur ajoutée (car dans l’économie du
savoir, les connaissances sont considérées comme un capital). Les seconds, plus volatiles et
complexes, concernent ce qui advient à long terme dans une société. Il s’agit d’un horizon, d’un
but vers lequel tendre, mais dont on sait peu – humilité de tout penseur oblige – quelle voies il
emprunte pour s’actualiser. Qu’arrive-t-il lorsque les cibles à court terme prennent le pas sur la
vision du long terme? Christopher Hood[3], s’intéressant à la gestion axée sur les résultats a
examiné les pratiques des ambulanciers et des personnels hospitaliers œuvrant dans les services
d’urgence. Et il a rappelé, il y a quelques années, les effets pervers de la prévalence des résultats
(outputs) sur les finalités (outcomes) dans le domaine de la santé. Face à une injonction de
résultats (outputs) – les ambulanciers devaient amener les patients vers l’hôpital dans un minimum
de temps; réciproquement, le temps entre l’arrivée du patient au service des urgences et sa prise
en charge devait être minimal – chacun répondant aux exigences de résultats, voici ce qu’il
advint : les ambulanciers amenaient les patients dans les temps à l’hôpital; les personnels
travaillant à l’urgence retardaient l’inscription des patients pour répondre aux exigences de
résultats. Les ambulanciers comme les urgentistes respectaient les critères de performance et les
patients restaient dans l’ambulance tant qu’une place n’était pas disponible dans le service
d’urgence. Les outputs (statistiques) étaient respectés, et les patients garés dans le stationnement
de l’hôpital. Peut-on vraiment en déduire que la santé publique (outcome) était servie?
Si la proposition telle que présentée dans le document soumis pour consultation allait de l’avant,
nous courons tous le risque que le champ couvert par les recherches considérées dans les
travaux de l’institut soit restreint par le choix même de l’indicateur principal
sélectionné : « l’évolution de la part des diplômes dans le taux de diplomation et de qualification
par cohorte au secondaire observé après cinq ans ». En effet, il est étonnant de constater
l’exclusivité de cet indicateur quand on sait la multiplicité des enjeux auxquels font face les milieux
scolaires, en particulier les enseignants et les élèves. Or, l’obtention d’un diplôme, mesurée par
des outputs additionnés en bout de parcours, n’est pas garante du développement global de
chaque élève, un outcome réaffirmé dans la récente Politique de la réussite éducative (MÉES, 2017)[4] et porteur d’un bien plus large éventail d’objets d’études. L’apprentissage dépasse la
capacité à réussir une épreuve précise à un moment donné. Par ailleurs, un autre danger se
profile à l’horizon : la proposition de projet de l’INEÉ impose des contraintes quant au choix de la
démarche méthodologique employée; une autre voie méthodologique que celle préconisée
conduirait l’organisme à ignorer bon nombre de travaux qui font pourtant écho à ce que vivent les
praticiens : la recherche-action, la recherche collaborative visant le développement de pratiques
adaptées à un public et à un contexte précis par exemple. Ces recherches dites participatives font
de la relation (à entretenir) entre un champ de recherche et une pratique professionnelle un thème
central de leur réflexion, tant sur le plan de la constitution de l’objet de recherche/d’intervention et
de la démarche méthodologique que sur le plan éthique. Elles amènent notamment à réinterroger
les relations entre le chercheur, souvent considéré comme un expert, et l'enseignant, considéré
comme un novice ou un utilisateur de connaissances. Le document soumis pour consultation
semble méconnaître ces travaux et privilégier une relation d’expert à utilisateur. Ainsi, avec
l’institut proposé, nous faisons face à l’orientation à la fois des objets d’étude et de la
méthodologie, ce à quoi nous nous opposons sans réserve.
Des statistiques satisfaisantes démontrées par des données probantes : est-il avéré qu’il y
a un pilote dans l’avion?
Revenons un instant sur ce qui caractérise les « pratiques avérées ». Elles sont, dixit le document
soumis, fondées sur des « résultats probants à haut niveau de preuve ». Qu’est-ce donc qu’un
résultat probant à haut niveau de preuve? Le texte le précise : il s’agit de résultats produits par des
recherches de type 1 (que nous pourrions requalifier de « médaille d’or » des recherches) : essais
comparatifs hasardisés de forte puissance ; méta-analyse d’essais comparatifs hasardisés ;
analyse de décision fondée sur des études bien menées. Laissons de côté, pour le moment, cette
dernière catégorie qui, pour tout chercheur rigoureux, manque cruellement de précision. Tout ce
qui relèverait de la recherche qualitative – études rétrospectives, séries de cas, études
épidémiologiques descriptives (transversale, longitudinale) – serait ainsi de « faible niveau
scientifique ». L’histoire, l’anthropologie, l’ethnographie voire des pans théoriques entiers de la
didactique, de la pédagogie, de la sociologie, de la psychologie, etc., seraient donc à jeter aux
orties. Tout ce qui a fondé la mouvance de l’école inclusive par exemple (voir Brantlinger et al.
2005[5]), serait ainsi nul et non avenu. Comment se réjouir de l’exclusion de telles recherches de
« faible niveau scientifique » qui ont pourtant modifié radicalement notre regard sur l’altérité? On
ne peut ignorer que différents types de recherches s’intéressent à différents objets du champ
éducatif et permettent d’étudier un même objet sous des angles complémentaires. Exclure ou
qualifier de moins importantes les recherches descriptives longitudinales ou les séries de cas
rigoureusement documentés par exemple conduirait à réduire les potentialités de réflexion pour praticiens et chercheurs qui tentent de résoudre des problèmes complexes rencontrés dans
l’action pédagogique et ce dans le contexte particulier dans lequel s’inscrit telle ou telle pratique.
Mais que sont ces essais hasardisés et méta-analyses qui seraient au fondement des « pratiques
avérées »? Pour ceux qui méconnaîtraient ce jargon de chercheur, l’essai standardisé (parfois
qualifié de «randomisé» par contagion linguistique) fonctionne globalement de la manière
suivante: des recherches antérieures montrent que l’utilisation de telle technique (ou tel
médicament) a davantage d’effet sur telle performance (tel indicateur biologique) que si l’on
n’intervient pas (groupe témoin, groupe auquel on administre un placebo). On multiplie donc cette
expérimentation à plusieurs reprises, on l’administre au plus grand nombre, et l’on en déduit que la
pratique (qui se limite dans les faits à une intervention de courte durée) est la « meilleure » car elle
produit les effets souhaités (une meilleure performance au test X). Il s’ensuit que l’enseignement,
dans sa longue durée (de 5 ans à 16 ans dans le contexte actuel, voire plus si l’on considère
l’éducation tout au long de la vie), pourrait mener à une plus grande réussite des élèves (surtout
aux examens ministériels et tests internationaux) si les enseignants appliquaient une série
d’interventions qui, cumulativement, permettraient d’optimiser les performances des élèves.
La recherche : un espace scientifique et sociopolitique
Bienvenue parmi les techniciens de l’enseignement...
Ce type de recherche est donc à même d’inspirer la pratique puisqu’il peut prétendre donner des
pistes d’action précises. Or, dans la transmission des résultats de ces études, des aspects
cruciaux souvent évoqués par les chercheurs eux-mêmes sont pourtant négligés par des
diffuseurs et ceux que l’on nomme les courtiers de connaissances. D’une part, les résultats de ces
recherches qui ne concordent pas avec les hypothèses souhaitées sont rarement publiés. Une
partie de ces résultats peut faire l’objet d’une publication, évidemment, mais souvent pour mettre
en valeur d’autres résultats qui confirment que le projet avait bel et bien raison d’être financé.
D’autre part, les élèves inclus dans ces projets sont souvent dits « représentatifs » ou « typiques ».
Tester des approches auprès d’élèves identifiés comme ayant des troubles, handicaps, problèmes
de santé mentale ou autres difficultés s’avère périlleux pour bon nombre de chercheurs, car l’essai
standardisé exige un contrôle étroit des variables qui pourraient avoir un effet sur ce qui est
expérimenté. En outre, il importe de souligner une limitation importante des résultats de recherche
produits dans de tels protocoles expérimentaux. Il s’agit de ce que nos collègues en sciences
médicales nomment la comorbidité – et que nous qualifions de complexité – c’est-à-dire le fait
qu’une même personne souffre d’au moins deux troubles. Dans ce cas de figure, qui est plus la
règle que l’exception, l’interaction entre les deux maladies est spécifique à chaque personne. Il en
ressort qu’elle redevient dans ce cas, un patient porteur d’une singularité irréductible à un guide
d’action préétabli exigeant un sens clinique aigu. Qu’en est-il de notre public dans le champ de
l’éducation? N’avons-nous pas affaire, dans de nombreuses situations, à des élèves ayant une
histoire – sociale, scolaire, familiale, migratoire, etc. – complexe au sein de laquelle interagissent
simultanément des facteurs relevant, par exemple, de problématiques sociales, linguistiques,
familiales etc.? Ainsi, une question demeure. L’institut a l’intention de mettre en lumière l’intérêt de
pratiques venant d’études prétendument très contrôlées, pour favoriser la réussite de qui, au
juste? Un tel institut n’a-t-il pas un devoir de s’intéresser surtout aux élèves qui n’entrent pas dans
la case des « typiques » ? Et dans cette foulée, quel type de recherche, car il y en a, se penche
sur ces élèves?
Sans entrer dans des détails techniques, l’argument central (très séduisant pour le grand public) à
la base des recherches de « haute qualité » est donc le suivant : le fait de fonder les affirmations
sur un volume important de données expérimentales supposément robustes suffirait, de toute
évidence, à attribuer un statut particulier aux résultats en question (un caractère de scientificité).
Cependant, il n’est pas explicité, et pourtant très analysé et discuté en philosophie de sciences,
qu’une science expérimentale n’est pas que l’accumulation d’affirmations validées empiriquement.
Aucun type de recherche n’est à l’abri de ce qu’Edgar Morin (1999)[6] qualifie d’aveuglement
paradigmatique. Présupposer que les recherches conduites dans la perspective de produire des
« résultats à haut niveau de preuve » sont « les plus valides et les plus robustes » implique de se
rendre soi-même aveugle à ce possible aveuglement. Autrement dit, il y a toujours des
présupposés, non validés empiriquement, qui guident (donc biaisent) les observations réalisées et
les mesures recueillies. Par exemple, comme nous avons déjà dit, la notion de pratique efficace
présuppose (sans validation empirique) que l’accumulation de ces micro-résultats serait garante
d’un apprentissage à haute valeur ajoutée; que l’apprentissage est le produit prévisible d’un
enseignement basé sur des gestes identifiables et explicitables; que les actions effectives des
acteurs engagés dans la relation éducative (en particulier, celles des élèves) et que les arrières
plans culturels et sociaux au sein desquels ces actions se déroulent ne jouent qu’un rôle
secondaire; que la pratique d’enseignement est réductible à l’application d’un ensemble de règles,
de principes, de prescriptions permettant d’effectuer une activité; que d’autres actions de
l’enseignant que celles prévues par les dispositifs d’enseignement étudiés n’influencent pas les
apprentissages des élèves; que la reproduction d’une pratique d’enseignement n’a pas d’effets sur
les résultats obtenus et sur les significations des objets de savoirs élaborés. La prétendue objectivité qui émerge de la « preuve » fournie par les données expérimentales est teintée par ces
présupposés épistémologiques non explicités.
Outre ces questions épistémologiques, le champ de l’éducation est éminemment marqué par les
contextes (culturel, institutionnel, organisationnel, etc.). Philip Davies de l’université d’Oxford, dont
il est difficile d’affirmer qu’il serait un opposant farouche à l’utilisation des résultats de la recherche
en éducation, nous mettait déjà en garde il y a près de vingt ans :
... research that is apparently more generalisable, cumulative, and based on highly
representative samples for some purposes may be of little value to those with different
practice needs and in quite different contexts from those in which the research took
place. There is no such thing as context-free evidence [7]
Cette remarque s’articule directement à la question de la comorbidité abordée plus haut. Elle invite
également à questionner le projet de l’institut de compiler des données probantes afin d’en
proposer une vulgarisation accompagnée d’un guide d’action. En effet, il y a assez peu de
recherches en éducation au Québec produisant des données dites probantes de façon générale et
encore moins en situation dite naturelle de façon spécifique. Dès lors, l’institut proposerait aux
enseignants avides de prescriptions des données compilées par d’autres interfaces existant dans
le monde – majoritairement anglo-américain – telles que la Campbell Collaboration, l’Evidence for
Policy and Practice Information Center, What Works Clearinghouse, etc. La seule valeur ajoutée
de cet institut serait alors de produire des traductions de recensions systématiques de recherche
et des guides d’action qui leur sont associés. Nous ne discuterons pas ici le danger d’une forme de
colonisation de la recherche francophone en éducation. Il nous semble plus pertinent de
mentionner que la philosophie de la production de données probantes exige, dans le cas où il
existerait le moindre doute quant à une différence dans les caractéristiques sociales, culturelles,
économiques, politiques, linguistiques, etc., entre le contexte de production et le contexte
d’application de l’intervention, de remettre au banc d’essai l’intervention préconisée ! Bien sûr,
cette philosophie est discutable, du moins du point de vue d’un esprit rationnel. Toutefois, du point
de vue de la raison empirique, il relève d’un impératif catégorique.
Revenons également sur la question de LA science. LES sciences de l’éducation, expression qui
pourrait elle-même être interrogée, se fondent sur l’inéluctable interdisciplinarité du champ. Un
même phénomène éducatif – par exemple une même séquence d’enseignement – peut être
analysé dans le cadre de différentes disciplines et théories (voir Blanchard-Laville, 1997[8]).
L’instrument théorique choisi (et a fortiori la démarche méthodologique qui en découle), met en
lumière un aspect d’une situation dont les enseignants savent la complexité. Cet instrument
« affecte », en quelque sorte, la situation observée. Il en est de même pour les sciences dites
« dures » : la physique quantique, qui n’est pas la plus molle des sciences, nous apprend que la
mesure d’un phénomène affecterait le phénomène. L’illusion de transparence (je mesure ce qui
est) est, depuis plusieurs décennies, remise en question (l’outil de mesure que j’utilise affecte ce
que je mesure), même dans les disciplines scientifiques les plus « robustes ». Comment, dès lors,
parler de LA science et de résultats dénués de tout biais?
La définition des critères au fondement des données probantes cache les présupposés théoriques
et fait croire, d’une certaine manière, à une interprétation unique. Par exemple, voici un des
critères mentionnés : les « données objectives sont celles que tout évaluateur identifierait et
interprèterait de façon similaire» (traduction libre de l’International Reading Association).
Résumons : si « tout » évaluateur identifie et interprète les données de façon similaire, soit les
données « parlent » d’elles-mêmes et imposent aux chercheurs la lecture à réaliser (ce qui nous
plonge avec violence dans un empirisme naïf), soit il existe un consensus autour des critères
d’interprétation (un paradigme dominant, un seul cadre interprétatif) permettant, par exemple, de définir, définitivement, ce que serait un « lecteur compétent » ou ce que signifierait « connaître les
fractions ». Or ceci est loin d’être la réalité en éducation. En absence d’un tel accord interne parmi
la communauté de chercheurs et de praticiens, les indicateurs en question sont définis en fonction
de références externes (tests standardisés, test internationaux controversés). La question n’est
que déplacée : dans la quête obsessionnelle et illusoire d’impartialité, les tests sont modelés et
produits à l’image de l’objectivité que l’on cherche à établir. Ainsi, les questions méthodologiques
prennent le pas sur les problèmes épistémologiques : ce n’est plus la discussion sur ce que serait
un lecteur compétent qui est en question, mais la définition des items d’évaluation permettant
clairement et hors tout doute de mesurer une connaissance déterminée. Le patient peut attendre,
tant que les statistiques des ambulanciers et des urgentistes sont satisfaisantes.
Les maux de la fin : personne n’est malade de sa méconnaissance
Malgré quelques résistances corporatistes à l’éventuelle « médicalisation de l’éducation », force
est de constater que la figure du médecin et de la médecine (d’une certaine médecine) structure
fortement l’imaginaire de ce que devrait être un enseignant. Au moins deux problèmes se posent
ici :
- la pratique clinique du médecin est plus complexe que la stricte application de « pratiques avérées». Si l’on a figé la figure du médecin comme «technicien» qui puise dans le vademecum le bon médicament pour guérir le malade, la pratique clinique en médecine ne se réduit pas à ce geste (au Québec et peut-être encore plus dans d’autres contrées). Par ailleurs, ce qui est présenté comme un consensus dans un champ professionnel donné n’est pas avéré (compte tenu du propos du document, cela surprend). Le paradigme dominant (en médecine comme en éducation) n’épuise pas les débats scientifiques internes au champ professionnel. Si la santé devait être le champ de référence pour celui de l’éducation, les hypothèses et pratiques conflictuelles devraient avoir droit de cité.
- le document à la base de la consultation (tout comme certains initiateurs de la création d’un tel institut) considère le modèle des pratiques efficaces en santé comme la référence ultime, sans aucune distinction apparente entre « guérir un malade » et « enseigner la lecture ». Espérons que le médecin écoute son patient dans la relation singulière qui s’instaure entre celui dont le corps parle et celui qui est à son chevet. Espérons que l’enseignant (le formateur, le compagnon, le professeur, bref toute personne qui prend la charge le « transmettre ») navigue entre les demandes des élèves et du groupe, de l’école, de la commission scolaire, du ministère, etc., en ayant pour enjeu principal l’éducation du plus grand nombre.
Dans le même ordre d’idées, il est sans doute utile de rappeler que le mouvement de l’Evidence
Based Practice (EBP) constituait à l’origine un modèle de formation médicale visant le
renforcement du caractère scientifique de la pratique clinique. Il s’agissait de créer les conditions
nécessaires pour que les données probantes disponibles trouvent leur place aux côtés d’autres
formes de savoirs dans le raisonnement clinique conduisant à la prise de décision relative à ce
qu’il convient de mettre en œuvre pour répondre à la demande du patient. Ainsi, le mouvement
des données probantes en médecine avait pour finalité de transformer le rapport aux données de
recherche des cliniciens par le truchement de la formation.
Ce mouvement a connu de nombreuses dérives au point que les médecins en appellent
maintenant à un retour aux sources revalorisant le jugement professionnel et réduisant la
mainmise des gestionnaires de la santé sur les décisions cliniques. Pourquoi le groupe de travail
ne fait-il pas état de ces critiques et nouvelles avancées dans la gestion de la connaissance?
Au final, l’insistance de certains quant à la création d’un institut d’excellence en éducation conduit
à questionner plutôt les enjeux politiques de celle-ci. Alors que dans le champ médical, le
développement de la médecine basée sur des données probantes a été un vecteur de professionnalisation et de renforcement du pouvoir des cadres et gestionnaires ainsi que de
dépossession du métier pour les cliniciens par la mise en place d’un système de managed care,
cet institut ne risque-t-il pas de concrétiser une voie de professionnalisation pour différents acteurs
de la gestion scolaire au risque alors d’une prolétarisation des enseignants?
L’objectif de ce mémoire est finalement d’inviter le groupe de travail à tirer les enseignements des
nombreuses recherches analysant l’institutionnalisation de ce mouvement dans différents champs
de l’action publique dans différents contextes nationaux. En insistant sur l’idée que le rapport entre
recherche et pratique n’est ni automatique ni immédiat, il s’agit aussi pour nous d’inviter le groupe
de travail à réfléchir à des modes de régulation des métiers de l’enseignement qui ne soient pas
assujettis à la rationalité technique. Telle est la thèse que nous soumettons à la sagacité du
lecteur en référence une philosophie de la pratique selon laquelle : « aucune conclusion de
recherche scientifique ne peut être convertie en une règle immédiate de l’art d’éduquer » (John
Dewey).
Voici les quelques remarques, trop brièvement exposées sans doute, que le projet d’INEÉ nous
amène à formuler. La vitalité du champ de recherche en éducation, comme celle de ses liens à la
pratique, repose sur la diversité des hypothèses qui la fondent. L’INEÉ, tel que défini dans le
document de consultation, fait fi de cet acquis des sciences. Les signataires, en professeurs qu’ils
sont, invitent donc les rédacteurs à revoir leur copie.
---------------------------------------------------------
[1] Étienne Bourgeois et Gaëtane Chapelle (2011). Apprendre et faire apprendre, p.25.
[2] C’est nous qui soulignons pour signifier qu’il semble s’agir davantage d’un « manifeste pour » qu’une « consultation sur ».
[4] Ministère de l’Éducation et de l’Enseignement supérieur (MÉES). (2017) Politique de la réussite éducative. Le plaisir d’apprendre, la chance de réussir. Québec : Gouvernement du Québec.
[5] Ellen Brantlinger, R. Jimenez, J. Klingner, M. Pugach, et V. Richardson (2005). Qualitative studies in special education. Exceptional children, 71(2), 195-207.
[6] Edgar Morin (1999) Les sept savoirs nécessaires à l’éducation du futur. Paris : UNESCO. Récupéré de http://unesdoc.unesco.org/images/0011/001177/117740Fo.pdf
[7] Philip Davies (1999) What is Evidence-based Education?, British Journal of Educational Studies, 47(2), p.110-111.
[8] Claudine Blanchard-Laville (Ed.) (1997). Variations sur une leçon de mathématiques. Analyse d'une séquence : L'écriture des grands nombres. Paris : L'Harmattan.
---------------------------------------------------------
Sophie Grossmann, professeure, Département d’éducation et formation spécialisées, UQAM
Gustavo Barallobres, professeur, Département d’éducation et formation spécialisées, UQAM
Marie-Pierre Fortier, professeure, Département d’éducation et formation spécialisées, UQAM
Frédéric Saussez, professeur, Département de pédagogie, Université de Sherbrooke
Claudia Corriveau, professeure, Département d'études sur l'enseignement et l'apprentissage, Université Laval
Jean Horvais, professeur, Département d’éducation et formation spécialisées, UQAM
Maryvonne Merri, professeure, Département de psychologie, UQAM
Catherine Turcotte, professeure, Département d’éducation et formation spécialisées, UQAM
Avec le soutien de :
Geneviève Audet, professeure, Département d’éducation et formation spécialisées, UQAM
Yves de Champlain, professeur, Département d’éducation et formation spécialisées, UQAM
Marie-Hélène Giguère, professeure, Département d’éducation et formation spécialisées, UQAM
Delphine Odier-Guedj, professeure, Département d’éducation et formation spécialisées, UQAM
Chantal Ouellet, professeure, Département d’éducation et formation spécialisées, UQAM
Geneviève Audet, professeure, Département d’éducation et formation spécialisées, UQAM
Yves de Champlain, professeur, Département d’éducation et formation spécialisées, UQAM
Marie-Hélène Giguère, professeure, Département d’éducation et formation spécialisées, UQAM
Delphine Odier-Guedj, professeure, Département d’éducation et formation spécialisées, UQAM
Chantal Ouellet, professeure, Département d’éducation et formation spécialisées, UQAM
Aucun commentaire:
Enregistrer un commentaire