Opinions&Réflexions

Stéphanie Demers : Les pratiques éducatives sont des pratiques humaines et sociales qui ne répondent pas aux algorithmes

Que nous apprennent les batteries d’évaluations nationales sur l’efficacité d’un système éducatif ? Pas grand chose et surtout rien d’essentiel, répond Stéphanie Demers, professeure à l’Université du Québec en Outaouais. Dans cet entretien donné au Café pédagogique elle montre non seulement les retombées négatives de ces système d’évaluation mais aussi leur incapacité à évaluer réellement la valeur d’une éducation. Je vous propose ici le passage concernant les neurosciences et l’intelligence artificielle tout en vous invitant à lire l’entier de cet entretien.

On nous promet pourtant avec les neurosciences et avec l’intelligence artificielle de spectaculaires progrès dans les apprentissages. Qu’en pensez-vous ?

Les neurosciences nous permettent certes de mieux comprendre comment fonctionnent le cerveau et la mécanique de la mémoire à long terme, par exemple. Elles décrivent comment certaines zones du cerveau peuvent être stimulées par une expérience esthétique, par les émotions, etc. C’est utile pour comprendre le phénomène de certaines formes d’apprentissage et la cognition de façon générale, mais ce n’est pas de la pédagogie.

Entre autres interrogations soulevées par le recours aux neurosciences en éducation se trouvent l’idée de traiter l’individu et son action quotidienne – inscrits dans le corps, avec un bagage socioculturel particulier, des repères singuliers, dans des circonstances dynamiques – en fonction de l’activité cérébrale. La promesse des neurosciences de surmonter les limites biologiques et environnementales revient essentiellement à programmer le cerveau des élèves pour atteindre des cibles optimales. Mais les enfants et les jeunes ne sont pas programmables (c’est vrai des humains en général), ils ne sont pas statiques, leur vie ne se résume pas à des chaines cause-effet linéaires, n’en déplaise aux skinnériens de ce monde. N’importe quel enseignant qui œuvre dans une classe de 25 «cerveaux» bien distincts pourra dire combien il importe d’agir en fonction de la complexité humaine qui s’y trouve et des dynamiques variées que cela génère. Cigman et Davis (2009), notamment, soulignent combien le recours aux neurosciences comme solution aux expériences scolaires moins qu’optimales place en péril le sens que l’on donne à l’éducation, la quête du sens de la vie et l’essence de l’existence même.

En ce qui concerne l’intelligence artificielle, même lorsqu’elle «apprend», elle est incapable de jugement qui tient compte de cette complexité dont nous parlons. Les écrits de Cathy O’Neil à ce sujet sont très révélateurs. Les algorithmes ne produisent pas de jugements moraux, par exemple, et peinent à s’adapter à la complexité et aux vides de leur programmation lorsqu’une variable inconnue s’ajoute à la situation dans laquelle ils «agissent». Je dirais que l’intelligence artificielle ne peut pas à moyen ou même à long terme remplacer l’intelligence humaine, son dynamisme, ses dimensions critiques et morales qui font qu’un enseignant arrive à accompagner ses élèves de façon véritablement éducative.

— À lire sur www.cafepedagogique.net/lexpresso/Pages/2018/09/06092018Article636718155200914033.aspx

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.