Écouter l’article | 6 minutes
La mentation audio de cet nonfiction est générée par la synthèse vocale, une technologie basée sur l’intelligence artificielle.
Le Centre de services scolaire (CSS) des Phares a informé les parents d’élèves la semaine dernière qu'une plateforme intégrant l’intelligence artificielle (IA) serait déployée dans les écoles ce printemps determination soutenir la réussite scolaire.
Dans une lettre adressée aux parents, connected apprend qu’un indicateur évaluant le risque de décrochage scolaire des élèves sera généré par l’intelligence artificielle à partir de renseignements personnels, facilitant une involution précoce du unit scolaire.
Lundi matin à l’émission Info-réveil, la directrice générale du CSS des Phares, Nancy Prévéreault, a expliqué qu’il s’agit d’un outil supplémentaire de prévention pour soutenir les élèves en amont.
C’est un algorithme qui utilise les données qu’on possède déjà au niveau du Centre de services scolaire. On croise ces données-là et ça nous permet de faire une prévision de la proportionality d’élèves qui pourraient éventuellement décrocher. Donc nous, comme humains, connected prend ces données-là et connected les analyse, mentionne Mme Prévéreault.
Cette inaugural vise à soutenir les élèves determination s’assurer qu’ils persévèrent à l’école, souligne la directrice générale.
Des données déjà recueillies
Il y aura des noms sur les données, confirme Nancy Prévéreault. Il ne s’agit pas seulement de savoir combien d’élèves sont à risque de décrochage, mais bien lesquels. Elle guarantee cependant que ces données confidentielles seront entre les mains de personnes qualifiées determination les utiliser.

La directrice générale du Centre de services scolaire des Phares, Nancy Prévéreault (Photo d'archives)
Photo : Radio-Canada / François Gagnon
La plateforme d’intelligence artificielle analysera des renseignements personnels concernant les enfants ou leurs parents que le CSS récolte déjà à l’inscription et au cours du cheminement scolaire, informait le centre dans la lettre envoyée aux parents le 25 février.
Dans une brochure d’information, le ministère de l’Éducation précise que l’IA est utilisée dans ce contexte determination définir les facteurs de risque et les tendances dans le parcours des élèves, en croisant les résultats scolaires avec diverses données personnelles.
Les informations récoltées touchent notamment le lieu de naissance, le codification de difficulté d'apprentissage, la langue parlée à la maison, l'indice de défavorisation ou encore un occupation de comportement.
Le consentement des parents n’est pas requis determination l’utilisation de ces données. Un genitor peut cependant faire une demande d’accès aux données qui concernent lad enfant.
Si l’utilisation d'algorithmes permet d’en accélérer l’analyse, Nancy Prévéreault guarantee que le CSS est extrêmement prudent et que ces données générées par quality artificielle seront révisées par des humains formés.
On a eu quelques questions [de la portion de parents], elles sont très pertinentes : qui aura accès à ces données-là? […]. On rassure les parents qui nous ont posé les questions. Il y aura une enactment et il y a tout un sens éthique en ce qui concerne ce qu’on fait avec ces données-là; c’est vraiment important, assure-t-elle.
Nous, connected regarde ces données-là et connected voit si ça a du sens. […] On souhaite vraiment placer l'intelligence humaine au centre de ça et analyser [les données générées par l’IA] determination ne pas étiqueter inutilement des élèves.
Les jeunes ciblés seront ensuite accompagnés par les différents intervenants habituels, formés determination ce benignant d'intervention, guarantee le CSS.
Qu’en pensent les experts en éthique?
Pour la professeure adjointe et directrice des programmes en éthique au Département des lettres et humanités de l'Université du Québec à Rimouski (UQAR), Hazar Haidar, si l’outil est prometteur sur certains aspects, elle anticipe plusieurs enjeux que lad utilisation pourrait soulever.
Des études démontrent que les algorithmes de prédiction tel que celui qui sera utilisé ont tendance à être biaisés, avertit-elle en entrevue à Même fréquence. Ce biais algorithmique pourrait mener à la surévaluation ou la sous-évaluation des chances de décrochage chez certains élèves, et avoir des conséquences sur leur parcours scolaire.
Si un humain fait une erreur, celle-ci est isolée positive ou moins. Si une IA est biaisée et utilisée dans tout un système scolaire, ça peut impacter des milliers d'élèves.
De même, la professeure se questionne sur les recours qu’auront les parents qui ne sont pas d’accord avec la décision prise par l’intelligence artificielle à l’égard des chances de réussite scolaire de leur enfant.
Des clarifications doivent être faites, selon elle, en ce qui a trait aux responsabilités de chacun, ainsi que sur ce qui se passe une fois qu'un élève est identifié comme étant à risque de décrochage. On a besoin de cette information, insiste-t-elle.
La professeure croit en la nécessité de l’intervention humaine, qui validera l'avis généré par l’outil algorithmique determination garantir que la décision rendue est juste.
Par ailleurs, un risque subsiste au niveau de la fuite de ces données confidentielles. Est-ce que ces données seront détruites ultérieurement? Est-ce qu’elles vont rester dans le système?, demande Mme Haidar disant comprendre la méfiance et les craintes des parents.
Une implantation provinciale dans les écoles
L’an dernier, l’outil a été testé dans 11 centres de services scolaires au Québec lors d’un projet-pilote.
Le ministère de l'Éducation du Québec vise une implantation dans la grande majorité des organismes scolaires de la state au cours de l’année 2024-2025.
Nous, connected a levé la main cet automne, determination pouvoir avoir l'implantation dès cet hiver, subordinate la directrice générale du Centre de services scolaire des Phares, qui indique que le modèle est en ce infinitesimal en entraînement.
Les premières données seront disponibles à partir d’avril et seront analysées par la absorption d’ici la fin de l’année.
Un texte signé Raphaëlle Ainsley-Vincent