top of page
Rechercher

Intelligence artificielle et jeunesse : promesses pédagogiques et dérives sociotechniques

  • Photo du rédacteur: ISFORT MAROC
    ISFORT MAROC
  • 14 mai
  • 2 min de lecture

Dernière mise à jour : il y a 6 jours


L’intelligence artificielle (IA), de plus en plus présente dans les environnements éducatifs et sociaux, représente à la fois une ressource prometteuse et un vecteur potentiel d’inégalités pour les enfants et les adolescents. À l’occasion de la Journée internationale des droits de l’enfant, plusieurs organisations, dont l’UNICEF, ont alerté sur les effets différenciés, parfois délétères, que ces technologies peuvent produire. Cet article examine les principaux enjeux liés à l’usage de l’IA dans le cadre scolaire, les processus d’évaluation, les réseaux sociaux, ainsi que les risques émergents associés aux contenus falsifiés.

1. L’IA à l’école : entre personnalisation et reproduction des inégalités


L’Intelligence Artificielle à l’école

Les outils d’apprentissage assistés par l’IA permettent une adaptation fine aux besoins des élèves, favorisant potentiellement une pédagogie différenciée. Toutefois, des biais algorithmiques peuvent conduire à des effets d’exclusion. Des élèves issus de milieux socioéconomiques défavorisés ou présentant des profils cognitifs atypiques (TDAH, dyslexie, TSA) peuvent être systématiquement orientés vers des contenus simplifiés, limitant leurs opportunités de développement, indépendamment de leurs compétences réelles.

2. Évaluation algorithmique : quand la technologie échoue à garantir l’équité


systèmes algorithmiques

Le recours à des systèmes algorithmiques pour l’évaluation scolaire, comme ce fut le cas au Royaume-Uni durant la crise sanitaire de 2020, a mis en évidence les risques de reproduction des inégalités structurelles. Des élèves performants ont vu leurs résultats abaissés en raison de la faible réputation de leur établissement. Par ailleurs, des logiciels de surveillance d’examens en ligne ont accusé à tort des étudiants à la peau foncée ou porteurs de handicaps, révélant les limites techniques et éthiques des systèmes de reconnaissance automatisée.

3. Réseaux sociaux et santé mentale : la logique de l’engagement algorithmique


engagement algorithmique

Chez les adolescents, l’usage intensif des réseaux sociaux expose à une sélection algorithmique de contenus souvent extrêmes, normatifs ou anxiogènes. Plusieurs études soulignent l’impact de ces contenus sur la santé mentale, en particulier chez les jeunes filles confrontées à des injonctions esthétiques irréalistes. Cette logique d’optimisation de l’engagement au détriment du bien-être des utilisateurs mineurs interroge la responsabilité des plateformes et la nécessité d’un encadrement renforcé.

4. Deepfakes et violences numériques : de nouveaux risques à l’adolescence

Les technologies de génération d’images ou de vidéos synthétiques (deepfakes) facilitent la création de contenus trompeurs, parfois utilisés à des fins de harcèlement. En Espagne, des élèves ont diffusé de fausses images à caractère sexuel de camarades, entraînant des situations de violence symbolique et sociale. Ces dérives soulignent l’urgence d’une régulation adaptée aux usages juvéniles des technologies de manipulation numérique.

Conclusion : pour une IA éthique et inclusive au service de la jeunesse

Les promesses de l’IA ne pourront être pleinement réalisées que si elles s’accompagnent de cadres éthiques rigoureux, de mécanismes de transparence, et d’une participation active des jeunes aux débats sur le numérique. Plutôt que de laisser les algorithmes décider seuls de leur avenir, il est essentiel d’ouvrir des espaces de réflexion, de régulation et d’éducation critique pour un numérique plus juste, inclusif et protecteur des droits des enfants.

 
 
 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page