Toutes les actualités

Partager

Auteur

Christine Gosselin Auteure

Date

21 octobre 2025

Catégories

Enseignement
Formation
Institut Diocésain de Formation (IDF)

Type

Vie d’Église

L’université à l’épreuve de l’intelligence artificielle

Repenser l’évaluation et l’enseignement : entre vigilance, éthique et opportunités

Lors d’un séminaire consacré aux enseignants ce jeudi 16 octobre, Geoffroy Blondiau, avocat au barreau de Bruxelles et spécialiste des questions juridiques et éthiques liées à l’intelligence artificielle, a invité la communauté académique du Grand Séminaire francophone de Belgique et de l’IDF à réfléchir à l’impact profond de l’IA sur l’enseignement supérieur. De la rédaction des mémoires à la formation des professeurs, de la protection des données au sens critique des étudiants, tout l’écosystème universitaire est désormais confronté à un bouleversement sans précédent.

Une révolution déjà bien installée

« L’IA s’impose partout », rappelle le recteur en ouverture. En effet, dans un contexte où les outils d’intelligence artificielle se multiplient et se perfectionnent, les universités ne peuvent plus ignorer leur présence ni leurs usages, qu’ils soient autorisés ou non.
À l’Université de Prague, l’exercice du mémoire a même été supprimé, remplacé par une formation en deux temps. En Belgique, des initiatives émergent : à l’UCL, le chatbot PICCOLO permettra bientôt aux étudiants de dialoguer avec une IA pour obtenir des informations ou déposer des données, tandis que l’ULB a adopté une charte d’utilisation de l’IA encadrant les pratiques étudiantes et professorales.

Des risques réels : éthique, sécurité et autonomie intellectuelle

Si l’IA offre d’immenses possibilités, Geoffroy Blondiau en rappelle les dérives potentielles. « C’est un facilitateur d’attaques informatiques », souligne-t-il. Deepfakes, phishing automatisé, risques de désinformation et atteintes à la vie privée sont désormais à portée de clic.
Les enjeux environnementaux sont également évoqués : « Chaque image générée par une IA représente plusieurs litres d’eau consommés et on peut dire qu’il y a 700 M d’utilisateurs d’IA, soit 27 000 demandes à la seconde !», rappelle l’avocat.

Sur le plan intellectuel, le danger majeur reste la perte d’autonomie et de sens critique : « On délègue à la machine et on ne fait plus le travail de réfléchir soi-même. » Le risque d’uniformisation de la pensée est réel, tout comme celui du plagiat ou de la dépendance aux outils génératifs.

Encadrer sans interdire : le défi réglementaire

L’Union européenne a franchi une étape clé avec l’AI Act, adopté en 2024. Ce règlement encadre les usages autorisés de l’intelligence artificielle et classe certaines applications comme « à haut risque », notamment celles utilisées pour évaluer les étudiants.
En parallèle, le RGPD continue d’imposer une vigilance accrue : les données personnelles ne peuvent être injectées dans des outils d’IA externes sans garantie de sécurité.
« Dans les versions payantes, il existe souvent plus de protection, mais la responsabilité reste humaine », précise maître Blondiau.

Former enseignants et étudiants à la littératie IA

Une enquête menée en 2024 auprès de 4 000 étudiants de 16 pays révèle que 80 % d’entre eux utilisent déjà l’IA, tandis que 58 % estiment ne pas être suffisamment formés. Plus de 70 % souhaitent bénéficier d’une formation dédiée à la « literacy » numérique et à l’éthique de l’IA.

« On ne peut plus interdire ces outils. Il faut apprendre à les utiliser de manière éthique et critique », insiste Geoffroy Blondiau.

L’UNESCO, de son côté, promeut dans un « Référentiel de compétences en IA pour les enseignants », une approche pédagogique structurée autour de trois piliers : enseigner avec l’IA, sur l’IA et pour l’IA, tout en plaçant l’humain au centre.

Adapter l’évaluation et repenser la pédagogie

Les méthodes d’évaluation doivent désormais évoluer. Les outils de détection d’IA – GPTZero, Turnitin, Compilatio, Magister –  restent imparfaits. Certains travaux générés peuvent être indétectables.

Les solutions proposées ? Fermer certaines sources, évaluer la progression étape par étape, ou demander à l’étudiant de se positionner face à une idée générée par une IA.

Autre piste : introduire une déclaration d’utilisation de l’IA au début de chaque travail, vérifier à l’oral les productions écrites, et replacer la démarche intellectuelle au cœur de l’évaluation.

Vers une université augmentée mais responsable

L’intelligence artificielle n’est pas un ennemi, mais un outil d’accompagnement. Utilisée avec discernement, elle peut devenir un assistant de recherche, un partenaire de réflexion, voire un levier d’innovation pédagogique.

« Il faut garder l’humain au centre et promouvoir des IA éthiques et respectueuses de l’environnement », conclut Geoffroy Blondiau. En écho à cette réflexion, le Pape Léon XIV, à l’occasion du Sommet AI for Good 2025 à Genève, rappelait que le développement de l’intelligence artificielle doit s’accompagner de « responsabilité et discernement » en invitant les institutions du monde entier à établir une gouvernance éthique et coordonnée de l’IA, centrée sur la dignité et la liberté de chaque être humain.

Christine Gosselin

Newsletter Restez au courant

Inscrivez-vous pour recevoir nos actualités et événements dans votre boite mail.

« (Nécessaire) » indique les champs nécessaires

Ce champ n’est utilisé qu’à des fins de validation et devrait rester inchangé.