Décryptage technologique

ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire

Depuis l’arrivée de ChatGPT, les écoles et universités se retrouvent face à un défi de taille : comment intégrer ces outils sans compromettre leurs principes éducatifs fondamentaux ?


L’intelligence artificielle (IA) générative offre une multitude de perspectives prometteuses dans les établissements d’enseignement supérieur : innovation pédagogique, personnalisation des apprentissages, gain de temps et stimulation de la créativité. Cependant, elle pose de sérieuses inquiétudes éthiques : risque de triche, manque d’esprit critique, problèmes d’inégalités d’accès ou, encore, perte du sens de l’effort. Dans ce contexte, faut-il interdire ces technologies, les autoriser librement ou encadrer leur usage ? et comment ?

Notre recherche pointe un paradoxe : si les étudiants peuvent utiliser librement ChatGPT et d’autres IA génératives, l’établissement est perçu comme plus innovant, mais ses pratiques sont alors jugées comme moins éthiques. À l’inverse, une interdiction totale permet de rassurer en matière d’éthique, mais au prix d’une image vieillissante. Face à ce dilemme, il est essentiel de trouver la combinaison gagnante.

ChatGPT en classe : trouver l’équilibre entre innovation et éthique

Les outils d’IA générative (ChatGPT, Midjourney, Dall-E, etc.) permettent en quelques secondes de produire du texte, des images ou encore du code. En 2023, une étude estimait que ces outils avaient augmenté la productivité des professionnels de 40 % et amélioré la qualité de leur travail de 18 %.

L’utilisation massive de l’IA générative, y compris dans les universités et parfois à l’insu des enseignants, ne se fait pas sans poser de problèmes. Plusieurs rapports alertent sur des enjeux éthiques clés liés à cette utilisation, tels que la responsabilité, la supervision humaine, la transparence ou l’inclusivité.

Pour mieux comprendre comment les politiques d’usage de l’IA générative influencent l’image d’un établissement, nous avons mené deux études expérimentales auprès de plus de 500 étudiants. Dans chacune, les participants ont été répartis au hasard en trois groupes. Chaque groupe devait lire une petite description d’une école appliquant différentes politiques et règles pour gérer l’usage de l’IA générative. Dans un cas, l’école interdisait complètement son utilisation. Dans un autre, elle l’autorisait sans aucune règle. Et dans le dernier, elle permettait l’IA mais avec des règles claires, comme indiquer quand elle avait été utilisée ou limiter son usage à certaines tâches.

Les participants devaient ensuite évaluer l’image de l’école en indiquant à quel point elle leur semblait innovante, éthique et digne de confiance, c’est-à-dire s’ils auraient envie de la soutenir ou d’y étudier.

Les résultats sont clairs, peu importe le contexte (par exemple, un devoir à la maison, un projet en classe, un travail de mémoire). Les écoles interdisant complètement l’IA sont jugées plutôt éthiques, mais elles sont largement pénalisées en termes d’innovation. Celles autorisant l’IA sans cadre apparaissent comme plutôt innovantes, mais souffrent d’une image peu éthique, suscitant le moins de soutien de la part des étudiants. Les écoles autorisant l’usage encadré et régulé de l’IA réussissent à dégager un double avantage, étant perçues à la fois comme les plus innovantes et les plus éthiques.




À lire aussi :
L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


En d’autres termes, le flou ou l’absence de cadre nuit à la crédibilité. À l’inverse, une politique claire, autorisant l’usage de l’IA générative avec des règles définies, renforce la confiance et l’adhésion des étudiants.

Questions d’IA : un indicateur fort pour étudiants

Les parents, les étudiants, les enseignants et les recruteurs veulent savoir si une école prépare vraiment aux défis du XXIe siècle. Adopter l’IA sans cadre donne certes une image technophile, mais aussi irresponsable. Refuser tout net l’IA peut rassurer au début, mais revient in fine à ne pas tenir compte des évolutions de la société.

Seule une stratégie encadrée permet de conjuguer innovation et valeurs éducatives et, ainsi, répondre aux attentes et nécessités de chacun. Pour les étudiants, l’IA doit rester un outil utile, mais encadré, afin d’éviter tout risque de fraude. De leur côté, les enseignants ont besoin de repères clairs pour intégrer ces technologies sans compromettre les valeurs académiques.

Les parents attendent des écoles qu’elles allient rigueur et modernité. Quant aux décideurs, ils ont tout intérêt à définir un cadre réglementaire cohérent, plutôt que de laisser chaque établissement concevoir sa propre réponse.

Afficher des règles claires

Notre étude montre qu’encadrer l’usage de l’IA à l’université est une condition essentielle pour être innovant tout en préservant l’éthique. Sans règles claires, le recours à l’IA peut fragiliser l’intégrité académique et dévaloriser les diplômes. Il est donc crucial que les établissements prennent ce sujet au sérieux, et que les pouvoirs publics les soutiennent par des recommandations précises et cohérentes.

Plusieurs établissements précurseurs ont déjà mis en place certaines règles simples pour encadrer l’usage de l’IA générative. Cela inclut la transparence quant aux outils utilisés et aux instructions données à l’IA, une mention explicite de toute aide reçue dans les travaux, ainsi que des limites claires sur les tâches autorisées (comme la reformulation ou l’aide à la grammaire, mais pas la rédaction complète). Certaines écoles intègrent également l’éthique de l’IA dans leurs cursus dès la première année et encouragent un usage pédagogique de l’IA dans le cadre d’exercices spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Certaines institutions pionnières ont déjà mis en place de telles chartes, comme en témoigne le rapport de la Commission européenne sur l’usage responsable de l’IA dans l’enseignement. Dans un monde où les technologies évoluent plus vite que les institutions, seules les écoles capables de conjuguer rigueur et adaptation gagneront la confiance de leurs communautés.

Intégrer l’IA ne doit pas être perçu comme une simple mode passagère, mais plutôt comme une réponse concrète à un enjeu éducatif majeur, préservant en même temps les valeurs éthiques de l’enseignement ainsi que l’ouverture essentielle à l’innovation. Les institutions capables de relever ce défi seront les mieux placées pour former des esprits critiques prêts à affronter les enjeux de demain.

ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

Auteur : Karine Revet, Professeur de stratégie, Burgundy School of Business

Aller à la source

Artia13

Bonjour ! Je m'appelle Cédric, auteur et éditeur basé à Arles. J'écris et publie des ouvrages sur la désinformation, la sécurité numérique et les enjeux sociétaux, mais aussi des romans d'aventure qui invitent à l'évasion et à la réflexion. Mon objectif : informer, captiver et éveiller les consciences à travers mes écrits.

Artia13 has 3712 posts and counting. See all posts by Artia13