Par Max Karpinski (Université de Toronto)
Lorsque ChatGPT a été lancé à la fin de l’année 2022, il a fait passer l’intelligence artificielle des laboratoires de recherche aux salles de classe presque du jour au lendemain. En l’espace de quelques années, les universités ont dû répondre à une technologie qui modifie la façon dont les connaissances sont créées, partagées et évaluées.
Dans le cadre du Consortium du COQES sur l’intelligence artificielle générative (IAG), des équipes de recherche de l’université de Toronto, de l’université Western et de l’université McMaster ont étudié la manière dont les universités ontariennes s’adaptent à ce changement. Le travail s’est déroulé en trois phases :
- Revue de la littérature : Une cartographie des cadres mondiaux d’éthique et de gouvernance de l’IAG.
- Analyse de l’environnement : Une série d’entretiens et d’études institutionnelles explorant la manière dont les universités de l’Ontario mettent en œuvre et gèrent l’IAG.
- Sommet de l’IA pour les universités de l’Ontario : Un événement qui s’est tenu à l’Université de Toronto les 12 et 13 novembre 2025 et qui a rassemblé des leaders du secteur de tout l’Ontario pour explorer les défis communs, échanger des idées et identifier les prochaines étapes collectives pour naviguer dans l’IAG dans l’enseignement supérieur.
À l’écoute de l’ensemble du secteur
Suite à notre analyse documentaire, la deuxième phase du projet, l’analyse de l’environnement, nous a donné l’occasion de rencontrer individuellement des dirigeant·es d’université pour savoir comment cette période de profond changement est vécue au sein de leurs établissements.
En octobre 2025, l’équipe de recherche a mené 18 entretiens avec des leaders d’opinion et des responsables politiques représentant 15 universités ontariennes. Parmi les participant·es figuraient des doyen·nes et vice-doyen·nes, des consultant·es spécialisé·es dans le domaine de l’IA générative, des bibliothécaires, des responsables de centres d’enseignement et d’apprentissage ainsi que des développeur·es — autant de personnes étroitement impliquées dans l’élaboration des stratégies et des politiques institutionnelles relatives à l’IA générative.
Entre curiosité et prudence
De nombreux responsables universitaires considèrent l’IA générative comme un moyen d’améliorer l’apprentissage, d’élargir l’accès à l’enseignement et d’alléger la charge administrative qui empêche souvent le personnel de consacrer suffisamment de temps aux étudiant·es. Dans tout l’Ontario, cette promesse commence à se concrétiser de manière pratique et centrée sur l’être humain.
À l’université de Guelph, les conseillères et conseillers de programme envisagent l’automatisation pour « libérer les gens et leur permettre de mieux travailler [et] de passer plus de temps à conseiller les étudiant·es plutôt qu’à vérifier leurs relevés de notes ». À l’université de Carleton, les équipes chargées des admissions et du recrutement utilisent l’IAG pour personnaliser les informations destinées aux futur·es étudiant·es, rationaliser la communication et améliorer l’accès. Ensemble, ces exemples montrent comment l’IAG peut aider à construire des établissements à la fois plus efficaces et plus équitables, des lieux où l’expertise humaine reste concentrée sur le travail qui compte le plus.
Cependant, ces innovations soulèvent également d’importantes préoccupations. Tout au long de nos conversations, nous avons entendu parler des craintes du personnel concernant les pertes d’emplois liées à l’IA. Les personnes interrogées ont également soulevé des questions éthiques et environnementales plus larges. Rhonda Koster a relayé les préoccupations d’un étudiant autochtone de l’université Lakehead concernant « la quantité d’eau que [l’IAG] consomme alors que beaucoup de nos nations n’ont jamais eu d’eau potable ». D’autres ont évoqué les effets potentiels sur la santé mentale et la nécessité de veiller à ce que l’adoption rapide ne dépasse pas le bien-être des étudiant·es ou l’éthique institutionnelle.
Dans tout l’Ontario, les universités s’efforcent déjà d’intégrer l’équité, la durabilité et l’engagement envers les personnes au cœur de leurs établissements dans chaque conversation sur l’IAG. Il ne s’agit pas simplement d’adopter de nouvelles technologies, mais de veiller à ce qu’elles renforcent les liens humains, les engagements éthiques et les responsabilités sociales qui définissent l’enseignement supérieur.
Enseignement et apprentissage
Les enseignant·es de tout l’Ontario s’interrogent sur ce que l’IAG signifie pour l’apprentissage lui-même. Les propos que nous avons recueillis allaient d’une profonde inquiétude à un optimisme prudent, mais tout le monde s’accordait à reconnaître que l’IA générative a transformé la salle de classe et que les universités ont tout intérêt à s’adapter à cette évolution.
Sean Kheraj, de l’Université métropolitaine de Toronto, a décrit ce changement : « Le plus grand bouleversement a été la dégradation de l’environnement d’apprentissage. J’ai maintenant des étudiant·es et des enseignant·es qui ne se font pas confiance et qui pensent tous que ce sont les robots qui font le travail. » La présence soudaine de l’IAG a non seulement remodelé l’évaluation, mais aussi la confiance nécessaire qui sous-tend l’enseignement lui-même.
« La présence soudaine de l’IAG a remodelé l’évaluation et la confiance qui sous-tend l’enseignement lui-même. »
Byron Sheldrick à l’Université de Guelph considère l’adaptation comme essentielle : « Nous ne pouvons pas aller de l’avant avec un programme d’études… où l’on prétend que l’IA n’existe pas, et où les gens se retrouvent dans un monde où l’IA est omniprésente. » Beaucoup d’autres ont partagé cet avis, soulignant que les employeurs attendent désormais des diplômé·es, des compétences et une confiance en soi dans l’utilisation des outils d’IA générative. Le défi pour les universités n’est pas d’éviter la technologie, mais d’apprendre aux étudiant·es à l’utiliser de manière responsable, créative et avec une compréhension critique de son impact.
Trish McLaren, de l’Université Wilfrid Laurier, a décrit comment l’établissementencourageait « une culture d’utilisation critique et éclairée de l’IA », où les enseignant·es et les étudiant·es apprennent à faire des choix délibérés pour savoir quand, et quand ne pas, s’appuyer sur la technologie. Cet état d’esprit, que beaucoup ont qualifié de « culture critique de l’IA », est revenu sans cesse dans nos entretiens : l’idée que le rôle de l’enseignement supérieur n’est pas de courir après chaque nouvel outil, mais de montrer l’exemple d’une utilisation réfléchie et éthique de ceux qui comptent vraiment.
« Le rôle de l’enseignement supérieur est de donner l’exemple d’un engagement réfléchi et éthique avec les outils qui comptent. »
Certains établissements construisent déjà des espaces pour ce type de réflexion. À l’Université de York, Chloë Brushwood-Rose a décrit le lancement de « programmathons d’évaluation », ou d’ateliers informels au cours desquels les enseignants apportent leurs programmes de cours et les réécrivent ensemble, en discutant de la manière d’aborder l’utilisation de l’IAG de manière transparente et créative dans la salle de classe. Ces séances, a-t-elle noté, visent autant à rétablir la confiance et la communauté qu’à faire de la pédagogie.
Les universités sont en train de réimaginer ce que signifie enseigner et apprendre dans un monde dominé par l’IAG. Qu’il s’agisse des inquiétudes concernant la confiance dans la salle de classe ou des efforts pour intégrer l’IAG de manière responsable et transparente, les éducateurs font face aux risques et aux opportunités de ce changement technologique. Ce qui émerge, c’est un engagement commun à l’égard d’une culture critique de l’IAG, une vision de l’enseignement supérieur qui prépare les étudiant·es non seulement à utiliser les nouveaux outils, mais aussi à s’y engager de manière réfléchie, éthique et créative.
Des valeurs à l’action
Les universités posent également des questions difficiles sur la gouvernance et l’orientation institutionnelle. La nécessité d’une gouvernance fondée sur des principes, mais souple a été évoquée à plusieurs reprises. Les politiques, selon les répondants, doivent permettre aux départements et aux facultés d’adapter les lignes directrices à leur propre contexte disciplinaire, tout en maintenant une position institutionnelle cohérente. À l’Université de Trent, cela s’est traduit par des mesures concrètes : plutôt que d’établir des règles rigides en matière d’IAG, l’établissement élabore « un ensemble de principes directeurs » que les départements peuvent utiliser pour élaborer des pratiques adaptées à leur contexte.
« Les politiques en matière d’IAG doivent permettre aux départements d’adapter les lignes directrices à leur propre contexte tout en maintenant une position institutionnelle cohérente. »
Les universités s’efforcent de trouver un équilibre entre direction et flexibilité, en développant des modèles de gouvernance qui placent les valeurs, et non la technologie, au centre. Les établissements de l’Ontario apprennent que diriger à l’ère de l’IAG signifie guider avec des principes plutôt qu’avec des prescriptions et faire confiance à leurs communautés pour adapter ces principes à leurs propres contextes.
La collaboration en tant que leadership
La promotion de la culture de l’IA générative doit également s’accompagner d’une attention particulière portée à l’équité et à l’accès. Les petites universités, en particulier, ont fait part de leur inquiétude quant au fait que l’inégalité des ressources pourrait créer un système à deux vitesses, certains campus progressant rapidement tandis que d’autres peinent à suivre le rythme. Emily Tufts et Fergal O’Hagan de l’Université de Trent ont proposé une solution claire, inspirée en partie d’initiatives collaboratives et interinstitutionnelles déjà existantes, telles que eCampus Ontario : « Si nous sommes réellement préoccupé·es par l’équité, nous devrions examiner les choses non seulement au niveau institutionnel, mais aussi au niveau sectoriel. »
Cet appel à la collaboration a été repris par l’ensemble du secteur. David Hornsby, de l’université de Carleton, a décrit la nécessité de partenariats qui créent un alignement à l’échelle du secteur : « Il s’agit de réunir les bonnes personnes autour de la table et d’éviter que nous ne nous engagions sur nos propres voies. » La collaboration, a-t-il suggéré, n’est pas simplement une question de coordination, mais un engagement éthique à travailler collectivement sur des défis qui dépassent largement le cadre d’un seul campus.
« La collaboration n’est pas une simple question de coordination, mais un engagement éthique à travailler collectivement sur des défis qui dépassent le cadre du campus. »
Ensemble, ces exemples mettent en évidence un consensus croissant : l’avenir de l’IAG dans l’enseignement supérieur dépendra non seulement de l’innovation au sein des universités, mais aussi de leur volonté de partager les connaissances, les infrastructures et les objectifs dans l’ensemble du système.
Aller de l’avant
L’arrivée de l’IA générative a connu une progression rapide et révolutionnaire, obligeant les universités à repenser leurs pratiques de longue date et, à bien des égards, la raison d’être même de l’enseignement supérieur. Cependant, cette perturbation a également créé un espace de réflexion et de renouvellement. Comme l’a fait remarquer Chloë Brushwood-Rose, « Nous devons nous souvenir de notre raison d’être et trouver un moyen de la réarticuler dans ce nouveau contexte ».
Comme le montrent nos entretiens, les universités de l’Ontario ne vont pas de l’avant de manière réactive ou négligente, mais saisissent l’émergence de l’IAG comme une occasion de diriger avec intégrité, une collaboration et un engagement profond envers l’équité, la durabilité et les personnes qui sont au cœur de l’éducation.
