ChatGPT est dans chaque salle de classe. Voici un workflow pratique et éclairé par la recherche pour les enseignants — comment détecter les travaux générés par IA, comment en parler aux étudiants et comment construire une politique qui fonctionne sans risque de fausse accusation.
En 2025, la majorité des étudiants ont utilisé un LLM pour une partie de leur rédaction académique. Les enquêtes auprès des étudiants universitaires situent ce chiffre entre 60 % et 90 % selon la discipline et le pays. La question n'est plus de savoir si les étudiants utilisent l'IA, mais dans quelle mesure, pour quelles tâches et avec quelles conséquences.
La question d'intégrité académique se divise en deux sous-questions. Un devoir donné est-il généré par IA ? — un problème de détection. L'utilisation de l'IA viole-t-elle les règles du devoir ? — un problème de politique. Les enseignants ont besoin de réponses aux deux, et l'ordre compte : la politique vient en premier, la détection confirme.
Effectuer la détection sans politique claire crée un risque de fausse accusation. Appliquer une politique sans détection crée de la triche sur l'honneur. La réponse pratique est un workflow conjoint où les deux couches se soutiennent mutuellement.
Une bonne politique IA est explicite sur quatre dimensions. Ce qui est autorisé : le brainstorming, le plan, la correction grammaticale, la recherche de références — généralement permis même par les politiques strictes. Ce qui est interdit : la génération de phrases ou paragraphes entiers soumis comme le travail propre de l'étudiant. Ce qui doit être divulgué : toute tâche assistée par IA, consignée dans une déclaration de divulgation à la remise. Quelle est la conséquence : commission d'intégrité académique, pénalité de note, nouvelle soumission ou escalade — l'énoncer d'avance.
Publiez la politique avant qu'une analyse de détection IA ne soit lancée sur un devoir. Les étudiants qui se voient dire « nous détecterons l'IA » après la remise ont un grief légitime ; ceux qui se voient dire « voici la politique et voici comment nous la vérifions » en début de semestre ne peuvent pas. Traitez la détection comme l'application d'une politique publiée, pas comme une surprise.
Alignez-vous avec votre établissement. Si votre université dispose d'une politique modèle, adoptez-la. Si ce n'est pas le cas, empruntez à la MLA, à l'IEEE ou à votre régulateur national. L'incohérence entre les enseignants d'un même établissement crée des griefs d'étudiants et un risque juridique — alignez le corps enseignant avant de déployer la détection.
Un score de détection IA est un signal, pas un verdict. Une probabilité IA de 92 % sur un devoir est une bonne raison d'approfondir l'investigation — ce n'est pas une preuve. Notre benchmark de précision est honnête à ce sujet : au seuil de 50 %, nous visons 0 faux positif sur notre ensemble de validation, mais l'écriture de vos étudiants n'est pas notre ensemble de validation.
Combinez le score avec trois autres signaux avant toute décision. L'historique d'écriture : cela correspond-il aux soumissions précédentes de l'étudiant ? Les signaux en classe : dissertations en classe, discussion orale, quiz à réponse courte — correspondent-ils au niveau de la soumission ? Le contexte technique : horodatage de la soumission, historique d'édition (si la plateforme l'expose), toute métadonnée inhabituelle.
Un score plus au moins un signal corroborant constitue un cas digne d'investigation. Un score seul est un drapeau, pas une conclusion. Cette règle — initialement documentée dans la littérature sur l'intégrité académique bien avant l'IA — protège à la fois les étudiants et les enseignants et est le levier le plus efficace contre les litiges de fausse accusation.
Si un devoir obtient un score de probable IA, rencontrez l'étudiant. Ne commencez pas par l'accusation. Commencez par le travail. Demandez à l'étudiant de vous guider dans son processus : ce qu'il a recherché, à quoi ressemblait son brouillon, ce qu'il a modifié. Les étudiants qui ont rédigé le travail peuvent répondre à ces questions couramment. Les étudiants qui ont utilisé l'IA souvent ne le peuvent pas — non pas parce qu'ils sont malhonnêtes, mais parce qu'ils ne se sont pas engagés dans la matière.
L'objectif de cette conversation est de recueillir des preuves, pas de piéger. Prenez des notes sur ce que dit l'étudiant. Si la conversation lève le drapeau — son processus est cohérent et l'historique de son brouillon correspond — le drapeau est retiré. Si la conversation révèle des incohérences, vous disposez maintenant de preuves corroborantes pour poursuivre formellement.
Évitez ces erreurs courantes. Ne commencez pas par le score du détecteur — les étudiants se sentiront pris en embuscade. Ne traitez pas le score comme valant une confession — certains étudiants admettront sous pression même s'ils sont innocents. Documentez chaque conversation — le processus régulier de votre établissement exige des documents écrits.
La détection IA trouve les textes générés. La détection de plagiat trouve les textes copiés. Les étudiants soumettent un mélange des deux — certains paragraphes rédigés par LLM, certains copiés-collés depuis d'autres sources, certains genuinement originaux. Un workflow qui ne scanne que pour l'IA manque le copier-coller ; un workflow qui ne scanne que pour le plagiat manque le contenu entièrement généré.
Notre Détecteur de plagiat bureautique effectue les deux en un seul scan : un passage pour les correspondances sur 4 milliards de pages web indexées, les bases de données académiques et le corpus institutionnel PDAS, plus le même moteur de détection IA qui alimente notre outil en ligne. Verdict combiné par document en moins d'une minute.
Pour les établissements qui préfèrent les workflows basés sur navigateur, notre outil en ligne gratuit couvre la détection IA et le téléchargement de démonstration bureautique gratuit ajoute les passes complètes de correspondance de sources. La plupart des universités utilisent un mélange des deux selon le workflow des enseignants.
Collez un exemple de devoir et voyez le verdict par phrase. Prêt pour la salle de classe. Sans inscription, sans stockage dans le cloud.
Divulgation d'abord : toute utilisation de l'IA nécessite une courte déclaration à la remise — « J'ai utilisé GPT-4 pour mettre en plan la section 2 et éditer la section 3 pour la grammaire. » Aucune pénalité de détection si divulguée ; pénalité complète si une IA non divulguée est détectée. Faible friction pour les étudiants, forte responsabilité.
Devoirs sans IA : des soumissions clairement marquées qui doivent être rédigées entièrement sans IA. En classe, oral ou avec surveillance. Utilisés pour les examens finaux, l'écriture diagnostique et toute tâche où l'IA est à côté de l'objectif pédagogique.
Devoirs avec IA autorisée : permettez explicitement l'IA comme outil de recherche ou d'édition ; notez le travail final de l'étudiant sur la qualité indépendamment de la façon dont il a été produit. Les étudiants apprennent à utiliser l'outil ; les enseignants notent le résultat. Cette approche a le taux d'adoption le plus élevé parmi les enseignants et la charge de détection la plus faible.
Vous manquerez certains devoirs générés par IA. Les outils humaniseurs, les devoirs courts et l'écriture hybride humain-IA contournent tous la détection textuelle aux niveaux de générateurs actuels. Acceptez que l'objectif ne soit pas une détection à 100 % mais une dissuasion significative et un traitement équitable des cas signalés.
Vous signalerez certains travaux humains comme IA. L'écriture en anglais par des locuteurs non natifs, la prose académique fortement éditée et certains styles d'étudiants genuinement inhabituels obtiennent tous des scores plus élevés que prévu. Le chiffre 0 faux positif de notre benchmark porte sur l'ensemble de validation ; vos étudiants ne font pas partie de cet ensemble. Combinez avec des signaux corroborants avant toute action.
Le workflow qui fonctionne de manière durable : publiez la politique, lancez la détection à la soumission, signalez les scores élevés pour investigation, enquêtez en présence de l'étudiant, documentez tout, escaladez uniquement quand corroboré. Les enseignants qui suivent cette séquence font état à la fois d'une utilisation réduite de l'IA et d'une réduction des litiges de fausse accusation en l'espace d'un semestre.
Cet article est un guide éducatif, pas un conseil juridique. Les politiques d'intégrité académique et la légalité de la détection automatisée varient selon la juridiction et l'établissement. Consultez le délégué à la protection des données de votre établissement avant de déployer tout workflow de détection.