O ChatGPT está em todas as salas de aula. Aqui está um fluxo de trabalho prático e informado por investigação para professores — como detetar trabalhos gerados por IA, como falar com os alunos sobre o assunto e como construir políticas que funcionem sem risco de falsas acusações.
Em 2025, a maioria dos alunos já usou um LLM para alguma parte da sua escrita académica. Inquéritos a universitários colocam consistentemente esse número entre 60% e 90%, dependendo da área e do país. A questão já não é se os alunos usam IA, mas quanto, para que tarefas e com que consequências.
A questão da integridade académica divide-se em duas subquestões. Um determinado trabalho foi gerado por IA? — um problema de deteção. O uso de IA viola as regras da tarefa? — um problema de política. Os professores precisam de respostas para ambas, e a ordem importa: a política vem primeiro, a deteção confirma.
Executar deteção sem uma política clara cria risco de falsas acusações. Executar política sem deteção cria batota baseada no sistema de honra. A resposta prática é um fluxo de trabalho conjunto onde ambas as camadas se apoiam mutuamente.
Uma boa política de IA é explícita em quatro dimensões. O que é permitido: brainstorming, delineamento, verificação gramatical, pesquisa de referências — comummente permitidos mesmo pelas políticas mais rigorosas. O que é proibido: geração de frases ou parágrafos inteiros submetidos como trabalho próprio do aluno. O que deve ser declarado: qualquer tarefa com assistência de IA, registada numa declaração de divulgação na submissão. Qual é a consequência: tribunal de integridade académica, penalização na nota, resubmissão ou escalada — indique-o antecipadamente.
Publique a política antes de qualquer verificação de deteção de IA ser executada numa submissão. Alunos que são informados de que 'vamos detetar IA' após a submissão têm uma queixa legítima; alunos que são informados de 'aqui está a política e é assim que verificamos' no início do período letivo não podem reclamar. Trate a deteção como aplicação de uma política publicada, não como uma surpresa.
Alinhe-se com a sua instituição. Se a sua universidade tem uma política modelo, adote-a. Se não tem, baseie-se na MLA, IEEE ou no seu regulador nacional. A inconsistência entre professores na mesma instituição cria queixas dos alunos e risco jurídico — alinhe o corpo docente antes de implementar a deteção.
Uma pontuação de deteção de IA é um sinal, não um veredicto. Uma probabilidade de IA de 92% numa submissão é uma forte razão para investigar mais — não é prova. O nosso benchmark de precisão é honesto sobre isto: com o limiar de 50%, visamos 0 falsos positivos no nosso conjunto de validação, mas a escrita dos seus alunos não é o nosso conjunto de validação.
Combine a pontuação com três outros sinais antes de qualquer decisão. Histórico de escrita: corresponde às submissões anteriores do aluno? Sinais em sala de aula: textos em sala de aula, discussão oral, questionários de resposta curta — correspondem ao nível da submissão? Contexto técnico: carimbo de data/hora da submissão, histórico de edições (se a plataforma o expõe), quaisquer metadados incomuns.
Uma pontuação mais pelo menos um sinal corroborante é um caso que merece investigação. Uma pontuação isolada é uma sinalização, não uma conclusão. Esta regra — originalmente documentada na literatura de integridade académica muito antes da IA — protege tanto alunos como professores e é a alavanca mais eficaz contra disputas de falsas acusações.
Se uma submissão obtiver pontuação de provável IA, reúna-se com o aluno. Não comece com a acusação. Comece pelo trabalho. Peça ao aluno que o oriente pelo seu processo: o que pesquisou, como era o seu rascunho, o que alterou. Alunos que escreveram o trabalho conseguem responder a estas questões com fluência. Alunos que usaram IA frequentemente não conseguem — não porque sejam desonestos, mas porque não se envolveram com o material.
O propósito desta conversa é recolher evidências, não criar uma armadilha. Tome notas sobre o que o aluno diz. Se a conversa resolver a sinalização — o processo é coerente e o histórico de rascunhos corresponde — a sinalização é retirada. Se a conversa revelar inconsistências, tem agora evidências corroborantes para avançar formalmente.
Evite estes erros comuns. Não apresente primeiro a pontuação do detetor — os alunos sentir-se-ão emboscados. Não trate a pontuação como suficiente para uma confissão — alguns alunos admitirão sob pressão mesmo sendo inocentes. Registe cada conversa — o processo de devida diligência da sua instituição requer registos escritos.
A deteção de IA encontra texto gerado. A deteção de plágio encontra texto copiado. Os alunos submetem uma combinação de ambos — alguns parágrafos redigidos por LLM, alguns copiados de outras fontes, alguns genuinamente originais. Um fluxo de trabalho que apenas verifica IA perde o copy-paste; um que apenas verifica plágio perde o conteúdo totalmente gerado.
O nosso Detector de Plágio de secretária executa ambos numa única verificação: uma passagem para correspondências com 4 mil milhões de páginas web indexadas, bases de dados académicas e o corpus institucional PDAS, mais o mesmo motor de deteção de IA que alimenta a nossa ferramenta online. Veredicto combinado por documento em menos de um minuto.
Para instituições que preferem fluxos de trabalho baseados em navegador, a nossa ferramenta gratuita online cobre a deteção de IA e o download gratuito de demonstração do produto de secretária acrescenta as passagens completas de correspondência de fontes. A maioria das universidades usa uma mistura dos dois dependendo do fluxo de trabalho do corpo docente.
Cole uma submissão de exemplo e veja o veredicto por frase. Pronto para a sala de aula. Sem registo, sem armazenamento em nuvem.
Divulgação primeiro: qualquer uso de IA requer uma breve declaração na submissão — 'Usei o GPT-4 para delinear a secção 2 e editar a secção 3 para gramática.' Sem penalidade de deteção se declarado; penalidade total se IA não declarada for detetada. Baixo atrito para os alunos, alta responsabilização.
Tarefas sem IA: submissões claramente marcadas que devem ser escritas inteiramente sem IA. Em sala de aula, orais ou supervisionadas. Usadas para exames finais, escrita diagnóstica e qualquer tarefa em que a IA seja irrelevante para o objetivo de aprendizagem.
Tarefas com IA permitida: permitem explicitamente a IA como ferramenta de investigação ou edição; avaliam o trabalho final do aluno na qualidade independentemente de como foi produzido. Os alunos aprendem a usar a ferramenta; os professores avaliam o resultado. Esta abordagem tem a maior adoção pelo corpo docente e a menor carga de trabalho de deteção.
Irá perder algumas submissões geradas por IA. Ferramentas de humanização, tarefas curtas e escrita híbrida humano-IA iludem a deteção baseada em texto nos níveis atuais dos geradores. Aceite que o objetivo não é a deteção a 100% mas uma dissuasão significativa e um tratamento justo dos casos sinalizados.
Irá sinalizar algumas submissões humanas como IA. A escrita em inglês não nativo, a prosa académica muito editada e alguns estilos genuinamente incomuns dos alunos obtêm pontuações mais elevadas do que o esperado. O número de 0 falsos positivos no nosso benchmark é para o conjunto de validação; os seus alunos não são esse conjunto. Combine com sinais corroborantes antes de qualquer ação.
O fluxo de trabalho que funciona de forma sustentável: publique a política, execute a deteção na submissão, sinalize pontuações elevadas para investigação, investigue com o aluno presente, documente tudo, escale apenas quando corroborado. Professores que seguem esta sequência relatam tanto redução do uso de IA como redução de disputas de falsas acusações dentro de um semestre.
Este artigo é orientação educacional, não aconselhamento jurídico. As políticas de integridade académica e a legalidade da deteção automatizada variam por jurisdição e instituição. Consulte o responsável pela proteção de dados da sua instituição antes de implementar qualquer fluxo de trabalho de deteção.