Há seis anos, o texto generativo era uma novidade. Hoje escreve textos de alunos, artigos de notícias, cópias de marketing e publicações em redes sociais com qualidade indistinguível da humana. Esta é a breve história de como chegámos aqui — e por que a deteção passou da investigação académica para a prática quotidiana.
O texto generativo pré-GPT-3 era sobretudo uma curiosidade de investigação. Cadeias de Markov, redes neurais recorrentes e os primeiros modelos baseados em transformers conseguiam produzir frases coerentes mas desintegravam-se ao nível do parágrafo. Uma amostra curta podia enganar um leitor desatento; um documento completo nunca conseguia.
A investigação em deteção de IA existia mas era de nicho. Artigos como o Grover de Zellers et al. (2019) construíram detetores para notícias falsas da era GPT-2, mas a procura prática era baixa — o volume de texto gerado por máquina em circulação era mínimo. A deteção era uma solução à procura de um problema.
Três coisas mudaram simultaneamente em 2020–2021: a escala dos modelos cruzou o limiar do mil milhão de parâmetros (GPT-3 com 175 mil milhões), os dados de treino cruzaram o limiar do bilião de tokens e a OpenAI abriu o acesso à API com uma interface de prompt simples e legível por humanos. A geração de texto passou dos laboratórios de investigação para qualquer pessoa com um cartão de crédito.
O ChatGPT foi lançado em novembro de 2022 sobre o GPT-3.5 e adquiriu 100 milhões de utilizadores em dois meses — a adoção de produto de consumo mais rápida da história. Em seis meses, as submissões de alunos, a cópia de marketing e os scripts de atendimento ao cliente tinham mudado mensurável em direção ao conteúdo gerado por LLM.
Os educadores notaram primeiro. Na primavera de 2023, todas as principais universidades tinham uma reunião de política de IA de emergência e muitas tinham mandatado temporariamente formatos de avaliação sem IA (exames em sala de aula, defesas orais). O mercado de ferramentas de deteção explodiu — Originality.ai, GPTZero, Copyleaks AI e mais de uma dúzia de outros foram lançados nos 12 meses seguintes ao lançamento do ChatGPT.
O padrão repetiu-se na publicação. Artigos gerados por IA inundaram as fazendas de conteúdo e foram detetados por algoritmos de classificação; o Google lançou a atualização de conteúdo útil especificamente para desprioritizar a saída de IA de baixa qualidade; os editores de notícias emitiram políticas de divulgação de autores; as revistas académicas exigiram divulgações de uso de IA nas declarações de autores.
As primeiras ferramentas de deteção de IA alcançaram precisão moderada na saída do GPT-3.5. Os fornecedores publicaram números AUC na gama 0,85–0,95 em benchmarks padrão. Em seis meses, emergiram ferramentas de humanização que visavam explicitamente estes detetores — Undetectable AI (out. 2023), StealthWriter, Humanbeing — oferecendo serviços de paráfrase com preço por 1000 palavras.
Os fornecedores de deteção responderam retreinando em amostras humanizadas. Os fornecedores de humanização responderam treinando contra os novos detetores. O ciclo da corrida armamentista apertou de meses para semanas. Em meados de 2024, nenhum detetor implantado publicamente podia afirmar honestamente precisão estável sem retreino contínuo contra saídas de humanizadores.
Entretanto, a sofisticação dos geradores acelerou. GPT-4 (março 2023), Claude 3 (março 2024), Gemini 1.5 (fev. 2024), Llama 2/3 (julho 2023 / abril 2024), lançamentos de Mistral — cada geração era mensuravelmente mais difícil de detetar do que a anterior. A deteção tornou-se um problema de linha de base em movimento.
Em 2026-04, o panorama de deteção atingiu um estado estacionário aproximado. Os detetores em produção — incluindo o nosso — alcançam AUC na gama 0,95–0,99 em texto académico dentro da distribuição, caindo para 0,85–0,92 em modelos de fronteira (GPT-5, Claude 4.5, Gemini 2.5) até o retreino recuperar. Consulte o nosso benchmark de precisão para os números atuais por gerador.
As ferramentas que sobreviveram ao abalo de 2023–2024 são as que trataram a deteção como um problema de retreino contínuo desde o primeiro dia. Os fornecedores que lançaram um modelo único e consideraram o trabalho concluído desapareceram silenciosamente. O mercado consolidou-se em torno de um punhado de fornecedores com investimento contínuo em investigação — nós, um pequeno número de fornecedores especializados e as funcionalidades de deteção incorporadas nas principais plataformas de deteção de plágio.
O panorama dos utilizadores também estabilizou. Os educadores publicaram políticas; os editores têm requisitos de divulgação; os motores de busca desprioritizam a IA de baixa qualidade; as plataformas sociais rotulam o conteúdo gerado por IA. A deteção é agora rotineira, não excecional — incorporada nos fluxos de trabalho em vez de executada ad hoc.
Experimente o nosso Verificador de IA e Plágio em qualquer texto. Números reais, veredicto real por frase, sem registo.
Duas tendências dominam as perspetivas de 2026–2027. Evidência multimodal: a deteção apenas de texto será acompanhada por análise da dinâmica de digitação, verificação do histórico de edições e verificações de consistência de autoria contra um corpus de escrita conhecido. A pontuação de texto puro torna-se um membro votante numa decisão mais rica.
Marca de água no momento da geração: a OpenAI implementou experimentalmente marcas de água de texto em algumas interfaces GPT. Se a marca de água se tornar padrão entre os principais fornecedores, a deteção passa de inferência probabilística para verificação criptográfica. Esta é uma mudança arquitetural fundamental e reduziria o valor da deteção estatística para modelos com marca de água — deixando os modelos de pesos abertos inteiramente em território estatístico.
Nenhuma destas mudanças elimina a necessidade de deteção estatística baseada em texto. Os modelos de pesos abertos continuarão a gerar texto sem marca de água. A evidência multimodal requer dados que muitos fluxos de trabalho não capturam. A deteção estatística de texto permanecerá a defesa de primeira linha num futuro previsível — o nosso compromisso é manter essa linha honesta e atual.
Esta é uma visão histórica destinada a contextualizar a prática atual de deteção de IA. As datas específicas e as referências a produtos refletem o estado do campo em 2026-04. Consulte os fornecedores individuais de ferramentas e geradores para dados de cronologia autorizados.