Hace seis años el texto generativo era una novedad. Hoy escribe ensayos de estudiantes, artículos de noticias, textos de marketing e hilos de redes sociales con una calidad indistinguible de la humana. Esta es la breve historia de cómo llegamos aquí — y por qué la detección pasó de la investigación académica a la práctica cotidiana.
El texto generativo pre-GPT-3 era principalmente una curiosidad de investigación. Las cadenas de Markov, las redes neuronales recurrentes y los primeros modelos basados en transformers podían producir oraciones coherentes pero se desmoronaban a la longitud de un párrafo. Una muestra breve podía engañar a un lector desatento; un documento completo nunca lo hacía.
La investigación en detección de IA existía, pero era un nicho. Artículos como el Grover de Zellers et al. (2019) construían detectores para noticias falsas de la era GPT-2, pero la demanda práctica era escasa — el volumen de texto generado por máquinas en circulación era mínimo. La detección era una solución en busca de un problema.
Tres cosas cambiaron simultáneamente en 2020–2021: la escala del modelo cruzó el umbral de los mil millones de parámetros (GPT-3 con 175.000 millones), los datos de entrenamiento cruzaron el umbral del billón de tokens, y OpenAI abrió el acceso a la API con una interfaz de prompts sencilla y legible para humanos. La generación de texto pasó de los laboratorios de investigación a cualquier persona con una tarjeta de crédito.
ChatGPT se lanzó en noviembre de 2022 sobre GPT-3.5 y adquirió 100 millones de usuarios en dos meses — la adopción de un producto de consumo más rápida de la historia. En seis meses, los trabajos de los estudiantes, los textos de marketing y los scripts de atención al cliente habían virado mensurablemente hacia el contenido generado por LLMs.
Los educadores fueron los primeros en notarlo. Para la primavera de 2023, todas las universidades importantes habían tenido una reunión de emergencia sobre política de IA y muchas habían mandatado formatos de evaluación temporalmente sin IA (exámenes en clase, defensas orales). El mercado de herramientas de detección explotó — Originality.ai, GPTZero, Copyleaks AI y una docena más se lanzaron en los 12 meses siguientes al lanzamiento de ChatGPT.
El patrón se repitió en la publicación. Los artículos generados por IA inundaron las granjas de contenido y fueron detectados por los algoritmos de clasificación; Google desplegó la actualización de contenido útil específicamente para deprioritizar la salida de IA de baja calidad; los editores de noticias emitieron políticas de divulgación de autor; las revistas académicas exigieron declaraciones de uso de IA en los textos de los autores.
Las primeras herramientas de detección de IA lograron una precisión moderada en la salida de GPT-3.5. Los proveedores publicaron números de AUC en el rango 0,85–0,95 en benchmarks estándar. En seis meses, emergieron herramientas humanizadoras dirigidas explícitamente a estos detectores — Undetectable AI (oct. 2023), StealthWriter, Humanbeing — ofreciendo servicios de paráfrasis con precio por 1.000 palabras.
Los proveedores de detección respondieron reentrenando con muestras humanizadas. Los proveedores de humanizadores respondieron entrenando contra los nuevos detectores. El ciclo de la carrera armamentista se redujo de meses a semanas. Para mediados de 2024, ningún detector desplegado públicamente podía afirmar honestamente una precisión estable sin reentrenamiento continuo contra la salida de los humanizadores.
Mientras tanto, la sofisticación de los generadores se aceleró. GPT-4 (marzo 2023), Claude 3 (marzo 2024), Gemini 1.5 (feb. 2024), Llama 2/3 (julio 2023 / abril 2024), lanzamientos de Mistral — cada generación era mensurablemente más difícil de detectar que la anterior. La detección se convirtió en un problema de línea de base en movimiento.
A fecha de 2026-04, el panorama de la detección ha alcanzado un estado aproximadamente estable. Los detectores de producción — incluido el nuestro — logran un AUC en el rango 0,95–0,99 en texto académico dentro de la distribución, cayendo a 0,85–0,92 en modelos de frontera (GPT-5, Claude 4.5, Gemini 2.5) hasta que el reentrenamiento lo corrige. Consulte nuestro benchmark de precisión para los números actuales por generador.
Las herramientas que sobrevivieron a la sacudida de 2023–2024 son las que trataron la detección como un problema de reentrenamiento continuo desde el principio. Los proveedores que lanzaron un modelo de un solo disparo y lo declararon definitivo han desaparecido silenciosamente. El mercado se ha consolidado en torno a un puñado de proveedores con inversión continua en investigación — nosotros, un pequeño número de proveedores especializados y las funciones de detección integradas en las principales plataformas de detección de plagio.
El panorama de usuarios también se ha estabilizado. Los educadores han publicado políticas; los editores tienen requisitos de divulgación; los motores de búsqueda depriorizan la IA de baja calidad; las plataformas sociales etiquetan el contenido generado por IA. La detección es ahora rutinaria, no excepcional — integrada en los flujos de trabajo en lugar de ejecutarse ad hoc.
Pruebe nuestro Verificador de IA y Plagio con cualquier texto. Números reales, veredicto real por oración, sin registro.
Dos tendencias dominan el panorama 2026–2027. Evidencia multimodal: la detección exclusivamente textual se verá complementada por el análisis de dinámicas de escritura, la verificación del historial de edición y las comprobaciones de consistencia de autoría frente a un corpus de escritura conocido. La puntuación de texto puro se convierte en un miembro votante dentro de una decisión más rica.
Marca de agua en el momento de la generación: OpenAI ha desplegado marcas de agua de texto experimentales en algunas interfaces de GPT. Si la marca de agua se convierte en estándar entre los principales proveedores, la detección pasa de la inferencia probabilística a la verificación criptográfica. Este es un cambio arquitectónico fundamental que reduciría el valor de la detección estadística para los modelos con marca de agua — dejando los modelos de pesos abiertos completamente en territorio estadístico.
Ninguno de estos cambios elimina la necesidad de la detección estadística textual. Los modelos de pesos abiertos seguirán generando texto sin marca de agua. La evidencia multimodal requiere datos que muchos flujos de trabajo no capturan. La detección estadística textual seguirá siendo la defensa de primera línea en el futuro previsible — nuestro compromiso es mantener esa línea honesta y actualizada.
Esta es una visión general histórica destinada a contextualizar la práctica actual de detección de IA. Las fechas específicas y las referencias a productos reflejan el estado del campo en 2026-04. Consulte a los proveedores individuales de herramientas y generadores para obtener datos de cronología autorizados.