Мы публикуем реальные показатели точности нашего детектора ИИ для 22 генеративных моделей, включая GPT-5, Claude 4, Gemini 2 и Llama 3. Таблицы по каждой модели, честное описание ограничений и набор данных для загрузки исследователями.
Большинство инструментов обнаружения ИИ предлагают довериться единственной непрозрачной оценке. Мы считаем, что вы заслуживаете доказательств. На этой странице мы публикуем полные результаты нашей внутренней проверки — каждый протестированный генератор, значение AUC-ROC для него, типы текстов, с которыми возникло больше всего затруднений, и пороговые значения принятия решений, используемые в продакшне.
Такой уровень прозрачности нетипичен для сферы обнаружения ИИ. Большинство конкурентов — сервисы проверки плагиата, специализированные инструменты обнаружения ИИ, универсальные SaaS-решения — не публикуют никаких данных о точности либо приводят одну тщательно отобранную цифру. Эта практика неустойчива: преподаватели, издатели и исследователи нуждаются в воспроизводимых бенчмарках, прежде чем смогут доверять какому-либо инструменту.
Наши данные получены из 1 000 образцов валидационной выборки калибровочного корпуса, использованного для обучения нашего детектора на основе ModernBERT. Та же методология, которая лежит в основе этого бенчмарка, применяется к каждому документу, отправляемому через наш инструмент. Ничего не скрывается ради демонстраций.
Валидационная выборка содержит 1 000 эссе, отобранных из калибровочного корпуса объёмом 1 200 образцов: 600 написанных человеком (из данных совместной задачи PAN25 и датасета аргументативных эссе PERSUADE) и 600 сгенерированных ИИ (созданных 22 различными большими языковыми моделями в контролируемых условиях промптинга). Разбивка 80/20 на обучающую и валидационную выборки фиксирована и воспроизводима.
Каждый образец оценивается изолированно, без доступа к метаданным, которые могли бы раскрыть истинную метку. Детектор возвращает вероятность в диапазоне [0, 100], отражающую вероятность того, что образец сгенерирован ИИ. Затем мы вычисляем площадь под кривой ROC (AUC-ROC) для каждого генератора и на уровне типа эссе.
Все пороговые значения, гиперпараметры обучения и сырые вероятностные выходы журналируются. Сам датасет доступен для загрузки внизу этой страницы — формат CSV, одна строка на образец, с идентификатором генератора, меткой типа эссе, сырой оценкой и окончательным бинарным вердиктом.
На всей выборке из 1 000 образцов наш ансамблевый детектор достигает AUC-ROC [AUC: 0,9884]. При пороге принятия решений 50%, используемом в продакшне: 0 ложных срабатываний на написанных людьми эссе в валидационной выборке и 60% полноты на эссе, сгенерированных ИИ. При оптимальном по F1-мере пороге 26,56% полнота возрастает до 90% ценой 2% ложных срабатываний — компромисс, лучше подходящий для рабочих процессов с высокой чувствительностью скрининга.
Вердикт на уровне документа в нашем публичном инструменте использует консервативный порог 50%, отдавая приоритет нулю ложных срабатываний над максимальной полнотой. Учителя, издатели и исследователи могут изменить это с помощью ползунка чувствительности в виджете, если им нужна более агрессивная маркировка.
Для сравнения: компонент нулевой выборки Binoculars отдельно (конфигурация 2× Llama-3.1-8B) набирает AUC [AUC: 0,8509] самостоятельно. Дообученный компонент ModernBERT отдельно набирает [AUC: 1,0000] на текстах из обучающего распределения и [AUC: 0,9069] на текстах вне его. Ансамбль находится между ними по любой отдельной оси, но превосходит оба в среднем, поскольку компенсирует их взаимодополняющие слабые стороны.
Ниже приведена таблица AUC-ROC по каждой модели. Модели упорядочены от наиболее лёгких до наиболее сложных для обнаружения на нашей валидационной выборке. [PER-MODEL TABLE — fill real numbers from dkr_eval_pan25/ results before publishing]
Модели OpenAI: GPT-3.5 [AUC: ?], GPT-4 [AUC: ?], GPT-4 Turbo [AUC: ?], GPT-4o [AUC: ?], GPT-5.0 [AUC: ?], GPT-5.3 [AUC: ?], GPT-5.4 [AUC: ?]. Anthropic: Claude 3 Opus [AUC: ?], Claude 3.5 Sonnet [AUC: ?], Claude 4 Opus [AUC: ?], Claude 4.5 Sonnet [AUC: ?]. Google: Gemini 1.5 Pro [AUC: ?], Gemini 2.0 [AUC: ?], Gemini 2.5 [AUC: ?]. Meta: Llama 3.1 [AUC: ?], Llama 3.3 [AUC: ?]. Другие: Qwen 2.5 [AUC: ?], Qwen 3 [AUC: ?], DeepSeek R1 [AUC: ?], Mistral Large [AUC: ?], o3-mini [AUC: ?].
Главная закономерность: новые, более крупные, инструктивно дообученные модели, как правило, порождают текст, который выглядит более человеческим для любого статистического детектора, включая наш. Claude 4.5 Sonnet и GPT-5.x — два семейства, где наши распределения оценок наиболее перекрываются с человеческим базовым уровнем. Это согласуется со всеми независимыми исследованиями, опубликованными в 2025 году: гонка вооружений реальна, и размер модели — прямой встречный ветер для обнаружения.
Не весь текст поддаётся обнаружению в одинаковой мере. Мы разбиваем результаты по типам эссе — каждой категории промптов PERSUADE — и разрыв между лучшими и худшими показателями значителен. [PER-TYPE TABLE]
Аргументативные, убедительные и разъяснительные эссе: наиболее сильная область детектора. AUC обычно составляет 0,97–1,00, поскольку обучающие корпусы перевешивают эти стили. Именно сюда относится большинство случаев обеспечения академической честности.
Художественное письмо и литературный анализ: наша наиболее слабая область. Для literary_analysis значение AUC падает до 0,69 — человеческий стиль в художественной прозе сближается с текстами LLM, и ни наш обучаемый, ни компонент нулевой выборки не могут надёжно их различить. Относитесь к высокой оценке ИИ в художественных текстах с осторожностью.
Вставьте любой документ и просмотрите те же вердикты по предложениям и пороги принятия решений, которые мы используем для этих бенчмарковых данных. Бесплатно, без регистрации.
Три класса текстов ускользают от нашего детектора чаще, чем предполагает наша валидационная выборка. Очеловеченный текст ИИ — вывод, пропущенный через инструмент состязательного перефразирования или стилевого переноса — нередко оценивается как написанный человеком, даже если исходный текст был полностью сгенерирован. Короткие тексты (менее 100 слов) трудно классифицировать в принципе из-за недостаточного статистического сигнала. Тексты на английском, написанные неносителями языка, могут получать оценку ИИ, поскольку LLM и авторы-носители из ESL-среды разделяют определённые лексические и синтаксические предпочтения.
Наш детектор вероятностный, а не доказательный. Высокая оценка ИИ — это сигнал к дальнейшему расследованию, а не доказательство нарушения. Мы настоятельно рекомендуем сопровождать оценку контекстом: недавней историей редактирования, черновиками, образцами письма того же автора и — там, где это разрешено, — кратким последующим разговором с автором.
Мы непрерывно дообучаем модель на последних выходах генераторов, однако всегда существует задержка: модель, выпущенная на прошлой неделе, может быть недостаточно представлена в обучающих данных. Если ваш рабочий процесс требует выявления новейших моделей, ежеквартально проверяйте нашу страницу бенчмарков на предмет обновлённых показателей.
Мы публикуем сырые результаты проверки, чтобы исследователи, журналисты и педагоги могли независимо верифицировать наши утверждения. CSV содержит: идентификатор образца, идентификатор генератора (или «human»), метку типа эссе, сырой вероятностный вывод, бинарный вердикт при пороге 50%, бинарный вердикт при пороге 26,56%.
Загрузить: ai-detector-benchmark-2026-04.csv (обновляется ежеквартально). Академическое использование не ограничено; коммерческое переопубликование требует указания авторства: «Детектор плагиата — Бенчмарк обнаружения ИИ 2026-04».
Чтобы в интерактивном режиме применить ту же методологию к своему тексту, воспользуйтесь нашим инструментом ИИ и детектор плагиата — вставьте любой документ и просмотрите вердикт по каждому предложению, те же пороги принятия решений и тот же доверительный интервал, который мы используем для этих опубликованных данных.
Результаты бенчмарка получены из нашей внутренней валидационной выборки и могут не распространяться на тексты вне обучающего распределения. Опубликованные показатели отражают среднюю производительность на 1 000 образцах; ваш документ может получить иную оценку. Используйте результаты обнаружения ИИ как один из факторов, а не как единственное доказательство авторства.