Plak je tekst of upload een PDF/DOCX. Onze detector analyseert elke zin, laat zien welke delen door AI gegenereerd lijken en geeft een algemeen oordeel.
Plak je tekst hieronder (minimaal 180 tekens) of upload een PDF- of DOCX-bestand om te analyseren.
Dit is een hulpmiddel voor detectie, geen bewijs van plagiaat of AI-gebruik. Fout-positieven zijn mogelijk — vooral bij creatief schrijven, sterk geredigeerde tekst en niet-moedertaal-Engels. Gebruik resultaten als een van meerdere signalen, niet als eindoordeel.
Plak je tekst in het vak hieronder of upload een PDF- of DOCX-bestand. Documenten onder 1 MB worden geaccepteerd. De minimumlengte is 180 tekens zodat de detector genoeg context heeft voor een betrouwbaar oordeel.
Wanneer de analyse klaar is zie je drie weergaven: een documentoordeelkaart, een taartdiagram met de verdeling van als AI gemarkeerde zinnen, en een zinsgewijze diff-weergave die precies laat zien welke delen door AI gegenereerd lijken. Je kunt het hele rapport als PDF opslaan via de knop “Opslaan als PDF” in de resultatenkop.
Onze detector draait op ModernBERT — een afgestemde transformer met 149 miljoen parameters die je tekst leest en per zin voorspelt of deze is gegenereerd door een groot taalmodel zoals GPT, Claude, Gemini, Llama, DeepSeek of Mistral.
Het model is getraind op een gebalanceerd corpus van 1.200 voorbeelden — 600 door mensen geschreven (PAN25- + PERSUADE-essays) en 600 gegenereerd door moderne LLMs. Tijdens de training is gebruikgemaakt van focal loss met hard-negative mining voor dubbelzinnige tekst, en de beslissingsdrempel is gekalibreerd op een aparte validatieset.
Voor elke zin berekenen we een AI-waarschijnlijkheid tussen 0% en 100%. Zinnen boven de 50% worden rood gemarkeerd (waarschijnlijk AI), 25–49% oranje (mogelijk AI), onder 25% groen (waarschijnlijk mens). Het documentoordeel is het gemiddelde over alle analysevensters.
De meeste AI-detectoren geven je één ondoorzichtig cijfer. Wij geven je het hele beeld: een heatmap op zinsniveau, een taartdiagram van de verdeling en een diff-weergave die precies laat zien welke zinnen door AI gegenereerd lijken en waarom.
Onze gepubliceerde nauwkeurigheid is AUC-ROC 0,9884 op een validatieset van 1.000 voorbeelden die 22 generatoren omvat, waaronder GPT-4, GPT-4o, GPT-5, Claude 4, Gemini 2, Llama 3, DeepSeek, Qwen en Mistral. Bij een drempel van 50%: nul fout-positieven in de testset, 60% recall.
Geen afhankelijkheid van API's van derden. Geen training op jouw inzendingen. Elke controle draait op GPU-infrastructuur die we zelf bezitten en beheren — geen SaaS-doorgeefmarge, geen ToS-risico, geen vendor lock-in.
Download een gratis demo of koop een licentie om te beginnen met het controleren op plagiaat en door AI gegenereerde inhoud.
Onze trainingscorpus omvat voorbeelden van de belangrijkste frontier-modellen van alle leveranciers, zodat de detector generaliseert over het huidige LLM-landschap.
OpenAI: GPT-3.5, GPT-4, GPT-4 Turbo, GPT-4o, GPT-5.0, GPT-5.3, GPT-5.4. Anthropic: Claude 3 Opus, Claude 3.5 Sonnet, Claude 4 Opus, Claude 4.5 Sonnet. Google: Gemini 1.5 Pro, Gemini 2.0, Gemini 2.5. Meta: Llama 3.1, Llama 3.3. Overige: Qwen 2.5, Qwen 3, DeepSeek R1, Mistral Large, o3-mini en meer.
AI-detectie is probabilistisch, geen bewijs. Beschouw een hoge AI-score als signaal voor verder onderzoek, niet als bewijs. Fout-positieven zijn mogelijk — vooral bij creatief schrijven, sterk geredigeerde tekst en niet-moedertaal-Engels.
Kortere tekst (minder dan 100 woorden) is moeilijker betrouwbaar te classificeren. Geparafraseerde of sterk geredigeerde AI-tekst kan detectie omzeilen. Essays die door een “humanizer”-tool zijn gehaald, kunnen als menselijk scoren, ook als ze oorspronkelijk gegenereerd waren.
Creatief schrijven en literaire analyse zijn het zwakste domein voor elke AI-detector — menselijke stijl in fictie kan samenvallen met LLM-output. Als je use case academische integriteit is, combineer dit instrument met bronnenvergelijkende plagiaatdetectie (zie ons desktopproduct hieronder).