Indsæt din tekst eller upload en PDF/DOCX. Vores detektor analyserer hver sætning, viser dig præcis hvilke dele der ser AI-genererede ud, og giver dig en samlet dom.
Indsæt din tekst nedenfor (mindst 180 tegn) eller upload en PDF- eller DOCX-fil til analyse.
Dette er et assisterende detektionsværktøj, ikke bevis for plagiering eller AI-brug. Falske positive er mulige — især ved kreativ skrivning, kraftigt redigeret tekst og ikke-native engelsk. Brug resultaterne som ét input blandt mange, ikke som endelig dom.
Indsæt din tekst i feltet nedenfor eller upload en PDF- eller DOCX-fil. Dokumenter under 1 MB accepteres. Minimumlængden er 180 tegn, så detektoren har tilstrækkelig kontekst til at afgive en pålidelig dom.
Når analysen er færdig, ser du tre visninger: et dom-kort på dokumentniveau, et cirkeldiagram over fordelingen af AI-markerede sætninger og en sætning-for-sætning-diff der fremhæver præcis hvilke dele der ser AI-genererede ud. Du kan gemme hele rapporten som PDF via knappen ”Gem som PDF” i resultaternes overskrift.
Vores detektor er drevet af ModernBERT — en finjusteret transformer med 149 millioner parametre, der læser din tekst og forudsiger sætning for sætning, om den er genereret af en stor sprogmodel som GPT, Claude, Gemini, Llama, DeepSeek eller Mistral.
Modellen er trænet på et afbalanceret korpus med 1.200 prøver — 600 skrevet af mennesker (PAN25 + PERSUADE-essays) og 600 genereret af moderne LLM'er. Træningen brugte focal loss med hard-negative mining til at håndtere flertydige tekster, og beslutningstærsklen blev kalibreret på et separat valideringssæt.
For hver sætning beregner vi en AI-sandsynlighed mellem 0 % og 100 %. Sætninger over 50 % markeres røde (sandsynligvis AI), 25–49 % gule (muligvis AI), under 25 % grønne (sandsynligvis menneskeskrevet). Dokumentets dom er gennemsnittet på tværs af alle analysevinduer.
De fleste AI-detektorer giver dig ét uigennemsigtigt tal. Vi giver dig det fulde billede: et varmekort på sætningsniveau, et fordelingsdiagram og en diff-visning der præcist viser hvilke sætninger der ser AI-genererede ud og hvorfor.
Vores offentliggjorte nøjagtighed er AUC-ROC 0,9884 på et valideringssæt med 1.000 prøver, der dækker 22 generatorer, herunder GPT-4, GPT-4o, GPT-5, Claude 4, Gemini 2, Llama 3, DeepSeek, Qwen og Mistral. Ved en tærskel på 50 %: nul falske positive på testsættet, 60 % recall.
Ingen afhængighed af tredjeparts-API. Ingen træning på dine indleveringer. Hvert check kører på GPU-infrastruktur, som vi ejer og driver — ingen SaaS-gennemmargin, ingen ToS-risiko, ingen leverandørafhængighed.
Download en gratis demo, eller køb en licens for at begynde at kontrollere for plagiat og AI-genereret indhold.
Vores træningskorpus indeholder prøver fra de store frontier-modeller på tværs af leverandører, så detektoren generaliserer på tværs af det aktuelle LLM-landskab.
OpenAI: GPT-3.5, GPT-4, GPT-4 Turbo, GPT-4o, GPT-5.0, GPT-5.3, GPT-5.4. Anthropic: Claude 3 Opus, Claude 3.5 Sonnet, Claude 4 Opus, Claude 4.5 Sonnet. Google: Gemini 1.5 Pro, Gemini 2.0, Gemini 2.5. Meta: Llama 3.1, Llama 3.3. Andre: Qwen 2.5, Qwen 3, DeepSeek R1, Mistral Large, o3-mini og mere.
AI-detektion er probabilistisk, ikke bevismæssig. Behandl en høj AI-score som et signal til yderligere undersøgelse, ikke som bevis. Falske positive er mulige — især ved kreativ skrivning, kraftigt redigeret tekst og ikke-native engelsk.
Kortere tekst (under 100 ord) er sværere at klassificere pålideligt. Omformuleret eller kraftigt redigeret AI-tekst kan undgå detektion. Essays der er gået gennem et humaniseringsværktøj kan score som menneskeskrevet, selv om de oprindeligt var genererede.
Kreativ skrivning og litterær analyse er det svageste domæne for enhver AI-detektor — menneskelig stil i fiktion kan konvergere med LLM-output. Hvis dit brugsscenarie er akademisk integritet, kombiner dette værktøj med kildematchende plagiatdetektering (se vores desktopprodukt nedenfor).