top of page
Boys at School

Werden Sie ein Teil von Lehrer - Alltag

Ist es möglich, zweifelsfrei nachzuweisen, ob eine Facharbeit von einem Schüler oder von der KI geschrieben wurde?

Autorenbild: Pauker 61Pauker 61


KI-Detektionstechnologien: Aktueller Überblick


Verfügbare Methoden und Tools

Zur Erkennung von KI-generierten Texten existieren derzeit verschiedene Methoden und spezialisierte Tools. Im Wesentlichen lassen sich zwei Ansätze unterscheiden:


  • Statistische/ML-Klassifikatoren: Viele Tools basieren auf trainierten Modellen (häufig neuronale Netze), die Merkmale von KI-Text vs. Menschentext lernen. Beispiele: GPTZero, ZeroGPT, Originality.ai, OpenAI’s AI Text Classifier (inzwischen eingestellt) und Turnitins KI-Erkennung. Diese nutzen oft Transformer-Modelle oder fine-tuning (z.B. auf GPT-Ausgaben), um Texte als wahrscheinlich KI oder menschlich zu klassifizieren.

  • Sprachmetriken und Heuristiken: Einige Detektoren messen Kenngrößen wie Perplexität (Vorhersagbarkeit jedes Wortes) und Burstiness (Variation in Satzlängen), um unnatürliche Muster zu finden. GPTZero verwendete anfänglich solche Metriken. Andere Tools prüfen auffällige Wiederholungen, begrenzten Wortschatz oder stilistische Auffälligkeiten.

  • Wasserzeichen-Verfahren: In der Forschung wird auch versucht, KI-Ausgaben mit unsichtbaren Markern zu versehen. Durch minimale Änderungen in der Wortwahl kann ein statistisches Wasserzeichen eingebettet werden​

    crfm.stanford.edu

    . Ein Detektor könnte dann an diesen Mustern die KI-Herkunft erkennen. Allerdings stehen solche Verfahren noch am Anfang und können die Textqualität beeinträchtigen​

    ojs.aaai.org

    . Bisher sind sie in gängigen KI-Modellen nicht fest integriert.

  • Manuelle/Stilometrische Analyse: Abseits automatischer Tools versuchen manche, anhand von Schreibstil-Unterschieden oder Fehlerprofilen eine KI-Nutzung zu erkennen. Dieser Ansatz ist jedoch subjektiv und bei fortgeschrittenen KI-Modellen schwierig.


Aktuelle Tools zur KI-Texterkennung umfassen kostenlose Web-Detektoren und kommerzielle Dienste: GPTZero (oft von Lehrenden getestet), ZeroGPT, Copyleaks AI Content Detector, Turnitin AI Detection (im Plagiatssystem integriert), Originality.ai (Content-Erkennung für Web-Texte), sowie weitere wie Crossplag, Sapling AI Detector oder HuggingFace GPT-2 Output Detector. Im Folgenden betrachten wir ihre Leistungsfähigkeit und Zuverlässigkeit.


Zuverlässigkeit der Erkennung

Die Genauigkeit der derzeit verfügbaren KI-Detektoren variiert stark. Keines dieser Werkzeuge liefert bisher perfekte Ergebnisse unter allen Bedingungen. Mehrere Untersuchungen im Jahr 2023 zeigten, dass viele Detektoren nur begrenzt zuverlässig sind:

  • Eine umfassende Studie (Weber-Wulff et al. 2023) mit 12 frei verfügbaren und 2 kommerziellen Tools ergab, dass kein Detektor über 80 % Genauigkeit erreichte; nur 5 Tools lagen überhaupt über 70 %​

    arxiv.org

    . Die Autor*innen schließen, dass die verfügbaren Tools „weder akkurat noch zuverlässig“ sind und tendenziell Texte eher fälschlich als menschlich einstufen​

    arxiv.org

    . Diese Tendenz reduziert zwar False Positives, führt aber dazu, dass KI-Text oft unentdeckt bleibt. Zudem verschlechtern Obfuskations-Techniken (z.B. maschinelle Übersetzung oder Paraphrasieren) die Erkennungsleistung erheblich​

    arxiv.org

  • Eine weitere Untersuchung einer Studentengruppe der University of Maryland kam zum ähnlichen Schluss: Schon einfaches Paraphrasieren von KI-Text konnte alle getesteten Detektoren austricksen​

    insidehighered.com

    . In praktischen Szenarien seien diese Erkenner daher „nicht verlässlich“

    insidehighered.com

    . Das bedeutet, ein Nutzer kann mit geringem Aufwand einen KI-generierten Text so umschreiben, dass aktuelle Prüfer ihn für menschengeschrieben halten.

  • Positiv zu vermerken ist, dass einige Tools in kontrollierten Tests relativ hohe Trefferquoten erzielten. Walters (2023) verglich 16 Erkennungsprogramme mit je 42 Texten von ChatGPT-3.5, ChatGPT-4 und menschlichen Studierenden. Drei Detektoren – Copyleaks, Turnitin und Originality.ai – erreichten sehr hohe Trefferquoten bei allen Textsorten​

    doi.org

    . Insbesondere Copyleaks und Turnitin erkannten in diesem Setting ausnahmslos korrekt, welche Texte von KI stammten und welche von Menschen, ohne einen einzigen Fehlalarm oder Aussetzer

    doi.org

    . Originality.ai war fast ebenso treffsicher (nur ein minimaler Fehleranteil)​

    doi.org

    . Die übrigen Tools in Walters’ Test hatten eine deutlich schwankendere Performance: Während viele beim Unterscheiden von GPT-3.5-Texten vs. menschlichen Texten recht zuverlässig abschnitten, versagten die meisten beim neueren GPT-4

    doi.org

    . Ihre Gesamtgenauigkeit lag oft nur im Bereich von ca. 63–88 %

    iscap.us

  • Herstellerangaben zeigen mitunter ein optimistischeres Bild: So behauptet Turnitin, sein KI-Detector markiere höchstens ~1 % menschlicher Texte fälschlich als KI und verpasse dafür in Kauf nehmend rund 15 % der KI-Texte​

    insidehighered.com

     (d.h. etwa 85 % der KI-Inhalte würden erkannt). Dies soll bewusst so justiert sein, um False Positives (unschuldige Autor*innen verdächtigen) zu minimieren​

    insidehighered.com

    . Solche Angaben sind jedoch mit Vorsicht zu genießen, da sie oft unter idealisierten Bedingungen ermittelt wurden.


Fazit zur Zuverlässigkeit: Einige spezialisierte Detektoren können in bestimmten Szenarien schon recht hohe Genauigkeiten erzielen (teils 90–100 % in Tests​

doi.org). Allerdings gibt es insgesamt hohe Fehlerraten – entweder in Form von False Positives (menschliche Texte werden irrtümlich als KI markiert) oder False Negatives (KI-Texte bleiben unerkannt). Insbesondere fortgeschrittene KI-Generationen wie GPT-4 und alle Texte, die bearbeitet oder umformuliert wurden, bereiten den Erkennungstools noch große Probleme​

. Man sollte sich also nicht allein auf die Quote eines Tools verlassen, sondern die Ergebnisse kritisch hinterfragen.


Nachweisbarkeit: KI oder Mensch – ist ein eindeutiger Beweis möglich?

Derzeit können KI-Detektoren nicht zweifelsfrei beweisen, ob ein Text von einer KI oder einem Menschen stammt. Selbst die Entwickler von KI-Systemen betonen die Grenzen dieser Erkennung:


  • OpenAI selbst stellte fest, dass kein bisheriger Detector zuverlässig zwischen KI-generierten und humanen Inhalten unterscheidet​

    businessinsider.com

    . Ihr eigener veröffentlichter Klassifikator (Anfang 2023) identifizierte in internen Tests nur 26 % der KI-Texte korrekt – und markierte zugleich irrtümlich einige berühmte menschliche Texte (z.B. Shakespeare, Unabhängigkeitserklärung) als KI-generiert​

    businessinsider.com

    ​. OpenAI hat dieses Tool im Juli 2023 mangels Zuverlässigkeit wieder zurückgezogen.

  • Fehlalarme (False Positives) sind ein zentrales Problem: Wenn ein Detector fälschlich menschliche Arbeit als KI erkennt, kann dies zu ungerechtfertigten Beschuldigungen führen. Berichte zeigen etwa, dass insbesondere nicht-englische Muttersprachler Gefahr laufen, von Detektoren als „KI“ eingestuft zu werden​

    businessinsider.com

     – offenbar, weil deren Sprachmuster von den Trainingsdaten der KI-Detektoren abweichen. Ein zweifelsfreier Nachweis im Sinne eines gerichtsfesten Beweises ist damit praktisch unmöglich.

  • False Negatives untergraben ebenso die Beweiskraft: Ein Tool könnte einen wirklich von KI erzeugten Text übersehen (z.B. wenn die KI sehr menschenähnlich schreibt oder der Text gemischt bearbeitet wurde). Auch hier kann kein eindeutiger Beweis geliefert werden, da das Ausbleiben einer Flagge nicht garantiert, dass kein KI-Einsatz vorlag.

In der Praxis warnen Expert*innen davor, KI-Detektionsergebnisse als absoluten Beleg zu nehmen. Eine Gruppe von Forschern formulierte als Kernerkenntnis, man müsse davon ausgehen, „dass Studierende jedes KI-Detektions-Tool umgehen können, egal wie ausgefeilt“

. Mit anderen Worten: Es ist ein Katz-und-Maus-Spiel. Schon jetzt können geschickte Nutzer Spuren verwischen, und künftige KI-Modelle werden voraussichtlich noch schwieriger zu entlarven sein.


Zusammengefasst dienen KI-Detektoren höchstens als Indiz oder Anfangsverdacht, nicht als Beweis. Soll ein Text auf KI-Einsatz geprüft werden, empfehlen Fachleute, ergänzend das Gespräch mit dem Autor zu suchen oder den Entstehungsprozess (Entwürfe, Arbeitsfortschritte) nachzuvollziehen, anstatt allein auf ein Tool-Urteil zu vertrauen.


Schwächen und Herausforderungen der aktuellen Detektoren


Die bestehenden KI-Erkennungstechnologien haben mehrere Schwachstellen:

  • Anfälligkeit für Umformulierungen: Wie erwähnt, lassen sich Detektoren oft austricksen, wenn KI-Text einfach umgeschrieben wird. Schon einfache paraphrasierende Änderungen oder Übersetzungen in eine andere Sprache und zurück können ausreichen, damit der ursprüngliche KI-Text nicht mehr erkannt wird​

    insidehighered.com

    . Sadasivan et al. (2024) zeigten einen „rekursiven Paraphrase-Angriff“, bei dem KI-generierter Text wiederholt leicht umgeschrieben wird, wodurch sowohl auf Wortebene suchende Ansätze als auch neuronale Klassifikatoren und selbst Wasserzeichentechniken in die Irre geführt werden​

    iscap.us

    . Diese Verwundbarkeit bedeutet, dass entschlossene Nutzer Detektoren relativ leicht überlisten können.

  • Hohe False-Positive-Raten in bestimmten Fällen: Einige Tools neigen dazu, kreative oder ungewöhnliche menschliche Texte als KI-Ausgabe fehlzuinterpretieren. Das Beispiel mit Shakespeare oder historischen Dokumenten, die als „KI“ markiert wurden​

    businessinsider.com

    , zeigt, dass die Kriterien der Modelle nicht immer zuverlässig zwischen echtem menschlichem Stil und KI unterscheiden. Insbesondere einfach geschriebene Texte von Schülern, Studierenden oder Nicht-Muttersprachlern wurden verschiedentlich fälschlich als KI-Text eingestuft​

    businessinsider.com

    , was ernsthafte Konsequenzen haben kann. Diese Biases stellen ein erhebliches Problem dar.

  • Abhängigkeit von Trainingsdaten: Viele Erkenner wurden auf Basis älterer KI-Modelle (z.B. GPT-2 oder GPT-3) trainiert. Neuere Modelle wie GPT-4 oder andere aktuelle LLMs erzeugen Texte, die teils wesentlich menschennäher sind. Detektoren, die nicht zeitnah mit solchen Daten aktualisiert wurden, erkennen neue KI-Texte schlechter

    doi.org

    . Walters (2023) zeigte z.B., dass viele Tools, die GPT-3.5-Texte noch relativ gut erkannten, bei GPT-4-Texten versagten​

    doi.org

    . Es besteht also ein ständiger Anpassungsbedarf, um Schritt mit der rasanten KI-Entwicklung zu halten.

  • Mangelnde Transparenz und Standardisierung: Ein weiterer Schwachpunkt ist, dass die meisten Anbieter nicht offenlegen, wie ihre Erkennung im Detail funktioniert und welche Messlatte angelegt wird​

    insidehighered.com

    . Vergleichende Bewertungen sind schwierig, da jeder etwas andere Skalen (Prozentscores, Farbcodes, etc.) oder Kategorien („likely AI“, „fake“, „human“, „undetected“) nutzt. Ohne Standard fehlen klare Schwellenwerte, ab wann ein Text als KI-generiert gilt.

  • Grenzen bei gemischten oder kurzen Texten: Viele Detektoren arbeiten auf Dokumentebene. Wenn ein Text sowohl von Mensch als auch KI bearbeitet wurde (Hybridtext), fällt die Klassifikation schwer – der Detektor könnte den gesamten Text fälschlich als menschlich einstufen, sobald nur ein Teil ausreichend umgeschrieben ist. Auch sehr kurze Texte oder solche aus überwiegend Fakten/Stichpunkten lassen kaum genug sprachliche Merkmale für eine sichere Unterscheidung erkennen.


Diese Herausforderungen machen deutlich, dass KI-Texterkennung kein leicht lösbares Problem ist. Es erfordert laufende Forschung, bessere Modelle und eventuell auch politische/ethische Lösungen (z.B. Kennzeichnungspflichten), um verlässlich unterscheiden zu können, ob ein Text von einer KI stammt.


Neueste Entwicklungen und Ausblick

Trotz der aktuellen Limitationen gibt es kontinuierliche Fortschritte auf diesem Gebiet:

  • Verbesserte Detektoren: Forschungsteams arbeiten an neuen Erkennungsalgorithmen, oft mit deutlich größeren Trainingsdatensätzen. Ein Beispiel ist CheckGPT (Liu et al., 2024), ein Deep-Learning-Detektor, der mit über 2,3 Millionen Beispielen (human vs. ChatGPT) trainiert wurde. Die Entwickler berichten, dass CheckGPT „sehr akkurat, flexibel und übertragbar“ sei​

    iscap.us

     – was auf eine höhere Treffsicherheit auch bei verschiedenen Textarten hindeutet. Solche spezialisierten Modelle könnten künftige öffentlich verfügbare Detector-Tools antreiben.

  • Schnelle Adaption an neue KI-Modelle: Es zeigte sich, dass die leistungsfähigsten Detectoren relativ zeitnah aufgerüstet werden können. Walters stellte fest, dass nur vier Monate nach Erscheinen von GPT-4 die besten drei Detektoren (Turnitin, Copyleaks, Originality) GPT-4-Texte genauso gut erkannten wie zuvor GPT-3.5-Texte

    doi.org

    . Dies deutet darauf hin, dass die Entwicklung auf beiden Seiten (Generierung und Erkennung) in einem Wettrüsten steckt. Sobald KI-Ausgaben realistischer werden, arbeiten Entwickler an neuen Erkennungsmerkmalen – sei es durch feinere stilistische Analysen oder größere neuronale Modelle, die subtile Hinweise verwerten.

  • Wasserzeichen und technische Standards: In der Forschung wird weiterhin an Wasserzeichen-Techniken gefeilt​

    crfm.stanford.edu

    . 2023 wurden erste robuste Verfahren vorgeschlagen, die einen Marker im Wortwahlmuster verstecken, ohne den Text für Leser merklich zu verändern​

    crfm.stanford.edu

    . Wenn große KI-Anbieter solche Verfahren einbauen würden, ließe sich KI-Text künftig automatisch markieren und erkennen. Allerdings zeigen Studien auch, dass einfachere Aufgaben wie z.B. kontrolliertes Umschreiben diese Wasserzeichen potenziell stören können​

    ojs.aaai.org

    . Zudem gibt es noch keine branchenweite Einigung zur Nutzung solcher Marker.

  • Regulatorische und pädagogische Maßnahmen: Parallel dazu werden strategische Lösungen diskutiert. Einige Universitäten verzichten inzwischen bewusst auf automatisierte KI-Detektoren und setzen stattdessen auf veränderte Prüfungsformen (z.B. mehr mündliche Prüfungen oder handschriftliche Essays), um KI-Missbrauch vorzubeugen. Andere fordern von Studierenden, ihren Schreibprozess zu dokumentieren, um nachzuweisen, dass kein KI-System den Text verfasste. Solche Ansätze adressieren die Wurzel des Problems (den Einsatz von KI in unerlaubten Kontexten), ohne sich ausschließlich auf technische Erkennung zu verlassen.


Ausblick: Kurzfristig ist nicht zu erwarten, dass ein Detektor 100 % zuverlässige Ergebnisse liefert – zu kreativ und wandlungsfähig sind die großen Sprachmodelle. Dennoch werden die Erkennungsmethoden stetig besser. Es entstehen hybrider Ansätze, die viele Indikatoren kombinieren (Stilometrie, statistische Merkmale, inhaltliche Plausibilität, ggf. Wasserzeichen). Langfristig könnten Vorschriften oder freiwillige Selbstverpflichtungen der KI-Anbieter (etwa jeder KI-Text mit Kennung zu versehen) die Lage verbessern. Bis dahin bleibt die KI-Texterkennung ein Balanceakt zwischen falsch anschuldigen und falsch negieren.

 
 
 

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page