Woran erkennt man KI-Texte?

Immer öfters treffen wir auf Texte bei denen wir uns fragen: Hat das ein Mensch geschrieben oder ist das ein KI-Text? Manchmal finden wir auch heraus, dass der vermeintlich sachlich-unemotionale Text gar nicht von einer KI stammt, sondern von einem Menschen. 🤪
Wer bereits Erfahrung mit der KI hat, besitzt meistens schon ein Feingefühl für diese Art von Texten und erkennt sofort, wenn ChatGPT daran mitgeschrieben hat.
Für alle anderen die wichtigsten Punkte, die einen von einem Menschen geschriebenen Text von einem KI-Text unterscheiden:
Extrem strukturiert und konstruiert
Fast alle KI-Texte lieben Aufzählungen und Bulletpoints. Ganz gleich, welches Thema oder welche Vorgaben, die KI-Texte listen nach dem Intro-Text alle Für und Wider auf. Am Ende folgt natürlich das Fazit. Variationen hierzu gibt es kaum welche.
Steife Formulierungen
Die KI-Tools formulieren meist so, als hätten sie einen „Stock in der Festplatte“. Menschliche Formulierungen wie wir sie gerne bei E-Mails nutzen oder in der Werbesprache („Schreibe als würdest Du einem Freund schreiben“) sind hier Fehl am Platze. Zwar sind die KI-Texte noch weit entfernt von der deutschen Amtssprache – aber auch nicht mehr so weit.
Kaum Redewendungen, Wortspiele oder Ironie/Sarkasmus
Wortspiele, wie wir sie dutzendfach in der Werbung hören oder lesen, gibt es nur selten.
Keine textlichen Freiheiten
Haben Sie schon mal was vom Sonntagvormittag-Texter gehört? Nöh? Ich auch nicht. Aber das Beispiel zeigt, wie kreativ der Mensch mit der Sprache umgehen kann. Natürlich nur, wenn er das will.
Keine Zielsetzung
Jeder gute Text hat eine Botschaft, also ein Ziel, das verfolgt wird. So ist zum Beispiel ein guter Text über – beispielsweise die Klimaerwärmung – einerseits informativ, möchte aber oft auch überreden, belehren oder hinweisen. Dieses Prinzip folgt der griechischen Rhetorik und beinhaltet Elemente wie Überzeugung, Argumente, Erfahrung und Redekunst. Da diese sich meist während eines Lebens bilden, fehlen sie natürlich in einem KI-Text.
Gerade bei längeren Texten hat die KI deshalb so ihre Schwierigkeiten. In Whitepapern erfolgt meist eine seitenlange Herleitung, die am Ende einen Lösungsweg aufzeigt. Jeder Abschnitt sollte dabei aufeinander logisch aufbauen – auch wenn dies nicht immer auf Anhieb ersichtlich ist.
Eigene Beispiele und Schlussfolgerungen
Oft schreiben wir in unseren Texten über Dinge, die wir selbst erlebt oder recherchiert haben. So steht beispielsweise in der neuen NIS2 Verordnung, dass Unternehmen auch für die IT-Sicherheit ihrer Zulieferer und Kunden sorgen müssen. Das Gesetzt spricht nur von 30.000 betroffenen Unternehmen, aber multipliziert man jedes Unternehmen mit nur 20 Dienstleistern, kommt man auf 6 Mio. betroffene Unternehmen. Solche Schlussfolgerungen treffen KI-Tools wie ChatGPT normalerweise nicht, sondern geben nur die Texte wider, die sie kennen.
Das Wesentliche erkennen
Oft schreiben wir Werbetexter oder IT-Texter auch gerne über Studien und Umfragen. Einige KI-Tools sind mittlerweile sogar in der Lage, eine Zusammenfassung dieser hinzubekommen. Das Problem: Die KI kann nicht bewerten, welche Zahlen insgesamt wichtig sind und welche Zahlen und Statistiken für den Artikel von Bedeutung sind. Oft sind es gerade die Dinge, die nicht gesagt werden, die am wichtigsten sind und die sich beispielsweise durch „fehlende Informationen“ ergeben. Wieder einmal geht es um das halb leere oder halb volle Glas. Doch welche Sicht ist die richtige?
Schlechte Stilistik und Wortwiederholungen
Der KI ist es gleich, ob sich Wörter wiederholen oder sich lange Schachtelsätze bilden. Sie kann sich den Text auch nicht selbst vorlesen und dabei hören, ob es gut oder schlecht klingt.
Falsche Inhalte
Man sollte die KI nur dann etwas schreiben lassen, wenn man mehr Ahnung über das Thema hat als die KI selbst. Ansonsten passiert es schnell, dass falsche Behauptungen und Schreibweisen sich einschleichen. Auch das „Erfinden“ bzw. „Phantasieren“, was von KI-Systemen bekannt ist, sorgt immer wieder für Ärger und Peinlichkeiten.
So, das waren jetzt die Punkte, die ein Mensch aufgelistet hätte. Damit Sie sehen, wie es aussieht, wenn die KI diesen Artikel geschrieben hätte, hier nachfolgend:
Künstliche Intelligenz hat in den letzten Jahren große Fortschritte gemacht. Moderne KI-Modelle wie ChatGPT oder Bard sind in der Lage, menschenähnliche Texte zu generieren, die oft nur schwer von menschlichen Beiträgen zu unterscheiden sind. Dennoch gibt es einige Hinweise, die darauf hindeuten können, dass ein Text von einer KI erstellt wurde.
1. Übermäßig perfekte Grammatik und Struktur
KI-generierte Texte sind oft grammatikalisch einwandfrei und sehr gut strukturiert. Während Menschen gelegentlich Tippfehler, unvollständige Sätze oder kleinere Unstimmigkeiten einbauen, sind KI-Texte meist makellos. Zu viel Perfektion kann also ein Hinweis sein.
2. Wiederholungen und fehlende Tiefe
Obwohl KI-Modelle sehr gut darin sind, Inhalte kohärent zu formulieren, neigen sie dazu, sich zu wiederholen oder keine wirklichen neuen Erkenntnisse zu liefern. Sie arbeiten oft mit bereits vorhandenen Informationen und können manchmal inhaltlich oberflächlich bleiben.
3. Mangel an persönlicher Erfahrung oder Emotion
Ein menschlicher Autor bringt oft persönliche Erlebnisse, Emotionen oder Meinungen in einen Text ein. KI-Texte hingegen bleiben neutral, vermeiden kontroverse Aussagen und enthalten keine echten persönlichen Erfahrungen.
4. Fehlende oder falsche Quellenangaben
KI-Modelle generieren Inhalte auf Basis vorhandener Daten, zitieren aber oft keine konkreten Quellen oder erfinden Quellenangaben. Wenn ein Text keine verlässlichen Verweise enthält oder falsche Zitate liefert, könnte er von einer KI stammen.
5. Gleichmäßige Satzstruktur und Wortwahl
Menschen variieren ihre Satzstrukturen natürlicherweise und nutzen unterschiedliche Ausdrucksweisen. KI-generierte Texte neigen dazu, eine gleichmäßige Satzlänge und ähnliche Formulierungen zu verwenden, was sie manchmal monoton wirken lässt.
6. Fehlende Kontextualisierung und falsche Fakten
KI kann zwar viele Informationen liefern, hat jedoch kein echtes Verständnis von Kontext. Manchmal erzeugt sie sachlich falsche Aussagen oder interpretiert Sachverhalte falsch. Falls ein Text widersprüchliche oder fehlerhafte Informationen enthält, kann dies ein Hinweis auf eine KI-Quelle sein.
Fazit
Während KI-generierte Texte immer besser werden, gibt es einige typische Merkmale, die sie verraten können. Perfekte Grammatik, Wiederholungen, fehlende Emotionen oder fragwürdige Quellen sind mögliche Anzeichen. Wer einen Text kritisch hinterfragt und genau analysiert, kann in vielen Fällen erkennen, ob er von einer KI stammt oder nicht. Gute Texte werden noch länger von Menschen geschrieben. Ob sich das mal ändert, wer weiß?
Welchen Text fanden Sie besser? Die sachliche Auflistung der KI oder der eher in Umgangssprache geschriebene menschliche Text?