„Written bei Human People“: Warum KI-Prüftools und -Kennzeichnungen in die falsche Richtung abbiegen.
Immer wieder lese ich derzeit Beiträge über Prüftools, die angeblich helfen würden, KI-Texte zu entdecken bzw. den KI-Prozentsatz zu definieren. Parallel treffe ich häufig auf Forderungen, KI-Inhalte zu kennzeichnen. Immer mehr beschleicht mich das Gefühl, dass die Diskussion um KI gerade bei Texten – und das ist eine meiner Kerndisziplinen – in die falsche Richtung abbiegt. Warum?
Ist denn menschlich gut und KI schlecht? Sorgen also Menschen für gute Inhalte und KI-Tools für schlechte? Zumindest habe ich derzeit das Gefühl, dass die Diskussion so oder ähnlich verläuft. Und dieser Graben zwischen Human und KI scheint eher größer zu werden. Dabei müssen wir davon ausgehen, dass schon heute in fast jedem Text KI steckt. Alles andere ist ein Blick aus vergangenen Zeiten.
2 Beobachtungen dazu.
1) Diskussionen um KI-Erkennungstools
Auf LinkedIn & Co. werden immer wieder Tools vorgestellt, die mit KI erstellte Texte erkennen können – auch wenn sie final meist daran scheitern. Eines der Argumente der Unterstützer: Die Menschen wollen mehr Transparenz.
Doch wollen wir wirklich wissen, ob ein Text mit KI oder von menschlicher Hand erstellt wurde? Und zu welchem Prozentsatz? Finde ich den Beitrag und die Autorin dann zu 60 Prozent gut, weil er zu 60 Prozent menschlich und zu 40 Prozent KI ist? Was für eine Entscheidung treffe ich, wenn ein Text zu 33,3 Prozent angeblich mit KI geschrieben wurde? Und dazu: Wie transparent sind solche Tools wirklich?
Content-Qualität statt KI-Tools
Ich empfinde solche Tools ähnlich wie @Jens Polomski in seinem Kommentar zu solch einem Beitrag über „KI-Erkennungstools“ eher als gefährlich.
So schrieb er: »Warum sollte ich wissen wollen, ob etwas mit einer KI geschrieben wurde? Warum nicht lieber die Qualität der Texte bewerten? (…) Hier sollte man sich lieber Gedanken machen, wie man die Qualität der Texte oder die Fähigkeit, die bei der Erstellung von den Texten benötigt werden, bewerten können. Alles andere ist nur ein Businesscase für solche Tools, mehr nicht.«
2. Kennzeichnung von KI-Texten
Genauso wenig bringt uns die Diskussion über die Kennzeichnungspflicht bei Texten weiter, dass ein Beitrag mit KI erstellt wurde oder nicht. Mir ist bewusst, dass hier die Meinungen stark auseinandergehen, wie beispielsweise im späten Frühjahr eine Diskussion zu einem Beitrag im @PRReport offenbart hatte.
Wenn wir uns den schnellen Einzug der KI in alle Disziplinen ansehen, dann ist es keine Raketenwissenschaft zu prognostizieren, dass kaum ein Text, kaum ein Konzept, kaum ein Beitrag künftig ohne KI auskommen wird. Sollen wir dann diese alle kennzeichnen? Oder ab welchem Anteil? Ich halte es da ähnlich wie Sascha Stoltenow, wenn er zum obigen Beitrag kommentiert: „Man würde auch nicht darunterschreiben: „Ich habe für meinen Text gegoogelt und Word genutzt“.“
„Written bei Word“ oder “Powered by KI”?
Künftig wird überall KI drinstecken – in Texten, Bildern, Videos. Schließlich dringt KI immer tiefer in unser Leben ein. Auf Textebene gehe ich davon aus, dass der Gebrauch von KI bald so stark ist, wie der Gebrauch früher einer Schreibmaschine oder heute eines Word-Programms oder einer Suchmaschine. Und packen wir jedes Mal darunter „written with Word“ oder „searched by Google”?
Wenn ich sauber arbeite, müsste ich all dies mit KI kennzeichnen, wenn …
- ich mir im Vorfeld über ein KI-Tool Fragen zu einem Interview mit einer Expertin vorschlagen lasse. Vielleicht „helped by KI“?
- ich meinen englischen Text mit DeepL & Co. noch überprüft lassen habe. Also „checked by KI“?
- ich meinen 10-seitigen Text auf Schreib- oder Kommata-Fehler korrigieren lassen? Wieder „checked by KI“?
- ich verschiedene Titel, meine Teaser, meine Hooks eines Textes verglichen habe? Wie wäre es mit „compared by KI“?
- ich die KI meine Beiträge analysieren lasse, um mir Vorschläge zur Verbesserung machen lassen. In diesem Fall dann „powered by KI“?
- ich mir Anregungen für einen Beitrag hole. Hübsch wäre vielleicht „inspired by KI“?
- ich meinem Video oder meinen Bildern KI-generierte Untertitel hinzufüge. Beispielsweise also „written by KI“?
Dies ist nur eine klitzekleine Auswahl. All diese Beiträge müsste ich mit KI kennzeichnen. Schreibe ich dann jedes Mal darunter „helped by KI“ oder „checked by KI“ oder „written by KI“ oder „powered by KI“? Bringt uns das weiter? Wie gesagt: Es wirkt wie »mit Word geschrieben«.
In jedem Text steckt KI
Denn in jedem Text steckt KI – ob für die Vorbereitung, für die Analyse, für die Ansprache, für die Überschrift, für den Text selbst. Würde uns Kennzeichnungen weiterbringen, wenn (fast) alle Texte gekennzeichnet wären? Und Tools wirklich helfen? Nicht wirklich.
Übrigens: Das entbindet uns nicht von der Verantwortung für die Inhalte. Doch dass eine finale Überprüfung Pflicht ist, wird jeder und jede heute wissen und hoffentlich auch tun. Denn der Mensch hat stets das letzte Wort. Sollte er zumindest haben.
Und bei Bildern und Videos?
Ich kann nachvollziehen, dass die Diskussion bezogen auf den KI-Einsatz bei Bildern oder Videos intensiver ist, da Bilder mehr als 1.000 Worte sagen können und uns somit noch schneller in unserem Scan- und Skim-Modus verwirren. Mit der Verbreitung generativer Bild-KI können inzwischen selbst Laien in Sekunden komplett frei erfundene Bilder fotorealistisch erstellen.
Hier finde ich es spannend zu beobachten, wie sich wachsende Initiativen wie die Coalition for Content Provenance and Authenticity (C2PA) für mehr Vertrauen für Medien und Bilder im Netz einsetzen und dabei für einen neuen Open-Source-Industriestandard für Metadaten werben.
Auch TikTok gehört zu den Unterstützern. Gerade die Einführung von Content Credentials als vertrauensvollen Standard für Fotos und Videos könnte gerade in sozialen Netzwerken helfen, Fake News zu erschweren.
Doch auch dort: Wie viele Verfremdungs-Tools gibt es? Wie viele Filter gerade bei Plattformen wie Instagram und TikTok? Wie viel Hilfe per Photoshop & Co., mit der schon immer Bilder überarbeitet wurden? Müsste auch dann nicht fast jedes Bild gekennzeichnet werden müssen? Und das sage ich als Bruder einer fantastischen Fotografin.
Fazit: Qualität first bitte!
Doch zurück zum Text: Wie oben schon angedeutet, müssen wir uns stattdessen viel intensiver mit der Qualität auseinandersetzen. Damit Texte überhaupt wert sind, gelesen zu werden, unabhängig davon, ob KI oder Human Being als Urheber und/oder Co-Creator, sollte nicht Content und der Mehrwert entscheidend sein. Was übrigens auch Suchmaschinen wie Google so machen und bewerten.
Wenn ich diese Frage mit Tools verbinde, dann denke ich eher an Tools wie
- Fleschindex: für schlankere Texte und höhere Verständlichkeit
- Wolf Schneider KI: für eine sprachlich höhere Qualität
- Lex.page: zum Check von Wörtern, Lesbarkeit, Grammatik und Titeln
Oder an Beiträge, wie im Upload-Magazin, die aufzeigen, wie eng Mensch und KI zusammenarbeiten sollten, um für wirkliche Qualität zu sorgen. Wie schreiben dort die Autorinnen: „Qualität entsteht, wenn Textprofis KI als Werkzeug nutzen – weil zu großartigem Content viel mehr gehört als ein paar Schablonensätze zu formulieren.“ Wie wahr.
Investitionen in digitale Bildung
Die größte Gefahr von KI besteht darin, das »Vertrauen beim Publikum zu verlieren«, heißt es bei SWR-Datenjournalist Johannes Schmid-Johannsen, im Fachmedium „journalist“. Nur dafür hilft eine Kennzeichnung kaum. Vielmehr müssen wir – was ich (wie viele andere auch) seit Jahren predige und gerade erst beim Cosca wieder diskutiert habe – in die digitale Bildung investieren. Wir müssen dazu beitragen, das Bewusstsein und die Kompetenzen bei der Einschätzung von Beiträgen weiter zu verbessern, quer durch die Generationen. Nur dann werden die Menschen besser echt von unecht, fake von real, gut von schlecht unterscheiden können.
Wenn im aktuellen „journalist“ über „Prebunking“ geschrieben wird, also die User zu befähigen, Inhalte eigenständig auf Faktentreue zu überprüfen bzw. Desinformationsstrategien und Fehlinformationen zu entlarven, ist dies ein Anfang. Und etwas Aufklärung liefert dazu auch der passende TikTok-Kanal prebunk. Ohne solche Investitionen werden wir uns in einer Fachdiskussion verlieren, die kaum zu den Menschen hinüberschwappen wird.
Written by human people
Es gäbe natürlich eine prima Alternative: Wir drehen einfach den viel beschriebenen „Spieß“ 180 Grad um und kennzeichnen die Beiträge, Bilder oder Videos, die 100 Prozent frei von jeglicher KI sind. Sofern es bald noch welche gibt, könnte man fragen.
Denn gibt es nicht bei jeder Entwicklung auch eine Gegenentwicklung? Vielleicht sind dann künftig plötzlich Bilder und Videos und sogar Texte „in“, die pur und ohne jegliche digitale Bearbeitung erzeugt werden. Dies war bei vielen anderen digitalisierten Produkten nicht anders, wenn man an die Trends hin zu Schallplatten, zu Polaroid-Kameras, zur analogen Fotografie denkt.
Vielleicht schmücken wir diese Content-Kreationen dann einfach mit der Kennzeichnung: „written by human people“. Der geschätzte Sascha Pallenberg nannte es in seinem Vortrag bei der DMEXCO 2024 übrigens: „human proved“. Wie wahr!