„Written bei Human People“: Warum KI-Prüftools und -Kennzeichnungen in die falsche Richtung abbiegen.

„Written bei Human People“: Warum KI-Prüftools und -Kennzeichnungen in die falsche Richtung abbiegen.

Immer wieder lese ich derzeit Beiträge über Prüftools, die angeblich helfen würden, KI-Texte zu entdecken bzw. den KI-Prozentsatz zu definieren. Parallel treffe ich häufig auf Forderungen, KI-Inhalte zu kennzeichnen. Immer mehr beschleicht mich das Gefühl, dass die Diskussion um KI gerade bei Texten – und das ist eine meiner Kerndisziplinen – in die falsche Richtung abbiegt. Warum?

Ist denn menschlich gut und KI schlecht? Sorgen also Menschen für gute Inhalte und KI-Tools für schlechte? Zumindest habe ich derzeit das Gefühl, dass die Diskussion so oder ähnlich verläuft. Und dieser Graben zwischen Human und KI scheint eher größer zu werden. Dabei müssen wir davon ausgehen, dass schon heute in fast jedem Text KI steckt. Alles andere ist ein Blick aus vergangenen Zeiten.

2 Beobachtungen dazu.

1) Diskussionen um KI-Erkennungstools

Auf LinkedIn & Co. werden immer wieder Tools vorgestellt, die mit KI erstellte Texte erkennen können – auch wenn sie final meist daran scheitern. Eines der Argumente der Unterstützer: Die Menschen wollen mehr Transparenz.

Doch wollen wir wirklich wissen, ob ein Text mit KI oder von menschlicher Hand erstellt wurde? Und zu welchem Prozentsatz? Finde ich den Beitrag und die Autorin dann zu 60 Prozent gut, weil er zu 60 Prozent menschlich und zu 40 Prozent KI ist? Was für eine Entscheidung treffe ich, wenn ein Text zu 33,3 Prozent angeblich mit KI geschrieben wurde? Und dazu: Wie transparent sind solche Tools wirklich?

Content-Qualität statt KI-Tools

Ich empfinde solche Tools ähnlich wie @Jens Polomski in seinem Kommentar zu solch einem Beitrag über „KI-Erkennungstools“ eher als gefährlich.

So schrieb er: »Warum sollte ich wissen wollen, ob etwas mit einer KI geschrieben wurde? Warum nicht lieber die Qualität der Texte bewerten? (…) Hier sollte man sich lieber Gedanken machen, wie man die Qualität der Texte oder die Fähigkeit, die bei der Erstellung von den Texten benötigt werden, bewerten können. Alles andere ist nur ein Businesscase für solche Tools, mehr nicht.«

2. Kennzeichnung von KI-Texten

Genauso wenig bringt uns die Diskussion über die Kennzeichnungspflicht bei Texten weiter, dass ein Beitrag mit KI erstellt wurde oder nicht. Mir ist bewusst, dass hier die Meinungen stark auseinandergehen, wie beispielsweise im späten Frühjahr eine Diskussion zu einem Beitrag im @PRReport offenbart hatte.

Wenn wir uns den schnellen Einzug der KI in alle Disziplinen ansehen, dann ist es keine Raketenwissenschaft zu prognostizieren, dass kaum ein Text, kaum ein Konzept, kaum ein Beitrag künftig ohne KI auskommen wird. Sollen wir dann diese alle kennzeichnen? Oder ab welchem Anteil? Ich halte es da ähnlich wie Sascha Stoltenow, wenn er zum obigen Beitrag kommentiert: „Man würde auch nicht darunterschreiben: „Ich habe für meinen Text gegoogelt und Word genutzt“.“

„Written bei Word“ oder “Powered by KI”?

Künftig wird überall KI drinstecken – in Texten, Bildern, Videos. Schließlich dringt KI immer tiefer in unser Leben ein. Auf Textebene gehe ich davon aus, dass der Gebrauch von KI bald so stark ist, wie der Gebrauch früher einer Schreibmaschine oder heute eines Word-Programms oder einer Suchmaschine. Und packen wir jedes Mal darunter „written with Word“ oder „searched by Google”?

Wenn ich sauber arbeite, müsste ich all dies mit KI kennzeichnen, wenn …

  • ich mir im Vorfeld über ein KI-Tool Fragen zu einem Interview mit einer Expertin vorschlagen lasse. Vielleicht „helped by KI“?
  • ich meinen englischen Text mit DeepL & Co. noch überprüft lassen habe. Also „checked by KI“?
  • ich meinen 10-seitigen Text auf Schreib- oder Kommata-Fehler korrigieren lassen? Wieder „checked by KI“?
  • ich verschiedene Titel, meine Teaser, meine Hooks eines Textes verglichen habe? Wie wäre es mit „compared by KI“?
  • ich die KI meine Beiträge analysieren lasse, um mir Vorschläge zur Verbesserung machen lassen. In diesem Fall dann „powered by KI“?
  • ich mir Anregungen für einen Beitrag hole. Hübsch wäre vielleicht „inspired by KI“?
  • ich meinem Video oder meinen Bildern KI-generierte Untertitel hinzufüge. Beispielsweise also „written by KI“?

Dies ist nur eine klitzekleine Auswahl. All diese Beiträge müsste ich mit KI kennzeichnen. Schreibe ich dann jedes Mal darunter „helped by KI“ oder „checked by KI“ oder „written by KI“ oder „powered by KI“? Bringt uns das weiter? Wie gesagt: Es wirkt wie »mit Word geschrieben«.

In jedem Text steckt KI

Denn in jedem Text steckt KI – ob für die Vorbereitung, für die Analyse, für die Ansprache, für die Überschrift, für den Text selbst. Würde uns Kennzeichnungen weiterbringen, wenn (fast) alle Texte gekennzeichnet wären? Und Tools wirklich helfen? Nicht wirklich.

Übrigens: Das entbindet uns nicht von der Verantwortung für die Inhalte. Doch dass eine finale Überprüfung Pflicht ist, wird jeder und jede heute wissen und hoffentlich auch tun. Denn der Mensch hat stets das letzte Wort. Sollte er zumindest haben.

Und bei Bildern und Videos?

Ich kann nachvollziehen, dass die Diskussion bezogen auf den KI-Einsatz bei Bildern oder Videos intensiver ist, da Bilder mehr als 1.000 Worte sagen können und uns somit noch schneller in unserem Scan- und Skim-Modus verwirren. Mit der Verbreitung generativer Bild-KI können inzwischen selbst Laien in Sekunden komplett frei erfundene Bilder fotorealistisch erstellen.

Hier finde ich es spannend zu beobachten, wie sich wachsende Initiativen wie die Coalition for Content Provenance and Authenticity (C2PA) für mehr Vertrauen für Medien und Bilder im Netz einsetzen und dabei für einen neuen Open-Source-Industriestandard für Metadaten werben.

Auch TikTok gehört zu den Unterstützern. Gerade die Einführung von Content Credentials als vertrauensvollen Standard für Fotos und Videos könnte gerade in sozialen Netzwerken helfen, Fake News zu erschweren.

Doch auch dort: Wie viele Verfremdungs-Tools gibt es? Wie viele Filter gerade bei Plattformen wie Instagram und TikTok? Wie viel Hilfe per Photoshop & Co., mit der schon immer Bilder überarbeitet wurden? Müsste auch dann nicht fast jedes Bild gekennzeichnet werden müssen? Und das sage ich als Bruder einer fantastischen Fotografin.

Fazit: Qualität first bitte!

Doch zurück zum Text: Wie oben schon angedeutet, müssen wir uns stattdessen viel intensiver mit der Qualität auseinandersetzen. Damit Texte überhaupt wert sind, gelesen zu werden, unabhängig davon, ob KI oder Human Being als Urheber und/oder Co-Creator, sollte nicht Content und der Mehrwert entscheidend sein. Was übrigens auch Suchmaschinen wie Google so machen und bewerten.

Wenn ich diese Frage mit Tools verbinde, dann denke ich eher an Tools wie

  • Fleschindex: für schlankere Texte und höhere Verständlichkeit
  • Wolf Schneider KI: für eine sprachlich höhere Qualität
  • Lex.page: zum Check von Wörtern, Lesbarkeit, Grammatik und Titeln

Oder an Beiträge, wie im Upload-Magazin, die aufzeigen, wie eng Mensch und KI zusammenarbeiten sollten, um für wirkliche Qualität zu sorgen. Wie schreiben dort die Autorinnen: „Qualität entsteht, wenn Textprofis KI als Werkzeug nutzen – weil zu großartigem Content viel mehr gehört als ein paar Schablonensätze zu formulieren.“ Wie wahr.

Investitionen in digitale Bildung

Die größte Gefahr von KI besteht darin, das »Vertrauen beim Publikum zu verlieren«, heißt es bei SWR-Datenjournalist Johannes Schmid-Johannsen, im Fachmedium „journalist“. Nur dafür hilft eine Kennzeichnung kaum. Vielmehr müssen wir – was ich (wie viele andere auch) seit Jahren predige und gerade erst beim Cosca wieder diskutiert habe – in die digitale Bildung investieren. Wir müssen dazu beitragen, das Bewusstsein und die Kompetenzen bei der Einschätzung von Beiträgen weiter zu verbessern, quer durch die Generationen. Nur dann werden die Menschen besser echt von unecht, fake von real, gut von schlecht unterscheiden können.

Wenn im aktuellen „journalist“ über „Prebunking“ geschrieben wird, also die User zu befähigen, Inhalte eigenständig auf Faktentreue zu überprüfen bzw. Desinformationsstrategien und Fehlinformationen zu entlarven, ist dies ein Anfang. Und etwas Aufklärung liefert dazu auch der passende TikTok-Kanal prebunk. Ohne solche Investitionen werden wir uns in einer Fachdiskussion verlieren, die kaum zu den Menschen hinüberschwappen wird.

Written by human people

Es gäbe natürlich eine prima Alternative: Wir drehen einfach den viel beschriebenen „Spieß“ 180 Grad um und kennzeichnen die Beiträge, Bilder oder Videos, die 100 Prozent frei von jeglicher KI sind. Sofern es bald noch welche gibt, könnte man fragen.

Denn gibt es nicht bei jeder Entwicklung auch eine Gegenentwicklung? Vielleicht sind dann künftig plötzlich Bilder und Videos und sogar Texte „in“, die pur und ohne jegliche digitale Bearbeitung erzeugt werden. Dies war bei vielen anderen digitalisierten Produkten nicht anders, wenn man an die Trends hin zu Schallplatten, zu Polaroid-Kameras, zur analogen Fotografie denkt.

Vielleicht schmücken wir diese Content-Kreationen dann einfach mit der Kennzeichnung: „written by human people“. Der geschätzte Sascha Pallenberg nannte es in seinem Vortrag bei der DMEXCO 2024 übrigens: „human proved“. Wie wahr!

Gedankenspiele: Wie der Social Media Wandel fortschreitet.

Gedankenspiele: Ein Ende, ein Anfang und viel Resonanz

die letzten 4 Wochen standen für mich im Zeichen meines neuen Buches. So hat »Das Ende von Social Media« bereits jetzt viel positive Resonanz erhalten. Das freut mich natürlich. Schließlich geht es mir immer darum, mit Büchern Gedankenanstöße für einen Weg der Veränderung zu geben und aus jedem Ende auch einen Anfang zu etwas Neuem zu machen.

Spannend zu beobachten ist in diesem Kontext, wie viele meiner Buchthemen derzeit in den Fachmedien auftauchen und die ich in diesen Gedankenspielen ausgreife. Alle unterstreichen die Kernaussage in meinem Buch, dass wir künftig viel integrativer denken müssen. Nur so werden wir wieder verstärkt Sichtbarkeit erreichen bzw. erhalten – für uns, unseren Content und damit für unsere Herzensthemen.

In eigener Sache: Medienresonanz zum Buch

  • Wer mich hören und sehen bzw. über mein neues Buch lesen will: Bei Deutschlandfunk Kultur, im Medienrot-Podcast und im Podcast D25 habe ich bisher über die Entwicklungen, die neuen Herausforderungen und das notwendige Umdenken gesprochen. Auch mehrere Expertinnen und Experten haben über das Buch berichtet.
  • Einen kommentierten Überblick („Pressespiegel“) über einige der bereits erschienenen Beiträge in Medien, in Blogs, in News-Kanälen und im Social Web habe ich hier erstellt.

2x Studien

  • Digital News Report: 11 Erkenntnisse zum Medienkonsum
    Wie werden Nachrichten konsumiert? Und vor welchen besonderen Herausforderungen stehen Medien? Einblicke liefert 1x/Jahr der Digital News Report des Reuters Institute for the Study of Journalism. Franziska Bluhm hat daraus 11 Erkenntnisse für Medienmacher formuliert. Kernaussage: »Wer online mit News Zielgruppen erreichen will, braucht eine Social-Media-Strategie und eine SEO-Strategie.«
  • PR-Trendmonitor: Welche Multiplier sind für PR-Profis relevant?
    Wer sind die wichtigen Multiplikatoren in der PR? Laut PR-Profis sind dies Journalistinnen und Journalisten. Übrigens mit großem Abstand. Dies ist das Ergebnis des aktuellen PR-Trendmonitors von news aktuell. Spannend: Während Social-Media-Promis überhaupt keine Relevanz haben, gewinnen Corporate Influencer zunehmend an Bedeutung.

3x Plattformen

  • Six Degrees bis Threads: Zeitreise durch die sozialen Netzwerke
    Schöne Frage unter Freunden: Welche sozialen Netzwerke gab es bisher? Einen Überblick habe ich natürlich in mein Buch integriert. Dieser t3n-Artikel stellt die bekanntesten Netzwerke der letzten 20 Jahre vor – von Six Degrees, über Jappy bis zu den heutigen Playern. Reddit, Tumblr, Vine, BeReal, Clubhouse, & Co. als Social Networks zu bezeichnen, halte ich dagegen für etwas gewagt.
  • BeReal: Lohnt sich für Marken ein Unternehmens-Account?
    Auch nach dem Verkauf ist BeReal mit rund 23 Mio. Nutzern eine interessante Plattform. Gerade durch die neuen Unternehmens-Accounts, die als RealBrands als separate Reiter im Feed erscheinen. Doch die Herausforderungen an Spontanität und Kontinuität sind enorm – gerade für das eigene Employer Branding.

4x Content

  • Instagram Insights: So optimierst du deinen Content
    Wie erfolgreich ist mein Instagram-Posting? Welchen Content sollte ich posten? Und wann am besten? Ich bin immer wieder überrascht, wie wenige sich intensiv mit den eigenen Instagram-Analytics auseinandersetzen. Denn dort finden sich viele Antworten. Was sich herauslesen lässt, wird hier erklärt.
  • Social Media: 7 Tipps für den Content unterwegs
    Gimbal, externe Mikrophone, Ringlichter, goldener Schnitt & Co.: Gerade Video-Content zu erstellen, muss nicht unbedingt schwer sein, wenn man einige Anregungen berücksichtigt. Dieser Beitrag liefert 7 Basis-Tipps.
  • SEO & KI: Ein Deep Dive in Chancen und platzende Träume
    »Mache großartigen Content und alles wird gut«, zitiert Andreas Werner John Mueller von Google. Und geht in seinem Text über KI und SEO tief in die Möglichkeiten ein: in die strategischen Chancen wie in die platzenden Träume vieler, mit schnell erstellten KI-Texten plötzlich Sichtbarkeit bei Google zu erhalten.
  • Personalisierung: 5 Ideen für das E-Mail-Marketing
    Welche Chancen bietet Personalisierung beim E-Mail-Marketing? Also bei Newslettern & Co.? Vielfältig. Jedoch wird dies nur dann gelingen, wenn man die persönliche Ansprache geschickt quer durch das ganze Medium und den Content zieht, wie diese kompakte Aufzählung zeigt.

Gedankenspiele: Wie der Social Media Wandel fortschreitet.

GEDANKENSPIELE: 3x TRENDS, 4x SOCIAL MEDIA, 3x KI & MORE

Der Beginn jedes Jahres beginnt immer mit Vorsätzen: Mehr Partys, weniger Schlafen, lecker Essen, denn das Leben ist zu kurz. Oder: Mehr Entspannen, weniger Arbeiten, bewusster Leben, damit das Lebe­n lang bleibt.

Statt solcher Vorsätze habe ich lieber ein kleines Projekt gestartet: Mein Bahntagebuch2024. Denn Bahnfahren kann so schön sein; wenn es nicht immer diese Verspätungen und andere Nervereien gäbe. Aber ist es wirklich so? Also mache ich einen kleinen Selbstversuch.

Auch ansonsten habe ich wieder 10 Lesetipps und Trends rund um die aktuelle Kommunikationsbranche zusammengestellt. Enjoy it!

Trends.

  • 10 non-obvious trends you need to consider
    Eine Generation Z, die immer stärker über die Social-Media-Kanäle sucht, eine Generation Alpha, die ihre eigene Plattform braucht, Discord, das TikTok bei der GenZ den Rang abläuft und Communitys als die Zukunft des Marketings: 10 spannende Trends, die der US-Marketer Mark Schaefer beobachtet.
  • 9 Social Media Trends 2024
    Nischenplattformen, private Gruppen, Entertainment, Social meets SEO und KI-Content: Ein guter Überblick über Social Media Trends, der sich auch mit meinen Beobachtungen decken und in meinem nächsten Buch verarbeitet sind.
  • 4 Kommunikations-Trends 2024
    KI vs. Authentizität, Nachhaltigkeit, Dark Social und das große Social-Media-Aufräumen: Auch diesen Trends kann ich nur zustimmen, wenn ich mir die aktuellen Entwicklungen ansehe. Darum lohnt es, sich mit diesen 4 Trends etwas näher auseinanderzusetzen.

Social Media.

  • Twitter: Braucht es einen Nachfolger?
    Mastodon, Bluesky, Threads: Wer macht das Rennen als Nachfolger von Twitter? Oder ist es letztendlich X selbst? Dieser Vergleich der Herausforderer lässt den Sieger offen. Vielleicht benötigen wir auch gar keinen.
  • Soziale Netzwerke: Schnell, bunt, umstritten
    Auch bei Stiftungen gehören die sozialen Medien in den kommunikativen Werkzeugkasten. Doch die Arbeit wird immer schwieriger, erfordert sie entsprechende Ressourcen und schnelle Reaktionen auf die Veränderungen. Wie gehen die Organisationen damit um? Einige Beispiele.
  • Lohnt Facebook? 135 Medien im Vergleich
    Es wird immer wieder geschrieben, dass die Reichweiten bei Facebook eingebrochen sind. Lohnt sich für Publisher Facebook noch? Spannende Analyse des Traffics mit guten Schlussfolgerungen für die eigene Strategie.
  • YouTube: Fakten, Daten, Zahlen
    Viele Organisationen behandeln YouTube nur als Ablageort für ihre gedrehten Videos. Welche großen Chancen sie dadurch vergeben, verdeutlichen einige dieser eindrucksvollen Zahlen zur YouTube-Nutzung weltweit und in Deutschland.

KI & more.

  • Wie KI das Internet kaputt macht
    Eine Welle von Schrott- und Klau-Content rollt auf uns mit der KI-Welle zu, so die Computerwoche. Gerade auf Basis bestehender Texte und einfacher Prompts lassen sich in Sekundenschnelle Inhalte kopieren, minimal anpassen und verbreiten. Was ist künftig noch echt und was geklaut?
  • 8 KI-Newsletter, die ein Abo lohnen
    Welche neuen Trends gibt es in der KI-Branche? Wo finde ich Tutorials und die richtigen Tools? Wie kann ich mich über aktuelle Entwicklungen auf dem Laufenden halten? Zum Beispiel über einige der hier vorgestellten E-Mail-Newsletter.
  • Words that a text is written by AI
    Transformative, foster, tapestry, all about, think of x as …, it’s like … : All dies sind typische Begriffe, an denen erkenntlich ist, dass bei dem Text zumindest sehr stark mit KI gearbeitet wurde. Ob es solche Begriffsliste auch für die deutsche Sprache gibt?

Echt oder unecht? Das ist in KI-Zeiten die Frage.

Echt oder unecht? Das ist in KI-Zeiten die Frage.

Vor kurzem durfte ich auf einem Forum einem Vortrag lauschen – über Content, KI und Recht. Natürlich sprachen wir auch über die Möglichkeiten, die über das Thema Texterstellung hinausgehen. Beispielsweise über Bilder, Videos und Audios, die mit menschenähnlichen Stimmen, Tönen und Texten versehen werden – inkl. der Chancen und des Missbrauchs. Steuern wir also auf eine Zeit zu, in der wir nicht mehr zwischen echt oder unecht entscheiden können? Ein längeres Gedankenspiel über eine Entwicklung, die immer mehr an Fahrt zunimmt und mich nachdenklich zurücklässt.

Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau„, erklärt Jens Riewa zum typischen Sound des „Tagesschau“-Jingle. „Heute möchten wir uns bei Ihnen entschuldigen“, führt der Tagesschau-Sprecher fort. „Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“

So beginnen einige im Netz kursierende Aufnahmen, die zeigen wollen, wie sich Jens Riewa und seine Kollegin Susanne Daubner für die angeblichen Lügen entschuldigen, die der Sender in den vergangenen Jahren verbreitet habe, speziell zu den Themen Corona und Ukraine-Krieg.

Doch diese Aufnahmen sind Fake, die Stimmen manipuliert. Hier werde die bekannteste deutsche Nachrichtensendung dafür „ausgenutzt, um gezielt Desinformation zu verbreiten“, so Marcus Bornheim, Chefredakteur von ARD-aktuell.

Gefälschte Videos, gefälschte Stimmen, gefälschte Menschen

Doch vielen Menschen haben sich täuschen gelassen, in einem Land, in dem die digitale Bildung und der gelernte Umgang mit digitalen Medien nicht gerade an erster Stelle steht? Oder anders herum gefragt: Können wir uns eigentlich auf die Wirklichkeit verlassen, so wie wir sie wahrnehmen? Vor allem, da wir doch erst am Anfang eines neuen Zeitalters stehen, in dem uns KI mit großartigen Chancen aber auch sonderbaren Blüten begleiten wird?

Denn der ARD-Case ist kein Einzelfall. Wie gut sich Werbevideos per KI immer besser fälschen lassen, zeigt ein zweites Beispiel: Wieder im deutschen Fernsehen, wieder ein öffentlich-rechtlicher Kanal, dieses Mal das ZDF und News Anchor Christian Sievers. In einem Video im Design des Heute-Journals im ZDF-Nachrichtenstudio scheint Sievers öffentlich für ein Finanzprodukt zu werben:

„Wir sprechen von einer neuen KI-gestützten Anlage-Plattform, die bereits Millionen von deutschen Bürgern zur Verfügung steht und ihnen hilft, mit minimalen Investitionen große Geldsummen zu verdienen.“

Natürlich ist es nicht Sievers selbst, sondern ein „digitaler Klon“, der hier lippensynchron berichtet; natürlich sind es nicht die Heute-Nachrichten, sondern ein per KI erstelltes Video mit der geklonten Stimme von Christian Sievers und ganz im ZDF-Design. Auf X schreibt Sievers dazu:

„Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich… Echt nicht. Vorsicht, fiese Betrugs-Masche mit KI in soz. Medien. Schlimme neue Welt. Und von Facebook und Co: Nur Achselzucken.“

Gefakte Promis als Werbe-Testimonials

Auch wenn sich der Fake anhand der bunten Zahlen im Untertitel des Videos leicht erkennen lässt: der Clip belegt, wie weit die Entwicklung im Bereich KI bereits ist, um Videos mit prominenten Köpfen, gefälschten Bildern und geklonten Stimmen künstlich zu generieren; auch, um diese Fakes mit Prominenten dann als Werbung für eigene Produkte einzusetzen. Dies zeigt auch ein drittes Beispiel aus den USA.

Dort hat die KI-App Lisa AI Original-Filmmaterial der US-Schauspielerin Scarlett Johansson dafür genutzt, um in einem Werbespot auf X für die eigene App zu werben – selbstverständlich ohne ihr Wissen und damit unerlaubt. Dazu lächelt sie in die Kamera:

„Was geht ab, Leute? Hier ist Scarlett. Und ich möchte, dass ihr mit mir kommt ….“

Im Anschluss ist weiterhin ihre Stimme zu hören, die für die App wirbt und ihre Chancen lobt. Doch es ist nicht Scarlett, sondern ein KI-Abbild; und es ist nicht ihre Stimme, sondern eine künstlich generierte, geklonte Version ihrer Stimme. Dass sie rechtlich gegen die hinter der App stehende Firma vorgeht, ist nicht überraschend. Und dass der KI-Hype die gesamte Entertainment-Branche aufgeschreckt hat, spiegelt sich im Streik in Hollywood letzten Sommer wider.

Der Boom der KI-Tools

Denn Johansson ist nur ein Beispiel für eine Reihe an Prominenten gerade in den USA, deren Bilder und Stimmen unerlaubt verwendet wurden. Dieser Missbrauch ist eng mit den immer stärker sich verbreiteten KI-Instrumenten zu sehen, die sich immer häufiger dafür rühmen, das echte Leben möglichst realistisch und praktisch 1-zu-1 abbilden zu können.

Beispiel Microsoft: Der aktuell führende KI-Konzern hat einen neuen Text-to-Speech-Avatar vorgestellt, über den sich „realistische sprechende Avatare von echten Personen“ erstellen lassen. Dass solche Entwicklungen Deepfakes und geklonten Stimmen erleichtern, diese Gefahren liegen auf der Hand.

Ist das die Zukunft des Influencer Marketings?

Doch zurück zu Sievers Warnung: „Fiese Betrugs-Maschine mit KI in sozialen Medien“ schrieb er auf X. Doch wenn die Erstellung von AI-Klonen immer leichter wird, was bedeutet dies dann für ein Social Media Marketing? Für ein Influencer Marketing? Mit virtuellen, KI-generierten Influencern?

Virtuelle Influencer gibt es schon seit vielen Jahren. Lil Miquela, Noonoouri, Kami oder Imma sind teils bereits seit 2017 insbesondere auf Instagram „aktiv“. Selbst wenn es in ihren Profilen meist zu lesen ist, dass es sich um künstliche und nicht um echte Figuren handelt, hat dies ihrer Beliebtheit nicht geschadet. Ganz im Gegenteil: Die rein künstlichen Figuren dienen Unternehmen vielfach als Werbefiguren in einem erweiterten Influencer Marketing. Gerade bei der Ansprache junger Menschen sind sie zu einem festen Bestandteil der Kommunikations- und Marketingstrategie geworden.

Ist es den Menschen also fast schon gleichgültig, ob sie mit einem realen Menschen oder einer virtuellen Figur kommunizieren?

KI: Preiswert, schnell und einfach steuerbar

Kein Wunder, dass die KI-Welle dem Bereich virtuelle Influencer einen neuen Schub verliehen hat. Schließlich erleichtern es die KI-Bild-Generatoren, Szenarien zu konzipieren und umzusetzen – und zwar preiswert, schnell und einfach steuerbar. So können die dahinterstehenden Marketingteams diese noch stärker auf die Bedürfnisse der anvisierten Zielgruppen zuschneiden.

Figuren wie YUNA sind dazu teils extrem realistisch gestaltet, sodass die Grenzen zwischen Realität und Virtualität, zwischen Wirklichkeit und Fiktion, zwischen Menschen und Maschinen immer stärker verschwimmen. Werden damit auch im Influencer-Marketing die Grenzen zwischen echtem und virtuellem Content fallen? Gerade wenn es gelingt, eine Form von emotionaler Verbindung zwischen der künstlichen Figur und den Fans und Followern zu kreieren, aufzubauen und zu pflegen?

In der Welt der KI-Influencer

Anders gefragt: Ist dies eine Frage der Ethik, wenn es nicht mehr darum geht, als Mensch aus Fleisch und Blut eine Reichweite mit persönlichen Themen und Anliegen aufzubauen? Sondern wenn scheinbar menschliche Persönlichkeiten nur noch auf Unternehmensziele getrimmt werden, um junge Zielgruppen gezielt anzusprechen? Oder ist es letztendlich jedermanns eigene Entscheidung, ob er es glaubt oder nicht?

Gerade wenn KI-Influencer von ihren persönlichen Erfahrungen erzählen, von Streit und Liebe, von Familien und Freunden, um die Nähe zu ihrem Publikum aufzubauen, dann wird die Trennung zwischen Mensch und Maschine immer schwieriger zu erkennen. Muss dann nicht noch mehr Wert auf Transparenz gelegt werden, um jegliche Irreführung zu vermeiden?

KI-Doppelgänger als Einnahmequelle

Das Thema KI-Influencer dürfte in den nächsten Jahren deutlich an Fahrt aufnehmen. So haben einige Semi-Prominente und Influencer dies als neue Erlösquelle entdeckt. Denn wie wäre es denn, die eigene Stimme zu lizenzieren, um auf diese Weise viel einfacher Medienpartnerschaften durchzuführen? Diesen Weg geht beispielsweise die Snapchat-Influencerin Caryn Marjorie, die sich unter dem Namen „Caryn.ai“ als „virtual girlfriend“ andient, wie OMR berichtet. Dazu wurde Caryns Sprache und Persönlichkeit in eine AI-Erfahrung umgewandelt – mit ihrer eigenen Stimme.

„Caryn AI brings you a dynamic, one-of-a-kind interaction that feels like you’re talking directly to Caryn herself“, heißt es zu ihrer Figur. Und dies von überall her zu jeder Zeit: „Engage with Caryn AI in real-time through secure messaging, and enjoy private, personalized conversations with your favorite influencer.“

Wenn immer mehr StartUps entstehen, die diese Umwandlung in eine AI-Persönlichkeit ermöglichen: Wie wollen wir künftig noch wissen, ob hinter dieser „Figur“ ein Mensch oder ein KI-Bot steht, ob wir gerade mit dem Promi chatten oder seinem KI-Doppelgänger? Vor allem wenn diese Figuren mittels KI-basierter Übersetzungs-Tools noch alle Sprachen beherrschen? Oder ist dies den Menschen egal – ganz nach dem hier angepassten Bonmot: Mensch oder Maschine, Hauptsache Promi?

Der Ruf nach Verantwortung

Welche Verantwortung haben hier die Plattformen? Und die KI-Tools? Ein Beispiel. Adobe bietet teils täuschend echte, aber KI erzeugte Bilder zum Krieg zwischen Israel und der Hamas an, die jeder mit einer einfachen Suchanfrage sofort findet. Das Problem: Während sie auf der Stockfoto-Bibliothek von Adobe als „generiert mit KI“ gekennzeichnet sind – zumindest auf der Detailansicht –, fehlt auf der Übersichtsseite sowie im Netz jeglicher Hinweis, obwohl sich die Bilder doch gerade auf den Social-Media-Kanälen am schnellsten verbreiten und für viel Aufregung und Verwirrung sorgen.

Doch warum bietet ein Unternehmen KI-generierte Bilder zu solch einem hoch sensiblen Thema überhaupt an? Konnte es nicht schon ahnen, was mit diesen Bildern im Netz passieren würde? Schließlich finden Kriege samt Propaganda auf allen Seiten heute verstärkt im Netz statt. Müssten Stockfoto-Anbieter ihren Umgang mit KI-generierten Inhalten nicht komplett überdenken? Dringend!

Erste positive Ansätze

Dazu sind die ersten Schritte sichtbar – und zwar bei YouTube. Dort hat sich der Anteil an KI-generiertem Video-Content deutlich erhöht. Einerseits sieht YouTube in Generative KI ein Instrument der Kreativität; andererseits auch Gefahren für die Community. Auf diese Herausforderung wird YouTube mit einer neuen Kennzeichnung reagieren. YouTube-Creator müssen künftig KI-generierte Inhalte kennzeichnen. So heißt es:

“Over the coming months, we’ll introduce updates that inform viewers when the content they’re seeing is synthetic. Specifically, we’ll require creators to disclose when they’ve created altered or synthetic content that is realistic, including using AI tools. This is especially important in cases where the content discusses sensitive topics, such as elections, ongoing conflicts and public health crises, or public officials.”

Dies bedeutet keineswegs ein Verbot von KI-Inhalten. Vielmehr müssen dies Creator klar offenlegen – insbesondere dann, wenn sie synthetische Inhalte kreieren, die sensitive aktuelle Inhalte betreffen. Wer dem nicht folgt, muss mit Konsequenzen rechnen, die bis zur Löschung des Videos und Sperrung des Accounts reicht.

“Creators who consistently choose not to disclose this information may be subject to content removal, suspension from the YouTube Partner Program, or other penalties.”

Zudem erhalten YouTube-Nutzer die Möglichkeit, KI-generierte Inhalte zu melden und damit die Verbreitung manipulierter Inhalte auf der Plattform einzugrenzen.

Fazit: Vom Ende menschlicher Kommunikation

Im Mai 2023 schrieb ich ein Gedankenspiel über das „Ende der menschlichen Kommunikation“. Dieses und das damalige Gedankenspiel haben eine große Gemeinsamkeit. Hinter beidem steht die große Frage: Echt oder unecht? Mensch oder Maschine? Emotionen oder Automatismen? Damals schrieb ich:

Warum kommuniziere ich mit euch allen per Messenger, auf Instagram, auf LinkedIn? Ganz einfach: Weil ich mich für die Menschen interessiere – ihre Texte, ihre oft auch anderen Meinungen, ihre Einschätzungen, ihre Erkenntnisse, ja, besonders auch die ganz persönlichen, individuellen Noten. Und egal, wie mich Inhalte erreichen – ob per Mail, per WhatsApp, auf LinkedIn oder Twitter – all diese sind immer ganz eng mit etwas verbunden: Einem Menschen, der dahintersteckt, also ein kluger Kopf, wie die FAZ früher mal in einer Werbung titelte. Doch bleibt dies so?

Geht es nicht in der Kommunikation um den Aufbau und die Pflege von menschlichen, privaten wie beruflichen Kontakten? Oder unterhalten sich künftig zwei KIs miteinander, wie das Bild zu meinem damaligen Gedankenspiel zeigte? Also ohne die Menschen? Und brauchen wir die Menschen dann dazu noch?

Vielleicht müssen wir mal ganz anders denken: Die KI-Tools scheinen es sich auf die Fahne geschrieben, möglichst genau die Menschen zu imitieren. Warum eigentlich, fragt der Sprecher Kassi Wolf auf LinkedIn? Warum will denn KI unbedingt menschlich klingen? „Könnte sie nicht eine eigene Ästhetik haben? Sympathisch, charismatisch aber definitiv nicht-menschlich?“