Echt oder unecht? Das ist in KI-Zeiten die Frage.

Echt oder unecht? Das ist in KI-Zeiten die Frage.

Vor kurzem durfte ich auf einem Forum einem Vortrag lauschen – über Content, KI und Recht. Natürlich sprachen wir auch über die Möglichkeiten, die über das Thema Texterstellung hinausgehen. Beispielsweise über Bilder, Videos und Audios, die mit menschenähnlichen Stimmen, Tönen und Texten versehen werden – inkl. der Chancen und des Missbrauchs. Steuern wir also auf eine Zeit zu, in der wir nicht mehr zwischen echt oder unecht entscheiden können? Ein längeres Gedankenspiel über eine Entwicklung, die immer mehr an Fahrt zunimmt und mich nachdenklich zurücklässt.

Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau„, erklärt Jens Riewa zum typischen Sound des „Tagesschau“-Jingle. „Heute möchten wir uns bei Ihnen entschuldigen“, führt der Tagesschau-Sprecher fort. „Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“

So beginnen einige im Netz kursierende Aufnahmen, die zeigen wollen, wie sich Jens Riewa und seine Kollegin Susanne Daubner für die angeblichen Lügen entschuldigen, die der Sender in den vergangenen Jahren verbreitet habe, speziell zu den Themen Corona und Ukraine-Krieg.

Doch diese Aufnahmen sind Fake, die Stimmen manipuliert. Hier werde die bekannteste deutsche Nachrichtensendung dafür „ausgenutzt, um gezielt Desinformation zu verbreiten“, so Marcus Bornheim, Chefredakteur von ARD-aktuell.

Gefälschte Videos, gefälschte Stimmen, gefälschte Menschen

Doch vielen Menschen haben sich täuschen gelassen, in einem Land, in dem die digitale Bildung und der gelernte Umgang mit digitalen Medien nicht gerade an erster Stelle steht? Oder anders herum gefragt: Können wir uns eigentlich auf die Wirklichkeit verlassen, so wie wir sie wahrnehmen? Vor allem, da wir doch erst am Anfang eines neuen Zeitalters stehen, in dem uns KI mit großartigen Chancen aber auch sonderbaren Blüten begleiten wird?

Denn der ARD-Case ist kein Einzelfall. Wie gut sich Werbevideos per KI immer besser fälschen lassen, zeigt ein zweites Beispiel: Wieder im deutschen Fernsehen, wieder ein öffentlich-rechtlicher Kanal, dieses Mal das ZDF und News Anchor Christian Sievers. In einem Video im Design des Heute-Journals im ZDF-Nachrichtenstudio scheint Sievers öffentlich für ein Finanzprodukt zu werben:

„Wir sprechen von einer neuen KI-gestützten Anlage-Plattform, die bereits Millionen von deutschen Bürgern zur Verfügung steht und ihnen hilft, mit minimalen Investitionen große Geldsummen zu verdienen.“

Natürlich ist es nicht Sievers selbst, sondern ein „digitaler Klon“, der hier lippensynchron berichtet; natürlich sind es nicht die Heute-Nachrichten, sondern ein per KI erstelltes Video mit der geklonten Stimme von Christian Sievers und ganz im ZDF-Design. Auf X schreibt Sievers dazu:

„Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich… Echt nicht. Vorsicht, fiese Betrugs-Masche mit KI in soz. Medien. Schlimme neue Welt. Und von Facebook und Co: Nur Achselzucken.“

Gefakte Promis als Werbe-Testimonials

Auch wenn sich der Fake anhand der bunten Zahlen im Untertitel des Videos leicht erkennen lässt: der Clip belegt, wie weit die Entwicklung im Bereich KI bereits ist, um Videos mit prominenten Köpfen, gefälschten Bildern und geklonten Stimmen künstlich zu generieren; auch, um diese Fakes mit Prominenten dann als Werbung für eigene Produkte einzusetzen. Dies zeigt auch ein drittes Beispiel aus den USA.

Dort hat die KI-App Lisa AI Original-Filmmaterial der US-Schauspielerin Scarlett Johansson dafür genutzt, um in einem Werbespot auf X für die eigene App zu werben – selbstverständlich ohne ihr Wissen und damit unerlaubt. Dazu lächelt sie in die Kamera:

„Was geht ab, Leute? Hier ist Scarlett. Und ich möchte, dass ihr mit mir kommt ….“

Im Anschluss ist weiterhin ihre Stimme zu hören, die für die App wirbt und ihre Chancen lobt. Doch es ist nicht Scarlett, sondern ein KI-Abbild; und es ist nicht ihre Stimme, sondern eine künstlich generierte, geklonte Version ihrer Stimme. Dass sie rechtlich gegen die hinter der App stehende Firma vorgeht, ist nicht überraschend. Und dass der KI-Hype die gesamte Entertainment-Branche aufgeschreckt hat, spiegelt sich im Streik in Hollywood letzten Sommer wider.

Der Boom der KI-Tools

Denn Johansson ist nur ein Beispiel für eine Reihe an Prominenten gerade in den USA, deren Bilder und Stimmen unerlaubt verwendet wurden. Dieser Missbrauch ist eng mit den immer stärker sich verbreiteten KI-Instrumenten zu sehen, die sich immer häufiger dafür rühmen, das echte Leben möglichst realistisch und praktisch 1-zu-1 abbilden zu können.

Beispiel Microsoft: Der aktuell führende KI-Konzern hat einen neuen Text-to-Speech-Avatar vorgestellt, über den sich „realistische sprechende Avatare von echten Personen“ erstellen lassen. Dass solche Entwicklungen Deepfakes und geklonten Stimmen erleichtern, diese Gefahren liegen auf der Hand.

Ist das die Zukunft des Influencer Marketings?

Doch zurück zu Sievers Warnung: „Fiese Betrugs-Maschine mit KI in sozialen Medien“ schrieb er auf X. Doch wenn die Erstellung von AI-Klonen immer leichter wird, was bedeutet dies dann für ein Social Media Marketing? Für ein Influencer Marketing? Mit virtuellen, KI-generierten Influencern?

Virtuelle Influencer gibt es schon seit vielen Jahren. Lil Miquela, Noonoouri, Kami oder Imma sind teils bereits seit 2017 insbesondere auf Instagram „aktiv“. Selbst wenn es in ihren Profilen meist zu lesen ist, dass es sich um künstliche und nicht um echte Figuren handelt, hat dies ihrer Beliebtheit nicht geschadet. Ganz im Gegenteil: Die rein künstlichen Figuren dienen Unternehmen vielfach als Werbefiguren in einem erweiterten Influencer Marketing. Gerade bei der Ansprache junger Menschen sind sie zu einem festen Bestandteil der Kommunikations- und Marketingstrategie geworden.

Ist es den Menschen also fast schon gleichgültig, ob sie mit einem realen Menschen oder einer virtuellen Figur kommunizieren?

KI: Preiswert, schnell und einfach steuerbar

Kein Wunder, dass die KI-Welle dem Bereich virtuelle Influencer einen neuen Schub verliehen hat. Schließlich erleichtern es die KI-Bild-Generatoren, Szenarien zu konzipieren und umzusetzen – und zwar preiswert, schnell und einfach steuerbar. So können die dahinterstehenden Marketingteams diese noch stärker auf die Bedürfnisse der anvisierten Zielgruppen zuschneiden.

Figuren wie YUNA sind dazu teils extrem realistisch gestaltet, sodass die Grenzen zwischen Realität und Virtualität, zwischen Wirklichkeit und Fiktion, zwischen Menschen und Maschinen immer stärker verschwimmen. Werden damit auch im Influencer-Marketing die Grenzen zwischen echtem und virtuellem Content fallen? Gerade wenn es gelingt, eine Form von emotionaler Verbindung zwischen der künstlichen Figur und den Fans und Followern zu kreieren, aufzubauen und zu pflegen?

In der Welt der KI-Influencer

Anders gefragt: Ist dies eine Frage der Ethik, wenn es nicht mehr darum geht, als Mensch aus Fleisch und Blut eine Reichweite mit persönlichen Themen und Anliegen aufzubauen? Sondern wenn scheinbar menschliche Persönlichkeiten nur noch auf Unternehmensziele getrimmt werden, um junge Zielgruppen gezielt anzusprechen? Oder ist es letztendlich jedermanns eigene Entscheidung, ob er es glaubt oder nicht?

Gerade wenn KI-Influencer von ihren persönlichen Erfahrungen erzählen, von Streit und Liebe, von Familien und Freunden, um die Nähe zu ihrem Publikum aufzubauen, dann wird die Trennung zwischen Mensch und Maschine immer schwieriger zu erkennen. Muss dann nicht noch mehr Wert auf Transparenz gelegt werden, um jegliche Irreführung zu vermeiden?

KI-Doppelgänger als Einnahmequelle

Das Thema KI-Influencer dürfte in den nächsten Jahren deutlich an Fahrt aufnehmen. So haben einige Semi-Prominente und Influencer dies als neue Erlösquelle entdeckt. Denn wie wäre es denn, die eigene Stimme zu lizenzieren, um auf diese Weise viel einfacher Medienpartnerschaften durchzuführen? Diesen Weg geht beispielsweise die Snapchat-Influencerin Caryn Marjorie, die sich unter dem Namen „Caryn.ai“ als „virtual girlfriend“ andient, wie OMR berichtet. Dazu wurde Caryns Sprache und Persönlichkeit in eine AI-Erfahrung umgewandelt – mit ihrer eigenen Stimme.

„Caryn AI brings you a dynamic, one-of-a-kind interaction that feels like you’re talking directly to Caryn herself“, heißt es zu ihrer Figur. Und dies von überall her zu jeder Zeit: „Engage with Caryn AI in real-time through secure messaging, and enjoy private, personalized conversations with your favorite influencer.“

Wenn immer mehr StartUps entstehen, die diese Umwandlung in eine AI-Persönlichkeit ermöglichen: Wie wollen wir künftig noch wissen, ob hinter dieser „Figur“ ein Mensch oder ein KI-Bot steht, ob wir gerade mit dem Promi chatten oder seinem KI-Doppelgänger? Vor allem wenn diese Figuren mittels KI-basierter Übersetzungs-Tools noch alle Sprachen beherrschen? Oder ist dies den Menschen egal – ganz nach dem hier angepassten Bonmot: Mensch oder Maschine, Hauptsache Promi?

Der Ruf nach Verantwortung

Welche Verantwortung haben hier die Plattformen? Und die KI-Tools? Ein Beispiel. Adobe bietet teils täuschend echte, aber KI erzeugte Bilder zum Krieg zwischen Israel und der Hamas an, die jeder mit einer einfachen Suchanfrage sofort findet. Das Problem: Während sie auf der Stockfoto-Bibliothek von Adobe als „generiert mit KI“ gekennzeichnet sind – zumindest auf der Detailansicht –, fehlt auf der Übersichtsseite sowie im Netz jeglicher Hinweis, obwohl sich die Bilder doch gerade auf den Social-Media-Kanälen am schnellsten verbreiten und für viel Aufregung und Verwirrung sorgen.

Doch warum bietet ein Unternehmen KI-generierte Bilder zu solch einem hoch sensiblen Thema überhaupt an? Konnte es nicht schon ahnen, was mit diesen Bildern im Netz passieren würde? Schließlich finden Kriege samt Propaganda auf allen Seiten heute verstärkt im Netz statt. Müssten Stockfoto-Anbieter ihren Umgang mit KI-generierten Inhalten nicht komplett überdenken? Dringend!

Erste positive Ansätze

Dazu sind die ersten Schritte sichtbar – und zwar bei YouTube. Dort hat sich der Anteil an KI-generiertem Video-Content deutlich erhöht. Einerseits sieht YouTube in Generative KI ein Instrument der Kreativität; andererseits auch Gefahren für die Community. Auf diese Herausforderung wird YouTube mit einer neuen Kennzeichnung reagieren. YouTube-Creator müssen künftig KI-generierte Inhalte kennzeichnen. So heißt es:

“Over the coming months, we’ll introduce updates that inform viewers when the content they’re seeing is synthetic. Specifically, we’ll require creators to disclose when they’ve created altered or synthetic content that is realistic, including using AI tools. This is especially important in cases where the content discusses sensitive topics, such as elections, ongoing conflicts and public health crises, or public officials.”

Dies bedeutet keineswegs ein Verbot von KI-Inhalten. Vielmehr müssen dies Creator klar offenlegen – insbesondere dann, wenn sie synthetische Inhalte kreieren, die sensitive aktuelle Inhalte betreffen. Wer dem nicht folgt, muss mit Konsequenzen rechnen, die bis zur Löschung des Videos und Sperrung des Accounts reicht.

“Creators who consistently choose not to disclose this information may be subject to content removal, suspension from the YouTube Partner Program, or other penalties.”

Zudem erhalten YouTube-Nutzer die Möglichkeit, KI-generierte Inhalte zu melden und damit die Verbreitung manipulierter Inhalte auf der Plattform einzugrenzen.

Fazit: Vom Ende menschlicher Kommunikation

Im Mai 2023 schrieb ich ein Gedankenspiel über das „Ende der menschlichen Kommunikation“. Dieses und das damalige Gedankenspiel haben eine große Gemeinsamkeit. Hinter beidem steht die große Frage: Echt oder unecht? Mensch oder Maschine? Emotionen oder Automatismen? Damals schrieb ich:

Warum kommuniziere ich mit euch allen per Messenger, auf Instagram, auf LinkedIn? Ganz einfach: Weil ich mich für die Menschen interessiere – ihre Texte, ihre oft auch anderen Meinungen, ihre Einschätzungen, ihre Erkenntnisse, ja, besonders auch die ganz persönlichen, individuellen Noten. Und egal, wie mich Inhalte erreichen – ob per Mail, per WhatsApp, auf LinkedIn oder Twitter – all diese sind immer ganz eng mit etwas verbunden: Einem Menschen, der dahintersteckt, also ein kluger Kopf, wie die FAZ früher mal in einer Werbung titelte. Doch bleibt dies so?

Geht es nicht in der Kommunikation um den Aufbau und die Pflege von menschlichen, privaten wie beruflichen Kontakten? Oder unterhalten sich künftig zwei KIs miteinander, wie das Bild zu meinem damaligen Gedankenspiel zeigte? Also ohne die Menschen? Und brauchen wir die Menschen dann dazu noch?

Vielleicht müssen wir mal ganz anders denken: Die KI-Tools scheinen es sich auf die Fahne geschrieben, möglichst genau die Menschen zu imitieren. Warum eigentlich, fragt der Sprecher Kassi Wolf auf LinkedIn? Warum will denn KI unbedingt menschlich klingen? „Könnte sie nicht eine eigene Ästhetik haben? Sympathisch, charismatisch aber definitiv nicht-menschlich?“

Gedankenspiele: 10 Lesetipps rund um alte und neue Revolutionen

Am 30. April feierte das WWW seinen 30. europäischen Geburtstag. War dies damals eine eher geheime Revolution, deren wirkliche Folgen erst Jahre später sichtbar wurden, stehen wir 30 Jahre später vor der nächsten digitalen Revolution, die dafür umso intensiver diskutiert wird: Stichwort Künstliche Intelligenz.

Die Vehemenz der aktuellen Diskussion spiegelt sich auch in der Zahl der Beiträge wider, die innerhalb meiner Community publiziert, geteilt, bewertet werden. So ist es nicht sehr überraschend, dass in diesem Gedankenspiel ein Schwerpunkt auf KI-Themen liegt. Denn auch wenn wir die KI-Zukunft nicht kennen: Damit beschäftigen sollten wir uns alle. Ansonsten wird uns diese Revolution überrollen.

In eigener Sache

Die Stadt im digitalen Wandel: Warum wir radikal umdenken müssen
Vor gut zwei Jahren hatte ich geschrieben, dass nicht Corona die Innenstädte verändert. Sondern unser Verhalten in digitalen Zeiten. Jetzt habe ich den Beitrag nochmals angepackt. Weil er aufzeigt, wie schnell sich im digitalen Wandel etwas verändert. Mein Gedankenspiel über die Folgen verschlafener Digitalisierung als Forderung, jetzt bitte und endlich radikal neu zu denken!

Kanäle: gestern und heute

  • So entstand das World Wide Web
    Vor gut einer Woche feierte das WWW seinen 30. europäischen Geburtstag. 30 Jahre zuvor, also am 30. April 1993, hatte das Kernforschungszentrum CERN in Genf den Programmcode des World Wide Web (WWW) der Öffentlichkeit zur Verfügung gestellt. Der Siegeslauf der damals revolutionären Web-Technologie konnte beginnen. Wer gerne in der Vergangenheit schwelgt bzw. in die Historie zurückblättert – mit dem Briten Tim Burners-Lee als Protagonisten, für den könnte dieser Beitrag interessant sein.
  • So funktioniert der LinkedIn-Algorithmus
    Wie bewertet LinkedIn Beiträge? Wie wird Spam identifiziert? Welche Kennzeichen werden vom Algorithmus positiv beurteilt, um Reichweite zu erhalten? Auch wenn die Inhalte bekannt sein sollten: es lohnt sich über die Geschwindigkeit der Interaktion, die Zahl der Verbindungen, die Relevanz von Standort nachzudenken, ohne sich diese als Korsett überstülpen zu lassen.
  • So werden E-Mails in allen Generationen genutzt
    Die E-Mail feierte vor 2 Jahren bereits ihre Goldene Hochzeit. Trotzdem ist sie auch nach 52 Jahren weiterhin quicklebendig und wird quer durch alle Generationen genutzt. Wie stark sie zentraler Bestandteil des digitalen Lebens ist, zeigt eine neue Studie von United Internet.

Text: Qualität + SEO

  • E-E-A-T: Wie Google auf Qualität setzt
    Wer sich in Zeiten von KI mit Google und mit SEO beschäftigt, kommt an der Qualitätsoffensive von Google nicht vorbei. So will Google immer stärker den Autor und seine Kompetenz in den Fokus stellen. Um Erfahrung, Expertise, Autorität und Vertrauen zu bewerten, spielt das E-E-A-T-Konzept eine zentrale Rolle, das Olaf Kopp bei Sistrix ausführlich beschreibt.
  • Guter Content: Wie ein SEO-Fahrplan aussieht
    Ende April gab ich einen Workshop zum „Online-Texten“ (LINK). Eine Kernaussage ähnelte dieser Autorin: »Wir kreieren Content in erster Linie für die Nutzer. Die Suchmaschinenoptimierung ist ein willkommenes Nebenprodukt.« Ihr Beitrag ist ein guter Fahrplan, Content zu finden, zu planen, zu optimieren und auszuwerten – und dies im Rahmen einer SEO-Strategie.

Revolution: ChatGPT, KI, Bing

  • Recht & KI: Welche Richtlinien intern notwendig sind
    Beim Einsatz von KI-Systemen bestehen rechtliche Risiken. Der Stuttgarter Anwalt Carsten Ulbricht empfiehlt Unternehmen und anderen Institutionen, geeignete interne Richtlinien einzuführen, um Chancen nutzen, aber vor Risiken gewappnet zu sein. Dazu stellt er einige zentrale Punkte in seinem Beitrag vor.
  • ChatGPT & Co.: Wie KI das CRM verändert
    Wie lässt sich KI im E-Mail-Marketing nutzen? Und wie verändert es bestehende CRM-Systeme? Sehr stark, schreibt Nico Zorn. Und stellt 3 Anwendungsbereiche vor: Personalisierte, individuelle Ansprachen, einfacher zu bedienende Interfaces und besserer Kundenservice bzw. Kundenkommunikation.
  • Bing AI: 7 Prompts, die weiterhelfen
    Wie lässt sich der Bing Chat sinnvoll einsetzen, damit er uns wirklich hilft? Wie muss ich die Prompts dazu formulieren? Gute Auflistung von 7 Möglichkeiten, auch wenn die Zusammenfassung von verlinkten Beiträgen nicht wirklich funktioniert.
  • Tool-Tipp: Futurepedia
    Auf der Suche nach einem hilfreichen AI-Tool? Für Texte, Bilder, Videos und vieles mehr? Futurepedia nennt sich „The Largest AI Tools Directory“. Und das zurecht. Täglich wachsend hat mit Sicherheit das richtige Tool. Man muss es „nur“ suchen.

Meine Gedankenspiele: 10 Lese-Tipps aus dem Februar 2019

Meine Gedankenspiele: 10 Lese-Tipps aus dem Februar 2019

Wie jeden Monat habe ich wieder 10 Lese-Tipps aus meinem Feedreader identifiziert, die ich gerade im Zusammenhang mit meinen Kernthemen Digitale Kommunikation, Kommunikationsstrategien, Digitalisierung und Online-Texten als besonders lesenswert erachtet habe. Viel Spaß beim Lesen!

Meine Gedankenspiele: 10 Lese-Tipps aus dem Februar 2019

Meine Gedankenspiele: 10 Lese-Tipps aus dem Januar 2019