Echt oder unecht? Das ist in KI-Zeiten die Frage.
Vor kurzem durfte ich auf einem Forum einem Vortrag lauschen – über Content, KI und Recht. Natürlich sprachen wir auch über die Möglichkeiten, die über das Thema Texterstellung hinausgehen. Beispielsweise über Bilder, Videos und Audios, die mit menschenähnlichen Stimmen, Tönen und Texten versehen werden – inkl. der Chancen und des Missbrauchs. Steuern wir also auf eine Zeit zu, in der wir nicht mehr zwischen echt oder unecht entscheiden können? Ein längeres Gedankenspiel über eine Entwicklung, die immer mehr an Fahrt zunimmt und mich nachdenklich zurücklässt.
„Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau„, erklärt Jens Riewa zum typischen Sound des „Tagesschau“-Jingle. „Heute möchten wir uns bei Ihnen entschuldigen“, führt der Tagesschau-Sprecher fort. „Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“
So beginnen einige im Netz kursierende Aufnahmen, die zeigen wollen, wie sich Jens Riewa und seine Kollegin Susanne Daubner für die angeblichen Lügen entschuldigen, die der Sender in den vergangenen Jahren verbreitet habe, speziell zu den Themen Corona und Ukraine-Krieg.
Doch diese Aufnahmen sind Fake, die Stimmen manipuliert. Hier werde die bekannteste deutsche Nachrichtensendung dafür „ausgenutzt, um gezielt Desinformation zu verbreiten“, so Marcus Bornheim, Chefredakteur von ARD-aktuell.
Gefälschte Videos, gefälschte Stimmen, gefälschte Menschen
Doch vielen Menschen haben sich täuschen gelassen, in einem Land, in dem die digitale Bildung und der gelernte Umgang mit digitalen Medien nicht gerade an erster Stelle steht? Oder anders herum gefragt: Können wir uns eigentlich auf die Wirklichkeit verlassen, so wie wir sie wahrnehmen? Vor allem, da wir doch erst am Anfang eines neuen Zeitalters stehen, in dem uns KI mit großartigen Chancen aber auch sonderbaren Blüten begleiten wird?
Denn der ARD-Case ist kein Einzelfall. Wie gut sich Werbevideos per KI immer besser fälschen lassen, zeigt ein zweites Beispiel: Wieder im deutschen Fernsehen, wieder ein öffentlich-rechtlicher Kanal, dieses Mal das ZDF und News Anchor Christian Sievers. In einem Video im Design des Heute-Journals im ZDF-Nachrichtenstudio scheint Sievers öffentlich für ein Finanzprodukt zu werben:
„Wir sprechen von einer neuen KI-gestützten Anlage-Plattform, die bereits Millionen von deutschen Bürgern zur Verfügung steht und ihnen hilft, mit minimalen Investitionen große Geldsummen zu verdienen.“
Natürlich ist es nicht Sievers selbst, sondern ein „digitaler Klon“, der hier lippensynchron berichtet; natürlich sind es nicht die Heute-Nachrichten, sondern ein per KI erstelltes Video mit der geklonten Stimme von Christian Sievers und ganz im ZDF-Design. Auf X schreibt Sievers dazu:
„Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich… Echt nicht. Vorsicht, fiese Betrugs-Masche mit KI in soz. Medien. Schlimme neue Welt. Und von Facebook und Co: Nur Achselzucken.“
Gefakte Promis als Werbe-Testimonials
Auch wenn sich der Fake anhand der bunten Zahlen im Untertitel des Videos leicht erkennen lässt: der Clip belegt, wie weit die Entwicklung im Bereich KI bereits ist, um Videos mit prominenten Köpfen, gefälschten Bildern und geklonten Stimmen künstlich zu generieren; auch, um diese Fakes mit Prominenten dann als Werbung für eigene Produkte einzusetzen. Dies zeigt auch ein drittes Beispiel aus den USA.
Dort hat die KI-App Lisa AI Original-Filmmaterial der US-Schauspielerin Scarlett Johansson dafür genutzt, um in einem Werbespot auf X für die eigene App zu werben – selbstverständlich ohne ihr Wissen und damit unerlaubt. Dazu lächelt sie in die Kamera:
„Was geht ab, Leute? Hier ist Scarlett. Und ich möchte, dass ihr mit mir kommt ….“
Im Anschluss ist weiterhin ihre Stimme zu hören, die für die App wirbt und ihre Chancen lobt. Doch es ist nicht Scarlett, sondern ein KI-Abbild; und es ist nicht ihre Stimme, sondern eine künstlich generierte, geklonte Version ihrer Stimme. Dass sie rechtlich gegen die hinter der App stehende Firma vorgeht, ist nicht überraschend. Und dass der KI-Hype die gesamte Entertainment-Branche aufgeschreckt hat, spiegelt sich im Streik in Hollywood letzten Sommer wider.
Der Boom der KI-Tools
Denn Johansson ist nur ein Beispiel für eine Reihe an Prominenten gerade in den USA, deren Bilder und Stimmen unerlaubt verwendet wurden. Dieser Missbrauch ist eng mit den immer stärker sich verbreiteten KI-Instrumenten zu sehen, die sich immer häufiger dafür rühmen, das echte Leben möglichst realistisch und praktisch 1-zu-1 abbilden zu können.
Beispiel Microsoft: Der aktuell führende KI-Konzern hat einen neuen Text-to-Speech-Avatar vorgestellt, über den sich „realistische sprechende Avatare von echten Personen“ erstellen lassen. Dass solche Entwicklungen Deepfakes und geklonten Stimmen erleichtern, diese Gefahren liegen auf der Hand.
Ist das die Zukunft des Influencer Marketings?
Doch zurück zu Sievers Warnung: „Fiese Betrugs-Maschine mit KI in sozialen Medien“ schrieb er auf X. Doch wenn die Erstellung von AI-Klonen immer leichter wird, was bedeutet dies dann für ein Social Media Marketing? Für ein Influencer Marketing? Mit virtuellen, KI-generierten Influencern?
Virtuelle Influencer gibt es schon seit vielen Jahren. Lil Miquela, Noonoouri, Kami oder Imma sind teils bereits seit 2017 insbesondere auf Instagram „aktiv“. Selbst wenn es in ihren Profilen meist zu lesen ist, dass es sich um künstliche und nicht um echte Figuren handelt, hat dies ihrer Beliebtheit nicht geschadet. Ganz im Gegenteil: Die rein künstlichen Figuren dienen Unternehmen vielfach als Werbefiguren in einem erweiterten Influencer Marketing. Gerade bei der Ansprache junger Menschen sind sie zu einem festen Bestandteil der Kommunikations- und Marketingstrategie geworden.
Ist es den Menschen also fast schon gleichgültig, ob sie mit einem realen Menschen oder einer virtuellen Figur kommunizieren?
KI: Preiswert, schnell und einfach steuerbar
Kein Wunder, dass die KI-Welle dem Bereich virtuelle Influencer einen neuen Schub verliehen hat. Schließlich erleichtern es die KI-Bild-Generatoren, Szenarien zu konzipieren und umzusetzen – und zwar preiswert, schnell und einfach steuerbar. So können die dahinterstehenden Marketingteams diese noch stärker auf die Bedürfnisse der anvisierten Zielgruppen zuschneiden.
Figuren wie YUNA sind dazu teils extrem realistisch gestaltet, sodass die Grenzen zwischen Realität und Virtualität, zwischen Wirklichkeit und Fiktion, zwischen Menschen und Maschinen immer stärker verschwimmen. Werden damit auch im Influencer-Marketing die Grenzen zwischen echtem und virtuellem Content fallen? Gerade wenn es gelingt, eine Form von emotionaler Verbindung zwischen der künstlichen Figur und den Fans und Followern zu kreieren, aufzubauen und zu pflegen?
In der Welt der KI-Influencer
Anders gefragt: Ist dies eine Frage der Ethik, wenn es nicht mehr darum geht, als Mensch aus Fleisch und Blut eine Reichweite mit persönlichen Themen und Anliegen aufzubauen? Sondern wenn scheinbar menschliche Persönlichkeiten nur noch auf Unternehmensziele getrimmt werden, um junge Zielgruppen gezielt anzusprechen? Oder ist es letztendlich jedermanns eigene Entscheidung, ob er es glaubt oder nicht?
Gerade wenn KI-Influencer von ihren persönlichen Erfahrungen erzählen, von Streit und Liebe, von Familien und Freunden, um die Nähe zu ihrem Publikum aufzubauen, dann wird die Trennung zwischen Mensch und Maschine immer schwieriger zu erkennen. Muss dann nicht noch mehr Wert auf Transparenz gelegt werden, um jegliche Irreführung zu vermeiden?
KI-Doppelgänger als Einnahmequelle
Das Thema KI-Influencer dürfte in den nächsten Jahren deutlich an Fahrt aufnehmen. So haben einige Semi-Prominente und Influencer dies als neue Erlösquelle entdeckt. Denn wie wäre es denn, die eigene Stimme zu lizenzieren, um auf diese Weise viel einfacher Medienpartnerschaften durchzuführen? Diesen Weg geht beispielsweise die Snapchat-Influencerin Caryn Marjorie, die sich unter dem Namen „Caryn.ai“ als „virtual girlfriend“ andient, wie OMR berichtet. Dazu wurde Caryns Sprache und Persönlichkeit in eine AI-Erfahrung umgewandelt – mit ihrer eigenen Stimme.
„Caryn AI brings you a dynamic, one-of-a-kind interaction that feels like you’re talking directly to Caryn herself“, heißt es zu ihrer Figur. Und dies von überall her zu jeder Zeit: „Engage with Caryn AI in real-time through secure messaging, and enjoy private, personalized conversations with your favorite influencer.“
Wenn immer mehr StartUps entstehen, die diese Umwandlung in eine AI-Persönlichkeit ermöglichen: Wie wollen wir künftig noch wissen, ob hinter dieser „Figur“ ein Mensch oder ein KI-Bot steht, ob wir gerade mit dem Promi chatten oder seinem KI-Doppelgänger? Vor allem wenn diese Figuren mittels KI-basierter Übersetzungs-Tools noch alle Sprachen beherrschen? Oder ist dies den Menschen egal – ganz nach dem hier angepassten Bonmot: Mensch oder Maschine, Hauptsache Promi?
Der Ruf nach Verantwortung
Welche Verantwortung haben hier die Plattformen? Und die KI-Tools? Ein Beispiel. Adobe bietet teils täuschend echte, aber KI erzeugte Bilder zum Krieg zwischen Israel und der Hamas an, die jeder mit einer einfachen Suchanfrage sofort findet. Das Problem: Während sie auf der Stockfoto-Bibliothek von Adobe als „generiert mit KI“ gekennzeichnet sind – zumindest auf der Detailansicht –, fehlt auf der Übersichtsseite sowie im Netz jeglicher Hinweis, obwohl sich die Bilder doch gerade auf den Social-Media-Kanälen am schnellsten verbreiten und für viel Aufregung und Verwirrung sorgen.
Doch warum bietet ein Unternehmen KI-generierte Bilder zu solch einem hoch sensiblen Thema überhaupt an? Konnte es nicht schon ahnen, was mit diesen Bildern im Netz passieren würde? Schließlich finden Kriege samt Propaganda auf allen Seiten heute verstärkt im Netz statt. Müssten Stockfoto-Anbieter ihren Umgang mit KI-generierten Inhalten nicht komplett überdenken? Dringend!
Erste positive Ansätze
Dazu sind die ersten Schritte sichtbar – und zwar bei YouTube. Dort hat sich der Anteil an KI-generiertem Video-Content deutlich erhöht. Einerseits sieht YouTube in Generative KI ein Instrument der Kreativität; andererseits auch Gefahren für die Community. Auf diese Herausforderung wird YouTube mit einer neuen Kennzeichnung reagieren. YouTube-Creator müssen künftig KI-generierte Inhalte kennzeichnen. So heißt es:
“Over the coming months, we’ll introduce updates that inform viewers when the content they’re seeing is synthetic. Specifically, we’ll require creators to disclose when they’ve created altered or synthetic content that is realistic, including using AI tools. This is especially important in cases where the content discusses sensitive topics, such as elections, ongoing conflicts and public health crises, or public officials.”
Dies bedeutet keineswegs ein Verbot von KI-Inhalten. Vielmehr müssen dies Creator klar offenlegen – insbesondere dann, wenn sie synthetische Inhalte kreieren, die sensitive aktuelle Inhalte betreffen. Wer dem nicht folgt, muss mit Konsequenzen rechnen, die bis zur Löschung des Videos und Sperrung des Accounts reicht.
“Creators who consistently choose not to disclose this information may be subject to content removal, suspension from the YouTube Partner Program, or other penalties.”
Zudem erhalten YouTube-Nutzer die Möglichkeit, KI-generierte Inhalte zu melden und damit die Verbreitung manipulierter Inhalte auf der Plattform einzugrenzen.
Fazit: Vom Ende menschlicher Kommunikation
Im Mai 2023 schrieb ich ein Gedankenspiel über das „Ende der menschlichen Kommunikation“. Dieses und das damalige Gedankenspiel haben eine große Gemeinsamkeit. Hinter beidem steht die große Frage: Echt oder unecht? Mensch oder Maschine? Emotionen oder Automatismen? Damals schrieb ich:
Warum kommuniziere ich mit euch allen per Messenger, auf Instagram, auf LinkedIn? Ganz einfach: Weil ich mich für die Menschen interessiere – ihre Texte, ihre oft auch anderen Meinungen, ihre Einschätzungen, ihre Erkenntnisse, ja, besonders auch die ganz persönlichen, individuellen Noten. Und egal, wie mich Inhalte erreichen – ob per Mail, per WhatsApp, auf LinkedIn oder Twitter – all diese sind immer ganz eng mit etwas verbunden: Einem Menschen, der dahintersteckt, also ein kluger Kopf, wie die FAZ früher mal in einer Werbung titelte. Doch bleibt dies so?
Geht es nicht in der Kommunikation um den Aufbau und die Pflege von menschlichen, privaten wie beruflichen Kontakten? Oder unterhalten sich künftig zwei KIs miteinander, wie das Bild zu meinem damaligen Gedankenspiel zeigte? Also ohne die Menschen? Und brauchen wir die Menschen dann dazu noch?
Vielleicht müssen wir mal ganz anders denken: Die KI-Tools scheinen es sich auf die Fahne geschrieben, möglichst genau die Menschen zu imitieren. Warum eigentlich, fragt der Sprecher Kassi Wolf auf LinkedIn? Warum will denn KI unbedingt menschlich klingen? „Könnte sie nicht eine eigene Ästhetik haben? Sympathisch, charismatisch aber definitiv nicht-menschlich?“