Digitalisierung & Technologie, 30. Oktober 2023

Wie können wir KI-generierte Inhalte erkennen?

Deepfake und Co.

KI-generierte Inhalte

Im Zeitalter künstlicher Intelligenz sehen wir uns mit einer wachsenden Herausforderung konfrontiert: Wie unterscheiden wir Wahrheit von Fiktion, wenn Maschinen Inhalte erzeugen, die die Grenze zwischen Realität und Fälschung verschwimmen lassen? In einer Welt, in der Deepfake-Videos und computergenerierte Bilder selbst den kritischsten Blick täuschen können, ist es entscheidend, innovative Lösungen zu erkunden, die unsere Fähigkeit verbessern, maschinell erstellte Inhalte zu identifizieren, meint unser Kolumnist Markus Sekulla.

Wir alle haben in den vergangenen zwölf Monaten KI-generierte Bilder gesehen. Viele fanden wir lustig (The Rock eats rocks in Hard Rock Cafe), manche ließen uns in der Vergangenheit schwelgen (#YearBookChallenge), und einige haben uns Angst gemacht (Trump bei der Verhaftung). Mein erster Gedanke nach dem Experementieren mit Midjourney war aber vor allem: Oha, ich hoffe, die Welt ist bereit dafür.

Das Internet hat uns schon in den ersten Chat-Räumen in den 90er Jahren, teilweise auf die harte Tour, beigebracht, dass nicht alles echt ist, was im Internet steht. Und einer meiner Lieblings-Seriencharaktere, Howard Wolowitz aus The Big Bang Theory, drückte es mit den knappen, aber pointierten Worten aus: „There is no place for truth on the internet.“ Doch es ist noch ein wenig komplizierter. 

Fakes als solche zu erkennen, wird immer schwieriger

Was heute schon bei Stimmen mit KI verändert werden kann, ist nicht für Menschen als Fake mehr zu erkennen. Die New York Times titelte kürzlich: „‘A.I. Obama’ and Fake Newscasters: How A.I. Audio Is Swarming TikTok“. Da wird noch einiges an Fakes und Manipulation hinzukommen, wenn 2024 in den USA gewählt wird.

Heute (Oktober 2023) ist es oft noch möglich, KI-generierte Bilder oder Videos zu entlarven, da die Fakes meist noch kleine Unsauberkeiten haben. Beim oben angesprochenen Bild von Donald Trump konnte man an der Hand eines Wachmanns erkennen, dass das Bild nicht real sein kann. Doch diese Zeiten sind bald vorbei. Unser aller Haupttools für Entarvungen sind der gesunde Menschenverstand und Medienkompetenz. Sonst wären noch mehr Leute nach dem berühmten Fake-Bild vom Papst in Balenciaga viele Leute vor dem Samstagsgottesdienst noch eben zum Shoppen in die Innenstadt gefahren.

Ich halte diese Entwicklung für sehr gefährlich für unsere Demokratie und unser Zusammenleben. Schon heute werden massiv maschinell erzeugte Inhalte dazu verwendet, Menschen zu täuschen oder zu manipulieren. Um meine Tante zu zitieren: „Das habe ich doch mit eigenen Augen gesehen!“ Dazu kommt, dass Deepfake-Videos und gefälschte Bilder das Vertrauen in die Authentizität auch von seriösen Medien und Inhalten im Allgemeinen untergraben können.

Technische Lösungen zum Erkennen von KI Inhalten

Auch technische Schutzmechanismen werden angesichts der zunehmenden Bedrohung durch KI-generierte Deepfakes immer wichtiger. Viele der Big Tech-Unternehmen beschäftigen sich damit, teils aus der Not, die Flut von Fake-News auf der eigenen Plattform einzuschränken. Ein Konzept, das man immer wieder in diesem Zusammenhang hört, ist das Wasserzeichen.

Bei der Wasserzeichen-Technik wird ein Signal in einem Textstück oder Bild versteckt, um es zu kennzeichnen. Klassische Wasserzeichen kennt man von Vorschaubildern aus Bilddatenbanken. Bilder lassen sich aber auch durch das Hinzufügen einer kaum sichtbaren Überlagerung oder das Hinzufügen von Informationen in ihre Metadaten mit Wasserzeichen versehen, sodass wir es gar nicht auf den ersten Blick erkennen können.

Wasserzeichen bringen Transparenz und können dazu beitragen, Vertrauen wiederherzustellen, sind aber heute noch sehr leicht zu umgehen.

Bilder vor Manipulation durch KI schützen

Ein weiterer interessanter Ansatz ist das von Forscherinnen und Forschern entwickelte System namens „UnGANable“, das Bilder vor Manipulation durch KI schützt. Das System fügt ein unsichtbares Störrauschen auf mathematisch-digitaler Ebene in die Bilder ein, was das Auslesen durch KI-Systeme und die Erstellung von veränderten Varianten verhindert. Es basiert auf der Erkenntnis, dass KI-Systeme, insbesondere Generative Adversarial Networks (GANs), Bilder in „latent code“ umwandeln, um sie zu manipulieren. UnGANable stört diesen Prozess, indem es ein „Tarnkappen“-Rauschen auf der Vektor-Ebene hinzufügt. In Tests zeigte UnGANable effektiven Schutz gegen gängige GAN-Systeme und übertraf bisherige Schutzmethoden. Der Code ist Open Source.

Quo Vadis?

In meinen Augen ist der wichtigste Part die sichtbare Kennzeichnung von Inhalten auf den Social-Media-Plattformen selbst. Eine nur von anderen Maschinen erkennbare Lösung halte ich für zu kurz gesprungen. In dem Moment, in dem X, BlueSky, Instagram oder TikTok erkennen können, dass ein gerade hochgeladenes Bild maschinell erstellt wurde, muss es eine sichtbare Kennzeichnung bekommen. Möglichst so, dass alle Nutzerinnen und Nutzer das Bild sofort als nicht echt erkennen können. Gleiches gilt auch für andere Plattformen wie YouTube oder Google Bildersuche. Hier entwickelte Googles DeepMind mit SynthID eine Lösung, die aber noch keine Universallösung darstellt.

Zum Schluss bleibt die Frage aller Fragen: Wurde dieser Text mit KI erstellt oder nicht? ;)


Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: next@ergo.de

Autor: Markus Sekulla, Digitalberater

Hi, ich bin Markus. Ich bin freiberuflicher Unternehmensberater im Bereich Kreative/Digitale Kommunikation. Ich befasse mich in der nicht immer trennscharfen Frei- und Arbeitszeit am liebsten mit New Work, Trends, Gadgets und zukunftsfähigen Ideen. In der richtigen Freizeit bin ich ein ziemlicher Gesundheitsfreak: eat, run, sleep, repeat.

Markus Sekulla  – Freiberuflicher Digitalberater

Weitere Magazin-Beiträge