#BBA21 Die Game Changer ... ja nur keine Krise ungenützt verstreichen lassen

In der Kategorie "Kommunikation und Marketing" wurden nominiert:

Wie jedes Jahr haben alle Nominierten die Möglichkeit, sich mit Kommentaren an info@bigbrotherawards.at zu wenden. Wir veröffentlichen dann die Reaktionen unter der jeweiligen Nominierung.

Deepfakes - KI zieht Frauen aus

Die letzten beiden Jahre wurden begleitet von Diskussionen über seriöse Quellen und wie Leser in der Lage sein können News von Fake News zu unterscheiden. Doch der Mensch hat gelernt zu glauben was sein Auge meint zu sehen, und so sind gerade Bilder für uns schwer als Fälschung zu enttarnen.

Seit Jahren wird die Deepfake-Technologie zunehmend besser, auch weil große Firmen wie Disney viel Geld in die Entwicklung stecken. Höhere Rechenleistungen und der Fortschritt der Technik werden als “KI”, dem großen neuen Game Changer der nächsten Jahre, verkauft.

Seit es Fotos gibt wurden diese auch gefälscht. So haben Mächtige keinen Aufwand gescheut um Fotodokumentationen historischer Ereignisse im Nachhinein zu manipulieren. Menschen wurden aus Gruppenbildern rausgelöscht und Teilnehmer hinzugefügt ohne jemals vor Ort gewesen zu sein. Dies waren mit hohen technischen Aufwand zeitintensive Verfahren.

Im Jahre 2014 hatte Goodfellow die Grundidee zwei Algorithmen gegeneinander antreten zu lassen. Der erste hat zum Ziel, zu erkennen, was ein falsches Bild ist und was ein echtes. Der zweite generiert möglichst realitätsnahe Bilder und wird belohnt, wenn er schafft, den ersten zu täuschen. Das Ergebnis sind Bilder, die ein Computersystem generiert hat, die aber so echt aussehen, dass ein Mensch den Unterschied kaum oder gar nicht mehr erkennt. [1]

In den letzten Jahre wurde extrem viel Forschungsgeld in Videoüberwachung und Analyse von Bildern investiert. Mit dem Ergebnis dass immer mehr Dienste rund um Videos und Bildern hervorgebracht werden.

Die Stammbaum-Website Myheritage animiert hochgeladene Fotos von verstorbenen Personen. Mit der Deepfake-Technologie werden Fotos zu bewegten Bildern. Deep Nostalgia nennt Myheritage ihren Dienst und weiß um die Kontroverse, die mit ihrem Angebot entstehen wird. “Einige Leute lieben die Deep-Nostalgia-Funktion und halten sie für magisch, während andere sie für gruselig halten und sie nicht mögen”, schreibt Myheritage auf ihrer Seite. [2]

Im Internet werden mittlerweile Dienste angeboten, bei denen man für ein paar Dollar das Foto einer Person verändern kann. Besonders perfide sind Angebote, die die künstliche Intelligenz dazu nutzen um bekleidete Frauen auf Fotos hochrealistisch auszuziehen.

Noch wird die sogenannte Deepfake-Technologie vor allem dazu eingesetzt, Köpfe von prominenten Frauen auf jene von Pornodarstellerinnen zu setzen. 2019 waren laut einem Report der Cyber-Security-Firma Deeptrace 96 Prozent aller Deepfake-Videos im Internet pornografisch.

Über Telegram verbreitet sich derzeit ungehindert ein Dienst, der Bilder von Kindern und Jugendlichen in Nacktfotos umwandelt – ohne deren Wissen. Jeder kann dem Bot ein Foto schicken und erhält innerhalb von Minuten eine Nacktaufnahme zurück – kostenlos.
[3]

Leider gibt es immer noch wenige Möglichkeiten, solche Aktivitäten zu stoppen.


  1. NZZ
    Das FBI warnt vor Deepfakes

    Eine simple Idee revolutionierte vor wenigen Jahren das Erstellen gefälschter Bilder und Videos. Bald kann jeder von zu Hause aus Fakes herstellen, die Menschen nicht mehr als solche erkennen können. Und auch Computer tun sich dabei immer schwerer.
    Künstlich erzeugte Videos, Bilder und Tonaufnahmen werden zu einem Sicherheitsproblem. Und das wohl schon in den nächsten Monaten. Das ist zumindest die Einschätzung des FBI. ↩︎

  2. DerStandard
    Myheritage-Website bringt mit Deepfakes Verstorbene zum Lächeln

    Deep Nostalgia nennt Myheritage ihren Dienst und weiß um die Kontroverse, die mit ihrem Angebot entstehen wird. “Einige Leute lieben die Deep-Nostalgia-Funktion und halten sie für magisch, während andere sie für gruselig halten und sie nicht mögen”, schreibt Myheritage auf ihrer Seite. ↩︎

  3. MIT Technology Review
    KI zieht Mädchen aus

    Im Juni 2019 schrieb das Online-Magazin Vice über eine beunruhigende App namens DeepNude. Sie erlaubte es, ein Foto einer bekleideten Frau für 50 Dollar hochzuladen und kurze Zeit später ein künstlich generiertes Nacktfoto von ihr zurückzubekommen. Dies geschah mit sogenannten „Generative Adversarial Networks“ (GAN), wie sie für Deepfakes häufig benutzt werden. Die GAN tauschten die Kleidung der Frauen gegen hochrealistische nackte Körper. Je spärlicher das Opfer bekleidet war, desto besser. ↩︎