Eine Recherche von jugendschutz.net zeigt: Mit frei zugänglichen Deepfake-Generatoren lassen sich Bilder von Minderjährigen sexualisieren – ein Risiko für den Schutz von Kindern und Jugendlichen.
Was sind Deepfakes?
Der Begriff Deepfake setzt sich zusammen aus den Worten „Deep Learning” (eine Methode des maschinellen Lernens) und „Fake” (engl. für Fälschung). In der KI-Verordnung der EU wird der Begriff folgendermaßen bestimmt: Ein „Deepfake“ ist ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde. Deepnudes sind eine Art Deepfake, bei denen bekleidete Menschen auf Bildern durch Deepfake-Generatoren ausgezogen werden. Solche Dienste, die Personen mit KI entkleiden, nennt man auch Nudifier.
Manipulation von Alltagsbildern mittels künstlicher Intelligenz
jugendschutz.net recherchierte zehn Nudifier, die Nutzer:innen die Möglichkeit zur Erstellung gefälschter Nacktdarstellungen geben. Zur Prüfung wurden KI-generierte Alltagsdarstellungen von Kindern verwendet. Die abgebildeten Kinder waren frontal sowie im Ganzkörperprofil zu sehen. In sechs von zehn Fällen erkannten die Nudifier das Bild, das ein Kind frontal zeigt, als Darstellung einer minderjährigen Person und ließen keine Manipulation des Bildes zu. Anders verhielt es sich bei der Darstellung eines Kindes, das von der Seite zu sehen ist. Kaum einer der Nudifier erkannte die dargestellte Person als minderjährig. Acht der zehn recherchierten Angebote verarbeiteten zumindest eine Version eines Bildes von einem Kind.