
KI für moralisch vertretbare Kinderpornografie?
Die Website des 28-jährigen Rasmus* aus Dänemark enthält Abertausende Bilder von Minderjährigen, hauptsächlich Mädchen. Opfer gibt es womöglich keine, denn die Bilder hat Rasmus alle selbst hergestellt, mittels künstlicher Intelligenz (KI). Ein internationaler Fall, der auch in die Schweiz führt.
Rasmus* schaut sich zufrieden die Bilder auf seinem Computer an. Es sind viele, mittlerweile weit über 300 000. Er musste üben, doch nun hatte Rasmus das KI-Programm, das mehrheitlich gratis funktioniert, so gut im Griff, dass niemand mehr erkannte, ob die Fotos der Mädchen und Jungen in aufreizenden Posen echt waren oder nicht. Für ihn eine Win-win-Situation: Es gab keine Opfer, und doch konnte er Tausende Bilder zum Verkauf anbieten.
Im Juni 2024 findet am Hauptsitz von Europol in Den Haag (NL) das jährliche Treffen der Expertinnen und Experten für Pädokriminalität statt. Grossbritannien und Dänemark präsentieren gemeinsam den Fall des jungen Dänen, der über TikTok, YouTube, X, Discord und seine eigene Website Werbung für explizite pornografische Inhalte verbreitete. Ein Grossteil des öffentlich einsehbaren Inhalts ist nicht strafbar; die Mädchen auf den Fotos sehen zwar jung aus, explizit pornografisch sind die Inhalte jedoch nicht. Für fünf Euro pro Monat bietet Rasmus Premium Content an, bis zu tausend Bilder pro Monat. Die britische National Crime Agency, die bei ihren verdeckten Ermittlungen darauf gestossen ist, zahlt. Der exklusive Inhalt entpuppt sich als explizite Kinderpornografie. Dank des Kaufs kann die Polizei den Täter identifizieren; Rasmus wird bei sich zu Hause in Dänemark festgenommen.
Ein internationaler Fall – der auch in die Schweiz führt
Die Polizei stellt über 300 000 Bilder sicher, alle KI-generiert; rund 30 000 davon sind kinderpornografisch. Die knapp 300 Käufer sind in weltweit über 30 Ländern zu Hause. Im Herbst informiert Europol fedpol, dass drei davon in der Schweiz wohnen. fedpol informiert die Wohnsitzkantone. Eine erste Hausdurchsuchung findet im Kanton Basel-Landschaft statt, es folgen der Kanton Luzern und die Stadt Zürich. Ein Geständiger argumentiert, er habe nicht gewusst, dass der Besitz von KI-generiertem kinderpornografischem Material strafbar sei.
Nutzen die Täter tatsächlich eine Grauzone der Justiz aus? Das Schweizerische Strafgesetzbuch sagt: Nein. Artikel 197 beschreibt klar, dass die Herstellung und der Besitz von nicht tatsächlichem kinderpornografischem Material strafbar sind. Ganz egal, ob Zeichnung, Foto oder KI-generiertes Bild: All dies ist strafbar.
KI lenkt von den echten Opfern ab
KI-generierter pädopornografischer Inhalt stellt die Polizei vor grosse Herausforderungen. Die Menge des Materials nimmt seit Jahren exponentiell zu, und die KI-Programme werden leichter zugänglich und nutzerfreundlicher. Auch wenn KI selbst keine Opfer generiert, sie lenkt von den echten Opfern ab und erschwert die Arbeit der Polizei. Denn die echten Bilder gibt es immer noch. Doch der Aufwand, zwischen echten und KI-generierten Bildern zu unterscheiden, wird immer komplexer und grösser. Hinter jedem echten Bild steht ein Opfer, ein missbrauchtes Kind, das gefunden werden muss. Umso wichtiger sind die Zusammenarbeit und der reibungslose Austausch von Informationen – zwischen fedpol und den internationalen Partnern wie Europol, aber auch auf nationaler Ebene. Denn oberste Priorität haben die Opfer – immer.
«Bei Pädopornografie ist die Identifikation der Opfer besonders wichtig, denn die Opfer führen meist zu weiteren Tätern. Der Kreis zieht sich immer weiter. Bei KI-generiertem Material wissen wir aber oft gar nicht, ob es überhaupt ein Opfer gibt. Das erschwert unsere Arbeit.»
Marcel, Bundesermittler
* Name geändert