Das Technologie-Transparenz-Projekt (TTP) hat eine neue Studie durchgeführt, die sich darauf konzentriert, wie Apples eigenes Such- und Werbesystem den Nutzern helfen kann, diese Apps zu finden, nach einem Bericht im Januar, der viele "nudify"-Apps im App Store aufdeckte. Hier sind die Details.
Nudify-Apps sind in App-Stores weiterhin ein Problem
Laut dem neuen Bericht helfen sowohl der App Store als auch der Google Play Store dabei, "Apps zu finden, die gefälschte nackte Bilder von Frauen erstellen", und tun dies manchmal durch beworbene Suchergebnisse und automatische Vervollständigungs-Suchvorschläge.
Im Bericht stellt TTP fest, dass Apple und Google weiterhin darin versagen, die Sichtbarkeit von Nudify-Apps in den App-Stores zu verhindern; einige davon erscheinen als für Minderjährige geeignet. Die Gruppe fand heraus, dass fast 40 % der Top-10-Apps, die für Suchanfragen wie "nudify", "undress" und "deepnude" zurückgegeben werden, "Frauen nackt oder in wenig Kleidung darstellen können".
Darüber hinaus haben einige Suchanfragen auch gesponserte Ergebnisse für diese Apps hervorgebracht. Aus dem Inhalt des Berichts:
"(...) Das erste Ergebnis einer App Store-Suche nach dem Begriff 'deepfake' war eine Werbung für die von DuoFace entwickelte FaceSwap Video-App. Diese App ermöglicht es Nutzern, das Gesicht einer Person von einem statischen Bild in ein Video zu ändern. Um die App zu testen, lud TTP ein Bild einer Frau in einem weißen Pullover, die auf dem Bürgersteig steht, und ein Video einer nackten Frau hoch. Nach einer kurzen Werbung produzierte die App ein Video, das das Gesicht der bekleideten Frau auf den Körper der nackten Frau setzte."
Und
"Eine andere App Store-Suche nach dem Begriff 'face swap' brachte eine Werbung für eine App namens AI Face Swap hervor. Diese App bietet vordefinierte Gesichtstauschvorlagen und ermöglicht es Nutzern, Gesichter in von ihnen hochgeladenen Bildern zu tauschen. TTP lud ein Foto einer Frau in einem blauen Pullover und ein Bild einer nackten Frau hoch, und die App tauschte die Gesichter ohne Einschränkungen aus."
Interessanterweise hat TTP, neben der Kontaktaufnahme mit Apple und Google über diese Ergebnisse, auch mit den Entwicklern mehrerer dieser Apps kommuniziert. In mindestens einem Fall bestätigte der App-Entwickler, dass sie Grok für die Bildproduktion verwenden, behauptete jedoch, "nicht zu wissen, dass dies solch extreme Inhalte produzieren könnte". Der Entwickler versprach, die Moderationseinstellungen für die Bildproduktion zu verschärfen.
Im Rest des Berichts stellte TTP fest, dass die Suche nach "AI NS" mit "AI NSFW" enden könnte, weshalb der App Store "image to video ai nsfw" vorschlug. Diese Suche ergab in den Top Ten Ergebnissen mehrere Nudify-Apps.
Obwohl Apple sich weigerte, auf TTPs Anfrage zu antworten, entfernte das Unternehmen in Reaktion auf den Bericht die meisten der von TTP identifizierten Apps.
Folgen Sie diesem Link, um den vollständigen Bericht von TTP zu lesen.
Produkte, die einen Blick wert sind bei Amazon
- David Pogue – 'Apple: Die ersten 50 Jahre'
- MacBook Neo
- Logitech MX Master 4
- AirPods Pro 3
- AirTag (2. Generation) – 4er-Pack
- Apple Watch Series 11
- Drahtloser CarPlay-Adapter
Kommentare
(1 Kommentar)