El Proyecto de Transparencia Tecnológica (TTP) realizó una nueva investigación centrada en cómo los propios sistemas de búsqueda y publicidad de Apple pueden ayudar a los usuarios a encontrar estas aplicaciones, tras su informe de enero que reveló muchas aplicaciones "nudify" en la App Store. Aquí están los detalles.
Las aplicaciones nudify siguen siendo un problema en las tiendas de aplicaciones
Según el nuevo informe, tanto la App Store como Google Play Store "ayudan a las mujeres a encontrar aplicaciones que crean imágenes de desnudos falsos profundos", y a veces lo hacen a través de resultados de búsqueda promocionados y sugerencias de autocompletado.
En su informe, el TTP señala que Apple y Google aún no han logrado evitar que las aplicaciones nudify aparezcan en las tiendas de aplicaciones; algunas de ellas parecen ser adecuadas para menores. El grupo encontró que casi el 40% de las 10 mejores aplicaciones devueltas para búsquedas como "nudify", "undress" y "deepnude" "podrían desnudar o poner a las mujeres en ropa mínima".
Además, algunas búsquedas también revelaron resultados patrocinados para estas aplicaciones. Del contenido del informe:
"(...) El primer resultado de una búsqueda en la App Store para el término 'deepfake' fue un anuncio para la aplicación FaceSwap Video, desarrollada por DuoFace. Esta aplicación permite a los usuarios cambiar la cara de alguien de una imagen fija a un video. Para probar la aplicación, el TTP cargó una imagen de una mujer con un suéter blanco de pie en la acera y un video de una mujer desnuda. Después de mostrar un breve anuncio, la aplicación produjo un video que colocaba la cara de la mujer vestida en el cuerpo de la mujer desnuda."
Y
"Otra búsqueda en la App Store para el término 'face swap' reveló un anuncio para una aplicación llamada AI Face Swap. Esta aplicación ofrece plantillas de cambio de cara preestablecidas y permite a los usuarios cambiar caras en imágenes que ellos mismos han subido. El TTP cargó una foto de una mujer con un suéter azul y una imagen de una mujer desnuda, y la aplicación cambió sus caras sin ninguna restricción."
Curiosamente, además de comunicarse con Apple y Google sobre estos hallazgos, el TTP también se puso en contacto con los desarrolladores de varias de estas aplicaciones. En al menos un caso, el desarrollador confirmó que estaban utilizando Grok para la generación de imágenes, pero afirmaron que "no eran conscientes de que esto podría generar contenido tan extremo". El desarrollador prometió endurecer la configuración de moderación para la generación de imágenes.
En el resto del informe, el TTP señaló que la búsqueda "AI NS" podría resultar en "AI NSFW", por lo que la App Store sugirió "image to video ai nsfw". Esta búsqueda, respectivamente, devolvió varias aplicaciones nudify entre los diez mejores resultados.
A pesar de negarse a responder a la solicitud del TTP, Apple eliminó la mayoría de las aplicaciones que el TTP identificó en respuesta al informe.
Para leer el informe completo del TTP, sigue este enlace.
Productos que vale la pena explorar en Amazon
- David Pogue – 'Apple: Los Primeros 50 Años'
- MacBook Neo
- Logitech MX Master 4
- AirPods Pro 3
- AirTag (2ª Generación) – Paquete de 4
- Apple Watch Series 11
- Adaptador CarPlay inalámbrico
Comentarios
(1 Comentario)