En nuestros días, el uso indebido de la tecnología está generando nuevas preocupaciones éticas y de seguridad. Una de las áreas más problemáticas ha sido el aumento de las aplicaciones de uso dual, que pueden tener un propósito legítimo pero también se prestan a un uso malintencionado, como la creación de imágenes o videos falsificados (deepfakes). Apple, una de las principales plataformas de distribución de aplicaciones a nivel global, se enfrenta a un desafío importante al intentar regular este tipo de aplicaciones en su App Store. Sin embargo, por ellos no será, van a tratar de terminar con este mercado.
Apple debe regular la App Store
La App Store de Apple es una de las plataformas de aplicaciones más grandes del mundo, conocida por su política cerrada, que requiere que todas las aplicaciones cumplan con estrictas regulaciones antes de ser aprobadas y publicadas. Esta política de control tiene como objetivo proteger a los usuarios, garantizando que las aplicaciones sean seguras, privadas y confiables.
Sin embargo, el reciente aumento de las aplicaciones de ‘uso dual’, especialmente las que incluyen tecnología de intercambio de rostros (Face Swap) a través de inteligencia artificial, está poniendo a prueba la capacidad de Apple para mantener su plataforma libre de contenido perjudicial.
Las aplicaciones de ‘uso dual’ son aquellas que, aunque tienen un uso legítimo, pueden ser fácilmente utilizadas para fines no deseados o incluso peligrosos, como la creación de deepfakes no consensuados, incluida la pornografía. Estas aplicaciones permiten a los usuarios intercambiar rostros en imágenes y videos, y aunque algunas están diseñadas para el entretenimiento, otras han sido explotadas para generar contenido explícito sin el consentimiento de las personas involucradas.
Un informe reciente ha destacado cómo estas aplicaciones están siendo utilizadas de manera indebida en la App Store de Apple. Según el informe, estas aplicaciones de intercambio de rostros, que en principio podrían parecer inofensivas, están siendo aprovechadas para crear deepfakes pornográficos, a menudo involucrando a personas que no han dado su consentimiento, e incluso a menores de edad.
Funcionan a través de inteligencia artificial
El informe señala que los usuarios, al pagar una suscripción mensual, pueden fácilmente intercambiar el rostro de una persona en cualquier video pornográfico utilizando solo una imagen de la víctima. Este proceso es alarmantemente rápido y sencillo, tomando solo unos minutos para crear videos muy realistas.
El periodista que probó una de estas aplicaciones informó que, después de ver un anuncio en Reddit, pudo utilizar el navegador integrado en la aplicación para navegar hasta un video pornográfico en Pornhub, donde la aplicación automáticamente reemplazó el rostro de una persona en el video con el de la víctima elegida. Esto no solo vulnera los derechos de las personas involucradas, sino que también pone en entredicho la capacidad de Apple para evitar que este tipo de aplicaciones dañinas lleguen a los usuarios.
Apple enfrenta dificultades para regular aplicaciones que eluden sus controles mediante descripciones ambiguas y funciones ocultas detrás de suscripciones. Debe equilibrar la seguridad y privacidad de los usuarios sin limitar la innovación, abordando cuestiones éticas relacionadas con el uso de inteligencia artificial para la creación de contenido falso.
La entrada Apple pone todo de su mano para bloquear estas aplicaciones en su App Store se publicó primero en La Manzana Mordida.