Un deep nude (o "nudify" con IA) es una imagen generada o manipulada mediante inteligencia artificial que parte de una foto real de una persona vestida y elimina digitalmente la ropa, creando un desnudo que parece fotorealista. El resultado suele mantener una similitud corporal y facial muy alta con la persona original, incluyendo proporciones, postura, iluminación y textura de la piel.
Diferencia principal con el deepfake
Deepfake (deep + fake): Surgió alrededor de 2017 en comunidades como Reddit. Originalmente se usaba para intercambiar caras (face-swapping) en videos, y sus primeros usos notables fueron cinematográficos o de entretenimiento (por ejemplo, poner la cara de una celebridad en otra persona). Con el tiempo se popularizó en pornografía no consentida, pero su origen y aplicación principal es más amplio: puede servir para videos falsos políticos, memes, efectos especiales, etc.
Deep nude: Es una subcategoría más específica y estrictamente orientada al contenido sexual. No suele intercambiar caras completas, sino que "desnuda" la imagen original conservando el cuerpo y rostro de la misma persona. Su propósito casi exclusivo es crear imágenes pornográficas o eróticas falsas de alguien sin su consentimiento.
La app que popularizó el término fue DeepNude (2019), un software que usaba redes neuronales (basadas en GANs y técnicas como Pix2Pix) para quitar ropa de fotos de mujeres. Solo funcionaba bien con imágenes femeninas porque el modelo se entrenó principalmente con datasets de cuerpos desnudos femeninos. Causó un escándalo enorme por su potencial para acoso, revenge porn y abuso, y fue retirada por sus creadores en menos de un día ante la ola de críticas. Dijeron que "la probabilidad de mal uso era demasiado alta" y que no querían ganar dinero así.
Hoy en día existen muchas apps y sitios web similares (algunos gratuitos, otros de pago) que hacen lo mismo con IA generativa más avanzada. La tecnología ha mejorado mucho: los resultados son más realistas, funcionan con hombres también y a veces combinan deep nude con deepfake.
Aspectos importantes (y problemáticos)
Consenso: La gran mayoría de los deep nudes se crean sin el permiso de la persona retratada. Esto se considera una forma grave de violencia digital, acoso sexual y violación de la privacidad.
Impacto: Puede causar daño psicológico profundo a las víctimas (ansiedad, depresión, vergüenza pública), especialmente a mujeres y menores. Se usa mucho en sextortion (extorsión sexual), bullying y revenge porn.
Legalidad: Depende del país. En muchos lugares (incluyendo varios estados de EE.UU., la UE con el AI Act, Reino Unido, y regulaciones en países como Italia o España) crear o distribuir deep nudes no consentidos es ilegal o está en proceso de serlo explícitamente. En México también hay avances en leyes contra violencia digital y pornografía no consentida, aunque la regulación específica de IA aún está evolucionando.
Detección: Cada vez es más difícil distinguirlos a simple vista, pero hay herramientas de detección de IA y marcas de agua digitales que algunas plataformas intentan implementar.
No hay comentarios.:
Publicar un comentario