Para todos es una verdad absoluta que la inteligencia artificial (IA), ha revolucionado nuestro día a día. Y preparémonos, porque este 2025 viene arrasando con toda, ya verán..
Y el tema que nos depara hoy es preocupante, porque en los últimos años, han surgido aplicaciones controversiales y bastante peligrosas, que «desnudan» a las personas en fotografías mediante algoritmos avanzados.
Hablamos de apps como Clothoff.io, Nudify.online y otras similares, que han generado una ola de preocupación debido a sus implicaciones éticas, legales y sociales. Cuidado: ¡no vaya a ser que comiencen a rondar por ahí imágenes de ustedes todos encuerados!
Estas apps «prometen avances técnicos impresionantes», pero su potencial para ser utilizadas con fines maliciosos es innegable. De ahí que sea tan importante que te enteres cómo funcionan, los riesgos que representan y por qué su existencia plantea preguntas fundamentales sobre los límites éticos de la IA.
A propósito, recuerdo que alguna vez vi un noticiero inglés en que las conductoras, que estaban guapísimas, salían desnudas, o por lo menos de topless; y fue una locura en el mundo entero. Me pregunto si la imagen habrá sido generada por inteligencia artificial y/o por una de estas apps que desnudan al público… ¡o quizás sí estaban desnudas en el estudio!
Pero por otro lado, imagínate que con la inteligencia artificial ves a alguien que no te parece ni guapo(a) ni bonito(a); y lo (a) tienes que ver desnudo (a) porque ya la traes puesta. ¡Eso sería terrible!, ¡cuánta pobreza verías!
Bueno, pero ya hablando en serio, me parece totalmente invasivo y peligroso, sobre todo para las mujeres jóvenes que les gusta tomarse fotos y vídeos en la playa, en las fiestas, modelando y luciendo su ropa; mucho más para aquellas que envían fotos “sexys” cuando están de ligue.
Y en el caso de los hombres, bueno, imagínate que ponen a un político en una situación de “evidencia desnuda”, o lo cachan con un amante en un restaurante. Esos diputados, senadores, oficiales mayores que de repente están desnudos o su pareja está desnuda y llega esta app y manipula la imagen y la ponen en contexto de la opinión pública con la intención de “quemarlos”.
¿Pero cómo funcionan estas aplicaciones que te pueden desnudar?
Estas herramientas de eliminación de ropa utilizan algoritmos avanzados de aprendizaje profundo y Convolutional Neural Networks (CNN) para analizar las imágenes.
De hecho, fueron diseñadas para identificar patrones y texturas de la ropa en una fotografía, eliminarlos digitalmente y generar una «simulación del cuerpo desnudo» basado en pretrained data.
Este proceso suele incluir reconocimiento facial y corporal en donde la IA identifica las características físicas del sujeto en la imagen; segmentación de ropa, es decir, los algoritmos aíslan las áreas correspondientes a la ropa; y «relleno» predictivo, en donde se generan texturas que simulan piel y detalles corporales basados en patrones aprendidos durante el entrenamiento del modelo.
Por supuesto que estas simulaciones aún no son «representaciones exactas» de nuestro cuerpo real, pero el impacto psicológico y social para las víctimas puede ser devastador. Se trata de imágenes lo suficientemente realistas como para engañar al público, lo que las convierte en herramientas peligrosas para el acoso digital, la difamación y el chantaje.
Además, lo que hace especialmente peligrosas a estas aplicaciones es su accesibilidad. Muchas operan bajo modelos «freemium», lo que significa que cualquiera puede usarlas gratuitamente con funciones básicas. Además, tutoriales disponibles en plataformas como YouTube facilitan su utilización incluso para usuarios inexpertos.
Este «acceso masivo», democratiza esta tecnología «intrínsecamente dañina», permitiendo que personas sin conocimientos técnicos ni escrúpulos, puedan generar contenido explícito y falso con facilidad.
Aplicaciones más conocidas
Entre las herramientas más populares (y polémicas) se encuentran Clothoff.io, una plataforma que utiliza redes neuronales avanzadas para eliminar ropa en imágenes reales y que ofrece personalización de características como color de piel y estilo artístico.
También está Nudify.online, una aplicación gratuita con una interfaz sencilla que permite a los usuarios generar imágenes desnudas con unos pocos clics.
Promptchan AI es otra de las apps diseñada para generar contenido NSFW (no apto para el trabajo), incluyendo estilos como anime o realista; mientras que Undress AI es similar a Clothoff.io, pero con un enfoque adicional en personalización avanzada.
En 2019, DeepNude, una de las primeras aplicaciones en popularizar esta tecnología, fue retirada del mercado, tras una ola de críticas internacionales, después de que se descubriera su uso masivo para crear imágenes explícitas no consensuadas. Aunque fue eliminada oficialmente, su código fuente fue replicado y distribuido ilegalmente por terceros.
Lo aterrador del caso es que estas herramientas son accesibles desde cualquier dispositivo con conexión a internet, lo que democratiza su uso pero también amplifica su potencial para causar daño.
En redes sociales como Telegram, por ejemplo, han surgido comunidades enteras dedicadas exclusivamente a compartir contenido generado por IA sin consentimiento, afectando principalmente a mujeres jóvenes e incluso menores. Definitivamente urge abordar este problema desde múltiples frentes: legal, tecnológico, educativo…
Impacto social, peligro real
Quiero hacer énfasis de nuevo en que el uso indebido de estas aplicaciones tiene consecuencias devastadoras tanto para las víctimas como para la sociedad en general. Antes que nada, es una violación a la privacidad porque genera imágenes desnudas sin tu consentimiento.
De hecho las víctimas suelen descubrir estas imágenes, después de que han sido compartidas públicamente o utilizadas para chantajes. Y la consecuencia más grave, además de afectar emocionalmente a las personas involucradas, es que genera desconfianza hacia el entorno digital.
Se trata de acoso digital y de acoso sexual, porque esas imágenes manipuladas suelen ser difundidas en redes sociales o sitios pornográficos sin el conocimiento o consentimiento de las víctimas.
Y aquí les va un dato muy alarmante: Estas tecnologías se están utilizando para generar imágenes explícitas falsas de menores de edad.
Según un informe reciente de la Fundación Internet Watch, se encontraron más de 11,000 imágenes generadas por IA de menores en foros ilegales. Esto no solo constituye un delito grave, sino que también pone en evidencia cómo estas tecnologías pueden ser explotadas por redes criminales.
Ahora bien, la «sextorsión» es otra consecuencia directa del uso indebido de estas apps. Generan imágenes falsas y luego amenazan con publicarlas si las víctimas no cumplen con sus demandas económicas o personales.
¿Acaso la existencia de estas aplicaciones refuerza actitudes tóxicas hacia el cuerpo humano y perpetúa una cultura donde el consentimiento se ignora sistemáticamente? ¿Estamos normalizando el abuso?
Sin embargo ante estos riesgos legales (y reales), la regulación es «más que insuficiente», porque aunque muchos países como Estados Unidos y Reino Unido consideran ilegal generar o distribuir imágenes íntimas sin consentimiento, la regulación sobre «deepfakes» sigue siendo insuficiente, por el alcance limitado de sus leyes.
En México, por ejemplo, falta legislación específica que aborde este tipo de abuso digital, aunque nos enfrentemos a la naturaleza global del internet, que dificulta rastrear y sancionar a los responsables.
En conclusión, para enfrentar esta amenaza creciente, es necesario tomar medidas concretas. ¡Necesitamos un llamado urgente a la acción! Porque estas aplicaciones representan uno de los aspectos más oscuros del avance tecnológico moderno. ¡Su capacidad para causar daño supera ampliamente cualquier beneficio potencial!
Se deben implementar leyes específicas contra la creación y distribución de este contenido, que deben incluir sanciones severas tanto para usuarios como para estos desarrolladores irresponsables.
También falta responsabilidad corporativa, que las plataformas tecnológicas y los desarrolladores tengan un papel crucial en prevenir este tipo de abuso y desarrollen políticas estrictas para detectar contenido manipulado y eliminarlo «a la velocidad de un rayo».
Y qué decir de la educación digital, que público sepa con anterioridad los riesgos y cómo protegerse contra posibles abusos.Implementar campañas globales, también puede ayudar a sensibilizar sobre los peligros éticos y legales de estas aplicaciones.
Un vez más, la inteligencia artificial nos demuestra que se ha convertido en «un arma de doble filo»: tiene un potencial para mejorar nuestras vidas, pero se convierte en siniestra cuando cae en manos erróneas y atenta contra nuestra privacidad y dignidad.