
Estilo Studio Ghibli y Pixar: los riesgos de compartirle tu rostro a la IA
Fotos al estilo Ghibli. El nuevo viral podría poner en juego tu privacidad
Esta última semana de marzo de 2025, las redes sociales se llenaron de imágenes con estética de película animada. Caras humanas convertidas en versiones estilo Estudio Ghibli y Pixar, generadas por herramientas de inteligencia artificial como ChatGPT (con funciones de DALL·E), Gemini de Google o apps de terceros que prometen convertirte en personaje de fantasía.
Detrás de esta tendencia que parece inofensiva y encantadora, se esconde una pregunta crítica: ¿qué tan vulnerables están nuestros datos?
¿Dónde están tus fotos?
La mayoría de usuarios ha subido sus rostros, los de sus familiares e incluso de sus hijos para obtener estas imágenes. Pero, ¿qué pasa con esas fotos después de ser procesadas? ¿Se almacenan? ¿Quién puede acceder a ellas?
Aunque OpenAI —la empresa detrás de ChatGPT— ha afirmado que protege la privacidad de sus usuarios, aún no ha presentado evidencias claras de cómo maneja, almacena o elimina los datos sensibles como las imágenes faciales. De hecho, por defecto, las interacciones con ChatGPT pueden ser utilizadas para entrenar sus modelos, a menos que el usuario cambie la configuración de privacidad para desactivar este uso.
El rostro como un dato biométrico
Subir tu cara a una plataforma de inteligencia artificial no es simplemente compartir una imagen. Se trata de entregar un dato biométrico, único e irremplazable. Cuando esa imagen es procesada por IA, se generan representaciones digitales que podrían ser utilizadas —en teoría— para reconocimiento facial, análisis de emociones, perfilamiento de identidad o incluso para alimentar otros modelos sin tu consentimiento explícito.
La historia de los datos se repite

Esta no es la primera vez que entregamos nuestros rostros por una tendencia viral. En años anteriores, se popularizaron aplicaciones como FaceApp, que mostraba cómo lucirías de viejo, de bebé o cambiando de género. Expertos ya advertían en ese entonces que muchas de esas apps, especialmente las de origen dudoso o sin políticas claras de privacidad, almacenaban las imágenes y metadatos sin transparencia sobre su uso posterior.
¿Y si ya le diste todo a la IA?
La preocupación aumenta cuando recordamos que, al interactuar con IA como ChatGPT, muchos usuarios comparten detalles de su vida personal, laboral y emocional. Si a eso se suma una imagen facial, se cierra el círculo de datos que pueden construir un perfil extremadamente detallado de una persona.
¿Qué precauciones tomar?
- Revisa las políticas de privacidad de cualquier herramienta antes de subir imágenes.
- Evita compartir fotos de menores de edad o personas sin su consentimiento.
- Desactiva el uso de tus datos para entrenar modelos de IA, si la plataforma lo permite.
- No uses aplicaciones desconocidas o sin respaldo claro.
La tecnología avanza a pasos agigantados, pero nuestra privacidad no debería quedar atrás. Lo viral puede ser divertido, pero no debe ser un boleto de entrada a entregar tu identidad sin saber quién está del otro lado.
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ