Vivimos en el momento de la historia en que cualquier imagen puede ser falsa, cualquier dato puede estar fabricado y cualquier fuente puede ser una alucinación bien vestida. No es paranoia: es el contexto operativo de 2024. Mientras los equipos de diseño y los estudios de IA generativa celebran cada nuevo modelo de imagen, la artista polaca Weronika Gęsicka construye el argumento contrario desde el arte conceptual: si todo puede parecer real, nada garantiza que lo sea. Su enciclopedia de entradas falsas no es un experimento irónico. Es una advertencia de sistema.
El proyecto: una enciclopedia construida para mentir con precisión
Gęsicka ha desarrollado una obra que replica la forma visual y estructural de una enciclopedia clásica, ese objeto que durante siglos fue sinónimo de verdad objetiva y autoridad académica. La diferencia: cada entrada es falsa. Datos inventados, biografías inexistentes, definiciones fabricadas. Todo presentado con el mismo rigor tipográfico, la misma frialdad editorial, el mismo peso de credibilidad que asociamos con el conocimiento verificado.
El resultado es incómodo de una manera muy específica. No es el malestar de ver algo obviamente falso. Es el malestar de no poder distinguirlo de lo verdadero a simple vista. Esa es exactamente la sensación que produce un output de GPT-4 cuando alucina una referencia bibliográfica, o Midjourney cuando genera una fotografía de un evento que nunca ocurrió con una resolución de 4K y metadatos coherentes.
«Vivimos en tiempos en los que tenemos que verificar la realidad que nos rodea a cada paso», afirma la artista polaca.
La frase suena simple. Las implicaciones para cualquier estudio que trabaje con IA generativa son enormes.
Por qué esto golpea directo al núcleo del diseño con IA
En Renderz Studio trabajamos diariamente con herramientas que producen contenido de alta fidelidad visual a velocidades que ningún humano puede igualar. Stable Diffusion XL, Flux, Firefly, Dall-E 3, Sora en sus primeras iteraciones de vídeo. El volumen de imágenes sintéticas que circula ya supera con creces al contenido fotográfico tradicional en ciertos nichos digitales. Según datos de Everypixel Journal, en 2023 se generaron aproximadamente 15.000 millones de imágenes con IA, frente a los 1.800 millones de fotos capturadas con cámaras convencionales en todo el año.
El problema no es la cantidad. El problema es la epistemología. Cuando el volumen de imágenes falsas supera al de las reales, el criterio de verificación no puede ser visual. No puedes confiar en tu ojo. Necesitas metadatos firmados, provenance blockchain, marcas C2PA, herramientas como Content Credentials de Adobe o el estándar abierto de la Coalition for Content Provenance and Authenticity. Estas no son opciones futuristas: están disponibles hoy en Photoshop, Firefly y en la API de varios modelos.
Lo que Gęsicka hace con papel, tinta y la autoridad visual de la enciclopedia, los modelos de lenguaje lo hacen con cada respuesta que no está anclada a una fuente verificable. La enciclopedia falsa es una metáfora perfecta de un RAG mal implementado, de un chatbot sin grounding, de un pipeline de contenido sin validación humana.
La estética de la desinformación como disciplina creativa
Hay algo que los creadores digitales deben entender del trabajo de Gęsicka que va más allá del mensaje político: la forma es el arma. La enciclopedia falsa funciona porque imita con perfección los códigos visuales de la credibilidad. Tipografía serif clásica, márgenes académicos, numeración de página, estructura de entrada con categoría, definición y referencia cruzada.
Esto tiene un paralelo directo en diseño de comunicación con IA. Los deepfakes más peligrosos no son los que parecen generados por IA. Son los que parecen grabados con una cámara de mano en condiciones de luz imperfecta. Los textos desinformativos más efectivos no usan lenguaje grandilocuente. Usan el tono neutro, casi aburrido, del periodismo de agencia.
Para un estudio como el nuestro, esto abre una conversación necesaria sobre responsabilidad estética. Cuando diseñamos con IA, estamos eligiendo qué códigos de credibilidad activar. Una imagen hiperrealista de producto generada en Midjourney que no está etiquetada como sintética no es neutral. Es una decisión editorial. Gęsicka lo hace como crítica. Nosotros debemos hacerlo con conciencia.
- Adobe Content Credentials: firma de autoría embebida en archivos de imagen, compatible con Photoshop y Firefly desde 2023.
- C2PA (Coalition for Content Provenance and Authenticity): estándar abierto adoptado por Microsoft, Google, Sony y OpenAI para rastrear el origen de contenido sintético.
- Hive Moderation y Illuminarty: APIs de detección de imágenes generadas por IA con precisión superior al 90% en benchmarks públicos de 2024.
- Watermark de SynthID de Google DeepMind: marca de agua imperceptible para el ojo humano, resistente a compresión y recorte, disponible en Imagen 3.
Lo que puedes hacer hoy
La enciclopedia de Gęsicka es arte. Pero el ejercicio que propone es práctico: coge cualquier output que hayas generado con IA esta semana y pregúntate qué códigos de credibilidad está activando sin que lo hayas decidido conscientemente. ¿Parece una fotografía real? ¿Imita el estilo de un medio concreto? ¿Contiene datos que no has verificado? Si trabajas en un equipo de diseño o contenido con IA, implementa hoy Content Credentials en tu flujo de Photoshop o Firefly. No es una opción de nicho: es parte del estándar profesional que se está estableciendo en este momento en la industria. Y si usas modelos de lenguaje para generar copy, referencias o datos técnicos, añade un paso de verificación con fuente primaria antes de publicar. No como burocracia. Como criterio de calidad. La realidad ya necesita verificarse a cada paso, como dice Gęsicka. Los estudios que construyan ese criterio dentro de su proceso serán los que mantengan autoridad cuando el mercado empiece a exigirlo, y lo está empezando a exigir ahora.