Vivimos en el año en que los deepfakes superaron el umbral del 90% de credibilidad según estudios del MIT Media Lab, en que modelos como Sora generan vídeo fotorrealista en segundos, y en que millones de personas toman decisiones —políticas, económicas, personales— basadas en contenido que nunca ocurrió. En este contexto, una artista polaca acaba de construir una enciclopedia entera de entradas falsas. No como broma. Como advertencia urgente.
La enciclopedia que miente con propósito
Weronika Gęsicka ha creado una obra que simula la forma más confiable que conocemos para almacenar verdad colectiva: la enciclopedia. Pero cada entrada es fabricada. Cada dato, inventado. Cada referencia, falsa. El resultado no es caos —es algo mucho más perturbador: todo parece completamente real.
La artista lo explica sin rodeos:
«Vivimos en tiempos en los que tenemos que verificar la realidad que nos rodea a cada paso.»
Esto no es arte conceptual para galerías vacías. Es un diagnóstico clínico del momento en que vivimos. La forma enciclopédica —ese formato que asociamos con autoridad, con Wikipedia, con el conocimiento institucionalizado— se convierte aquí en el arma perfecta para demostrar que la confianza en la forma mata el pensamiento crítico sobre el contenido.
Para cualquiera que trabaje con IA generativa —diseñadores, directores creativos, desarrolladores de producto— esto es una señal de alarma directa. Herramientas como ChatGPT, Gemini o Claude alucinarán datos con la misma seguridad tipográfica que cualquier entrada de la Britannica. La forma imita autoridad. El contenido puede ser pura ficción.
El arte como herramienta de detección, no de decoración
Lo que hace Gęsicka no es nuevo en su intuición, pero sí en su ejecución y timing. Artistas como Hito Steyerl llevan años diseccionando cómo las imágenes mienten. La diferencia ahora es la escala y la velocidad.
En 2024, según datos de NewsGuard, más de 1.000 sitios web operados completamente por IA publicaron noticias falsas a razón de cientos de artículos diarios. La mayoría tenían el mismo aspecto que un medio legítimo. Mismo layout. Misma tipografía. Mismos signos de credibilidad visual.
El arte de Gęsicka funciona como un ejercicio de alfabetización visual radical. Al exponerte a una enciclopedia que sabes que es falsa, entrenas algo que los filtros algorítmicos no pueden darte: la desconfianza activa hacia la forma. Esa capacidad de preguntar no solo «¿es correcto esto?» sino «¿por qué me parece correcto?»
Para estudios de arte digital y agencias que trabajan con contenido generado por IA, esto tiene implicaciones directas en el workflow:
- Prompts verificables: Todo contenido IA debe incluir instrucciones explícitas de citar fuentes o admitir incertidumbre.
- Capas de revisión humana: No como burocracia, sino como protocolo de diseño.
- Diseño de la duda: Crear piezas que inviten al usuario a cuestionar, no a consumir pasivamente.
IA generativa y el problema de la autoridad estética
Aquí está el núcleo del problema para quienes trabajamos en arte digital e IA: las herramientas que usamos cada día producen autoridad estética de forma automática. Midjourney genera imágenes que parecen fotografías de archivo. Runway genera vídeo que parece documental. ElevenLabs genera voces que parecen testimonios reales.
La enciclopedia falsa de Gęsicka tiene exactamente ese problema pero elevado a concepto artístico. Y lo que la hace devastadoramente efectiva es que no necesita engañar a nadie para demostrar su punto: incluso sabiendo que es falsa, el cerebro lucha contra esa información porque la forma grita «verdad».
Modelos de lenguaje como GPT-4 o Claude 3.5 Sonnet tienen tasas de alucinación que oscilan entre el 3% y el 27% dependiendo del dominio, según benchmarks de HELM de Stanford. En términos prácticos: si produces 100 piezas de contenido asistido por IA sin verificación, entre 3 y 27 contendrán errores presentados con total confianza tipográfica y estructural.
El arte de Gęsicka no es una crítica nostálgica a la tecnología. Es un manual de uso negativo: te muestra exactamente cómo funciona el engaño para que puedas construir sistemas más honestos.
Acción concreta para hoy
Si trabajas en creación de contenido digital, diriges un estudio de arte IA o simplemente produces piezas con herramientas generativas, aquí está lo que puedes hacer antes de que acabe el día:
Toma las últimas tres piezas que hayas producido con IA —texto, imagen, vídeo, lo que sea— y hazte una sola pregunta: ¿podría esta pieza existir en la enciclopedia de Gęsicka? ¿Tiene la forma de la verdad sin que hayas verificado el fondo?
Si la respuesta es sí, no la borres. Úsala como punto de partida para diseñar tu propio protocolo de verificación. Herramientas como Perplexity AI con citas activas, Factcheck.org para datos, o simplemente un documento de fuentes vinculado a cada entrega de cliente. No es burocracia: es el diferencial que separa un estudio premium de una fábrica de contenido.
El arte de Weronika Gęsicka no pide que dejes de usar IA. Pide que dejes de usarla con los ojos cerrados. En Barcelona, en cualquier estudio que se llame a sí mismo premium, esa distinción es exactamente donde se gana o se pierde la credibilidad a largo plazo.