“Estamos en el ruido"
Sí, en esta exposición de Tomás García, todas las obras fueron generadas con inteligencia artificial. Y sí, resulta desafiante discernir qué parte proviene de la creatividad de la inteligencia artificial y cuánto corresponde a la mente de Tomás García (en caso de que te lo estuvieras preguntando). Sin embargo, lo significativo no radica tanto en calcular porcentajes de autoría, sino en animarnos a explorar las obras y dirigir nuestra curiosidad hacia nuestras propias respuestas: ¿Qué estamos presenciando? ¿A qué seres estamos mirando? ¿De qué ruido nos habla?
“Todo mi ruido” marca la primera exposición de Tomás García, presentando una instalación de múltiples pantallas en las que podemos ver una selección de más de 300 imágenes que nos sumergen en una situación de profundo extrañamiento como observadores privilegiados de cada espacio y ser que vamos conociendo a lo largo de la exhibición. Las imágenes fueron creadas mediante el diseño de instrucciones (prompts) en combinación con conjuntos de información visual creados y seleccionados por Tomás García, para obtener resultados únicos y esquivar la homogeneización de los resultados que proporcionan los modelos de creación de imágenes con inteligencia artificial. Esto no es una tarea superflua, sino un aspecto central de la exhibición y del proceso de creación, porque no existe un modelo de inteligencia artificial capaz de interpretar cómo somos en Argentina, cómo son los barrios, cómo son nuestras miradas y qué emociones somos capaces de transmitir con nuestros rostros. La razón es simple: el desarrollo técnico y los centros de creación de estas herramientas pertenecen a otras esferas socioeconómicas y culturales, y todo lo que se crea, indefectiblemente, será evidencia de ese enfoque. Este es el escenario -y conflicto- habitual para los artistas de América Latina que no se conforman con los “defaults” de las herramientas y las abordan como territorios de subversión, provocando que el trabajo artístico sea moldeado por una relación tan estrecha como única con sus herramientas.
El proyecto de Tomás se desarrolla al mismo tiempo que atravesamos uno de los desafíos más significativos que enfrentamos: nuestra convivencia con la inteligencia artificial y su impacto en la cultura que hemos construido a lo largo de nuestra breve historia. Al dejar atrás una tradición de producción y creación altamente controlada, nos aventuramos hacia nuevos paradigmas de creación y comunidad. En este contexto, una nueva caja (oscura) de herramientas proporciona a Tomás García elementos que nos inspiran a reflexionar sobre cómo deseamos vivir nuestro presente y nuestro futuro. “Todo mi ruido” nos ofrece la oportunidad de ser nosotros, los espectadores, quienes nos sumergimos en el ruido de nuestra época.
Texto sobre Todo mi ruido por Cristian Reynaga.
TODO MI RUIDO - 2024
“Todo mi Ruido” consiste en un conjunto de más de 300 imágenes que invitan a reflexionar sobre la “carne digital” en la que nos envolvemos, los sesgos culturales y políticos que nos definen, y cómo las extensiones digitales de nuestro ser —prótesis de la era moderna— configuran el entorno en el que vivimos.
A través del diálogo entre la escultura figurativa en 3D y el uso de modelos generativos con Stable Diffusion, el resultado refleja un meticuloso proceso de creación donde el entrenamiento de conceptos, objetos, máscaras y semblantes revela las diferentes representaciones latentes de un universo lleno de reglas y herramientas existentes que tenemos que redescubrir, reimaginar y representar.
preguntas y respuestas SOBRE LAS OBRAs:
Debido a que es una tecnología relativamente nueva y existe mucha desinformación respecto al uso de estas herramientas, me propongo responder las preguntas que generalmente me preguntan cuando ven estas obras.
Cómo están hechas?
Estan hechas con Stable Diffusion y entrenamientos de LoRAs. En dónde yo entreno un estilo y un concepto y después mediante texto, genero a las imágenes llamando a los modelos que entrené con símbolos, estilo y rostros determnado.
Son fotos?
No, no son fotos.
Se generan automáticamente?
No, hay que escribir un texto que depende su complejidad, va a determinar el resultado de la imagen.
Cómo es un ejemplo de texto/prompt?
Puede otra persona usar el mismo text / prompt que usé yo?
Si, pero no va a obtener la misma imagen porque no entrenó los modelos que entrené yo.
Cómo sería un ejemplo del mismo prompt con tus modelos entrenados y sin ellos?
Cuánto tiempo lleva hacer esto?
El proceso más prolongado es el del entrenamiento del modelo propio que es el que hace a la diferencia. Y es largo porque vas a tener que pensar cómo construir ese material con el que vas a entrenar un modelo de iA, como lo vas a describir y qué proceso técnico vas a usar para el aprendizaje.
La generación de la imágen puede llevar días hasta encontrar un buen conjunto de texto que defina un buen prompt. Una vez encontrado ese prompt que buscabas y que los pesos de las palabras se acompañen, ahi podés generar cientos de variaciones en pocos minutos y de buena calidad.
La imagen es generada por la iA tal cual la vemos en la pantalla?
El 90% de los casos necesita reajustes que se realizan con la misma herramienta para repintar un sector y pedir con texto cómo te gustaría que cambie.
Cuantas imágenes generaste para este proyecto?
Alrededor de 13.000 mil imágenes.
Cómo es la interfáz en dónde se trabajan y se crean las imágenes?
A continuación van a ver la interfaz llamada Automatic1111 que se usa para poder trabajar con el modelo de Stable Diffusion
Dónde puedo aprender a usarlo?
Hice una masterclass en Enero de 2023 en dónde todavía sirve para entender lo básico: link
Hice otra masterclass en Enero de 2024 en dónde explico todo este proceso que van a ver en la muestra: link
Buscar en Youtube: Tutorial de Stable Difusion SDXL
Qué requerimientos técnicos necesito?
Una placa gráfica al menos RTX 3070 para arrancary sin duda es mejor una RTX 3090 y así para arriba. Más placa más rápido.
Se puede usar con computadoras remotas también.
Por qué hacés tanto incapie en la herramienta que usás?
Porque las que existen actualmente y más conocidas son midjourney y Dalle, y esas herramientas, además de ser pagas, no permiten el entrenamiento de modelos que ayuden a cambiar los sesgos hegemónicos que tiene en rostros, símbolos, paisajes, fotografía y esterotipos.
retratos
Los retratos fueron generados usando dos modelos entrenados con dos conceptos diferentes. Por un lado el de un rostro con rasgos de la región de la Provincia de Buenos Aires, y por el otro, un modelo entrenado con obras figurativas 3D que realicé en el año 2023 llamada Trauma. .
Cada retrato a continuación fue generado utilizando Stable Diffusion, es decir cada edad, peso, color de pelo, color de máscara, objetos que aparecen en las máscara, luz, colores, miradas y emociones, están pedidas utilizando texto -prompt-.
El trabajo más importante fue intentar lograr que la conexión con la mirada te haga olvidar la máscara que llevan puesta.
ESPAcios
Creé estos paisajes con un modelo que entrené usando fotos de Google Street View de la Provincia de Buenos Aires, combinado con el estilo propio que apliqué en los retratos. Esta vez, el objetivo fue transformar espacios, no rostros, siguiendo la misma idea.
Para cada imagen, definí varios aspectos: el momento del día, la presencia de barro y agua en las calles, las marcas de suciedad, los grafitis y dibujos animados políticos, las actividades de las personas, cambios en los edificios y señalización, el tipo de negocios presentes y las palabras clave para capturar la atmósfera emocional de la escena.
Lo más fascinante fue navegar por este universo creado siguiendo las normas estéticas del modelo entrenado, y en el proceso, redescubrir y asignar nuevo significado a los símbolos dentro del panorama.
Estas imágenes están diseñadas para ser proyectadas a tamaño casi real. En dispositivos más pequeños como computadoras o teléfonos, su complejidad es mucho menos más apreciable.
totems
Los totems son una forma de concentrar los conceptos entrenados, en elementos físicos que generan una familiaridad con el ambiente y que nos hace repensar lo que estamos viendo constantemente.
Cómo transmiitir un concepto de control a través de lo cute, y eso a través de objetos.
Cómo representar al consumo masivo, la violencia comprimida y explotando, el maltrato, lo normal, lo nuevo, lo comprado y lo de oferta.
Reconstruir estos elementos me ayudó a entender más a los retratos y al espacio.
Cómo es la mirada de los que miran ese mundo todo el tiempo?
DISEÑO de sonido
El diseño de sonido de la muestra fue realizado por Julian Brangold y el soundtrack para el corto fue hecho por Alejandro Kauderer.
Espero que la disfruten.
♥️