El Ayuntamiento de Barcelona se puso en contacto con nosotros para crear una exposición interactiva para la rehabilitación de viviendas. Investigando proyectos similares, dimos con la web de Bare Conductive y al ver lo accesible que era, decidimos utilizar su tecnología.

El objetivo de la exposición es concienciar al público y proporcionar herramientas para hacer visibles los beneficios de la rehabilitación de edificios.

Para este proyecto, que consta de dos paneles interactivos, hemos utilizado dos Wall Kits.

Las primeras pruebas de proximidad se hicieron con 3 materiales diferentes, una plancha de cartón ondulado (que es el material de la estructura), un tablero de madera maciza y un simple marco de cartón. Seguimos tutorial de instalaciones con video mapping de la web Bare Conductive y fijamos los electrodos en la parte posterior y en el centro de los cuadrados hechos con la cinta de cobre sin tenerlo atornillado a la parte frontal del panel.

Aunque todavía no habiamos descubierto cómo hacer funcionar los sensores por proximidad , decidimos empezar las pruebas con el proyector. Tuvimos que actualizar el código del Touch Board y para ello, descargamos Arduino y el instalador de la placa táctil. Puede parecer intimidante trabajar con código, pero en realidad el proceso es bastante sencillo. Sólo tuvimos que seguir un mini tutorial y después de eso, pudimos activar el sketch midi.

Entendiendo los sensores:

Cabe destacar que, una vez cargado el Sketch Midi en la placa, no es posible volver a hacer que solo reproduzca sonidos. Así que, en este caso, como tenemos dos tipos diferentes de interactividad, dejamos una placa con la configuración original de MP3 y la otra la cambiamos a Midi. Para no mezclarlas, etiquetamos cada placa con una M para la placa con la configuración midi o una S para la placa que sólo funcionará con sonido.

Una vez que teníamos todo configurado y funcionando bien con MadMappervolvimos a intentar que los sensores de proximidad funcionaran satisfactoriamente, pero no iba bien. Así que volvimos a recurrir a los tutoriales de la web y descubrimos que podíamos visualizar mejor la sensibilidad de los sensores utilizando el Grapher.

Con Grapher todo fue mucho más claro. Pudimos comprobar si los sensores funcionaban realmente, algo que antes era muy difícil de entender. Entonces, descargamos Processing y actualizamos el código en la placa táctil. En el gráfico de barras, hay una opción que permite ver todos los sensores juntos y su reactividad. Al tocar la cinta de cobre de la parte trasera, la barra bajó casi 1/3 del tamaño y se volvió blanca, mientras que al acercar mi mano, la barra se volvió blanca pero sólo bajó un poco.

Hicimos múltiples pruebas con las cintas de cobre y no entendimos por qué los sensores no funcionaban con la proximidad. Intentamos controlar la reactividad cambiando los límites de la barra en el Grapher y no funcionó. Se pensó que modificando el código del Arduino podríamos cambiar los parámetros de sensibilidad. Buscamos el MIN/MAX de entrada y salida y cambiamos la distancia entre ellos para que fuera mayor. A continuación, cambiamos el máximo de entrada 640 como el número más alto, porque es lo que llegaba a la columna blanca, y el mínimo de entrada 280 para que el rango de distancia fuera lo suficientemente grande. Cuando reiniciamos la placa y pusimos la mano más cerca de donde estaba el sensor, nos sorprendimos positivamente. Los sensores de proximidad ya funcionaban. Entonces cambiamos los parámetros de todos los sensores y comprobamos que también funcionaban a distancia.

Después de un largo proceso de diseño, estábamos listos para imprimir los paneles y montarlos creando dos grandes paneles de 3x2m.

La primera placa en ser montada fue la placa de sonido. Trazamos los lugares donde debían estar los sensores utilizando una linterna para poder ver dónde pegar la cinta de cobre desde el interior. Después de que tuviéramos todos los cuadrados de cobre con las x pegadas, era el momento de fijar los electrodos a la parte trasera del panel.

Los electrodos y la placa táctil se fijaron a la parte trasera de los paneles con pequeños tornillos y se conectaron a las respectivas salidas de los sensores en la placa. Para propósitos de organización, utilizamos los números que venían con el kit para identificar cada conexión y también un post-it para relacionarlos con el sensor al que estaban conectados.

Ejemplo de cómo se organiza detrás del panel

Después de esto, sacamos la mini SD de la tarjeta de sonido y la llevamos a nuestro ordenador con el mini lápiz adaptable que también viene con el kit. Cambiamos los nombres de las locuciones relacionadas con el proyecto y las pasamos a la mini SD para luego volver a colocarlas en la placa. Con esto resuelto, los sensores en su sitio y conectados, conectamos la placa a un banco de energía y al altavoz. Todo funcionó bien con la placa de sonido, incluidos los sensores de proximidad.

Ahora el mayor reto: hacer que el panel funcione con el proyector. 

Desde entonces, el primer reto es cuadrar la proyección de la animación. Detrás están los cuadrados de cinta de cobre y los electrodos conectados al tablero por cables. Como este panel tiene que enviar señales al ordenador, compramos un pequeño ordenador para el montaje está conectado a una pantalla grande, pero que para la exposición podría ser una pantalla mucho más pequeña o incluso un iPad. Como esta pequeña máquina no tiene la misma capacidad que los ordenadores en los que creamos las animaciones, el formato alfa no funcionaba, el ordenador no podía manejar la ejecución de todos los vídeos en alfa al mismo tiempo y se bloqueaba, haciendo imposible el trabajo. Así que decidimos usar mp4 en su lugar y realmente fue la solución, los archivos eran 10 veces más ligeros y el ordenador y madmapper volvieron a funcionar perfectamente.

El segundo reto era averiguar cómo cambiar las animaciones dependiendo del sensor que se activara. En el tutorialcada animación estaba en alfa, en su propio espacio y podían usar la lista de control para activar cada animación. En nuestro caso, las animaciones estaban activadas, pero estaban una debajo de la otra, y como estaba todo en mp4, no se veía nada y parecía que no funcionaba.

Así que para hacer que cada animación sustituya a la otra, en lugar de utilizar la lista de controles, debemos seleccionar en el menú desplegable la opción de escenas/cues y configurar cada escena para que al activar el sensor correspondiente toda la escena sustituya a la anterior. Para activar cada animación, primero hemos tenido que ajustar la proyección, luego crear una escena para cada animación, y después para cada escena, seleccionar la opción "editar controles midi" y relacionar cada toque del sensor con la activación de la escena correspondiente.  

Durante las vacaciones de Navidad, algo pasó con la configuración de la placa y los electrodos se disparaban todo el tiempo, sin poder configurar la interactividad. Nos dimos cuenta de que uno de los sensores estaba en blanco. Así que cambiamos sus parámetros tanto en el sketch del grapher como en el Arduino. Abrimos de nuevo el sketch del Arduino y abrimos la interfaz genérica midi, para luego reconfigurarla como había hecho al principio. Cambiamos false por true y volvimos a cambiar los parametros de los sensores a 640 y 280 respectivamente, usando nuestros propios puntos anteriores. Comprobamos que los sensores volvían a funcionar en el grapher y reseteamos el tablero varias veces. Después de muchas pruebas y cambios en el grapher y en el código de Arduino, conseguimos que madmapper volviera a reaccionar a la proximidad.

¿Cómo hacer que el sensor active su respectiva animación?

Buscamos mucho en Internet, pero no encontramos ningún tutorial que aclarara esto específicamente. Usando los tutoriales de Bare Conductive pudimos hacer varias pruebas hasta que encontramos una solución. Nuestro problema era que no podíamos hacer que la activación de un vídeo se solapara con los demás y al tocar los sensores se activaran los vídeos.

Con la placa encendida y conectando los sensores al ordenador, primero ajustamos el diseño a la proyección para poder copiar las otras escenas y organizar cada animación en su respectiva columna, renombrada y cada una con su respectivo color. Para activar los sensores, tuvimos que mapear las escenas seleccionando cada columna en la pestaña de escenas y luego editarla para que el programa pudiera aprender qué sensor activaba su respectiva animación. Tras este proceso, estábamos listos para hacer los últimos ajustes y preparar la instalación para el día de la inauguración.

El 3 de marzo de 2022, la exposición interactiva fue inaugurada en el CAATEEB, en la ciudad de Barcelona, donde permanecerá durante 3 meses hasta que inicie su ruta itinerante por otras ciudades de Cataluña. Puedes consultar el proyecto completo en nuestro portfolio.

Ana F. Netto Director de Arte en Framemov