.

Visto, por supuesto, en la sección de Wumo de Kind of Normal, me recordó a esto y esto. Desde luego destacan entre los cascos que han aparecido por aquí.

.
Neil Diamond - Sweet Caroline (1970) [00:03:15]

.

Repasando la entrada de antesdeayer día sobre la interacción con el sonido me he dado cuenta que tenía perdida una entrada relacionada, así que aprovecho para dejarla por aquí ahora a pesar de que el artículo original en Soundstep tiene ya más de dos años y la reseña en Badass JavaScript, que es donde lo vi, tiene más de uno:

Magic Xylophone es una demostración del uso conjunto de getUserMedia y el Web Audio API que permite controlar un xilófono virtual con el movimiento […]. Dibuja una imagen de las teclas del xilófono sobre un vídeo en tiempo real desde la cámara, ejecuta la detección de movimiento con el vídeo y detecta cuando la imagen cruza cualquiera de las teclas al mismo tiempo.

Hay un artículo en Adobe Developer Connection donde se da una explicación más pormenorizada de la programación tras este pequeño experimento. Y, mientras tomo notas, aprovecharé para hacer mi famosa interpretación al xilófono virtual de “Frantic Disembowelment” de Cannibal Corpse:

.
Misery Index - The Calling [00:03:51]

.

Hacía tiempo que no le echaba un ojo a Make y, poniendo fin a esa racha, he visto un par de artefactos en reseñas relativamente recientes que me han llamado la atención.

Por un lado está esta variante de un tubo de Kundt:

Lo que se ve en funcionamiento [01m14s] es, según su constructor y el artículo de MAKE, un Arduino generando dos tonos que se llegan primero a un amplificador y luego a dos altavoces en lados opuestos del cacharro: uno fijo a A220 y otro ajustable mediante un mando hasta aproximadamente medio tono por encima y por debajo de A220. La interferencia entre dos tonos similares produce un batimiento que determina la posición de los nodos y antinodos de la onda estacionaria, reflejándose en los abalorios de plástico flurescentes levitados acústicamente.

El sonido dentro de la caja es bastante alto, por lo que está bien sellada, pero me pregunto si llevando los tonos a unos cascos a un volumen aceptable se podrían apreciar pulsos binaurales.

Por otro lado está Sand Noise Device, una “caja de arena musical de realidad aumentada”:

En este caso, tal como cuenta en el artículo de MAKE, el sonido y la presentación son generados en tiempo real a la orografía de la arena en la caja y a la posición de determinados objetos en ella:

La interfaz consiste en una caja de la altura de una mesa, rellena de arena; un Kinect de Microsoft, provista de una cámara RGB y sensores de profundidad; un proyector y varios objetos tangibles iluminados. El Kinect se usa para detectar la posición de los objectos, su color y la topografía de la arena. El proyector da realimentación visual, mientras que el sonido proviene de un sistema de altavoces multi-canal instalado alrededor de la caja. Los distintos parámetros que determinan la funcionalidad del sistema que genera la música del dispositivo están influenciados por las interacciones del usuario con el paisaje de arena y los objetos tangibles provistos.

Verlo en acción [03m48s] por alguna razón hizo que me acordarse de Audible Color, aunque la única similitud aparente es el uso de la detección de los colores como parámetro de entrada.