.

Repasando la entrada de antesdeayer día sobre la interacción con el sonido me he dado cuenta que tenía perdida una entrada relacionada, así que aprovecho para dejarla por aquí ahora a pesar de que el artículo original en Soundstep tiene ya más de dos años y la reseña en Badass JavaScript, que es donde lo vi, tiene más de uno:

Magic Xylophone es una demostración del uso conjunto de getUserMedia y el Web Audio API que permite controlar un xilófono virtual con el movimiento […]. Dibuja una imagen de las teclas del xilófono sobre un vídeo en tiempo real desde la cámara, ejecuta la detección de movimiento con el vídeo y detecta cuando la imagen cruza cualquiera de las teclas al mismo tiempo.

Hay un artículo en Adobe Developer Connection donde se da una explicación más pormenorizada de la programación tras este pequeño experimento. Y, mientras tomo notas, aprovecharé para hacer mi famosa interpretación al xilófono virtual de “Frantic Disembowelment” de Cannibal Corpse:

0 comentarios.

Añadir un comentario