.
Clutch - Fortunate Son (Official Video) []

.

Sin salirme de la temática, del blog expirado del otro día paso a un contenido que el incombustible Fer, al que espero parecerme algún día, me pasaba el lunes pasado. Se trata de un enlace a la página de Teddy Koker explicando brevemente su trabajo, disponible en GitHub, de recreación de un modelo de emulación de amplificadores de guitarra en tiempo real, publicado por Alec Wright et al. en MDPI.

El trabajo del señor Koker se centra en la réplica del sonido de un pedal analógico de efectos de guitarra, en particular de un Ibanez Tube Screamer TS-9:

Recogemos los datos conectando el pedal a una interfaz de audio y grabando la salida de una muestra de grabaciones de guitarra. La muestra IDMTSMT-Guitar contiene grabaciones sin comprimir de diferentes guitarras eléctricas, con frases monofónicas y polifónicas en distintos géneros y técnicas. Usaremos un subconjunto de 5 minutos de estos datos y almacenaremos tanto el audio original como la salida del pedal cuando el audio lo atraviesa. Para mantener la reproducibilidad, ponemos todas las perillas tanto en el pedal como en la interfaz de audio a las 12 en punto:

Aunque concluye diciendo que el modelo es suficientemente pequeño y eficiente para ser usado en tiempo real no he tenido tiempo de comprobar de primera mano qué tal funciona. Me pregunto si podría ensayarlo con una Raspberry Pi, como lo que veía hace poco del proyecto de procesador de efectos para guitarra.

.
OCEANS OF SLUMBER - Strange Fruit (OFFICIAL VIDEO) []

.

El blog de Blax ya no es accesible. No es que sea una noticia, el último apunte que señalé del espacio que mantenía era de 2006, pero no deja de ser una pérdida. Afortunadamente, tras el 50.º aniversario de Eurielec hemos retomado el contacto unas cuantas personas de las que pululábamos por el garito con cierta asiduidad, y esto es lo que dejaba caer el otro día el caballero en cuestión: dadabots, un proyecto de creación de redes neuronales que generan pistas de sonido a partir de audio sin compresión. En concreto, puso un enlace a una emisión continua de death metal técnico generado a partir de música de Archspire, un grupo he mencionado un par de veces.

Como cuentan en una entrevista en The Outline, los autores del proyecto son CJ Carr y Zack Zukowski, dos antiguos alumnos de la Northeastern University que se conocieron en un curso de la Berklee College of Music. Han publicado varios discos generados de esta manera en bandcamp, y hace año y medio publicaron su trabajo en arxiv. En su web lo resumen de manera más coloquial:

Empezamos con el código de investigación original de SampleRNN en theano. Es una red LSTM jerárquica. Las LSTMs pueden ser entrenadas para generar secuencias. Secuencias de lo que sea. Podría ser texto. Podría ser el tiempo. Lo entrenamos con las formas de onda brutas de discos de metal. A medida que va escuchando, intenta adiviar la siguiente fracción de milisegundo. Juega a este juego millones de veces a lo largo de varios días. Tras el entrenamiento, le pedidos que genere su propia música, como se puede preguntar a una máquina de predicción meteorológica que invente siglos de patrones climatológicos aparentemente plausibles.

Alucina 10 horas de música de esta manera. Eso es demasiado. Así que hicimos otra herramienta para explorarla y organizarla. Encontramos los trozos que nos gustan y [con ellos] componemos un álbum para consumo humano.

Entrenar redes es un desafío. Hay muchos hiperparámetros que probar. ¿Cómo de grande es? ¿Cuál es el ritmo de aprendizaje? ¿Cuántos niveles de la jerarquía? ¿Qué optimizador del alogritmo de gradiente descendente? ¿Cómo muestra de la distribución? Si lo haces mal, suena como ruido blanco, silencia o apenas nada. Es como elaborar cerveza. ¿Cuánto de levadura? ¿Cuánto de azúcar? Estableces los parámetros al principio y no sabes si va a saber bien hasta mucho después.

Entrenamos cientos de redes hasta que encontramos buenos hiperparámetros, y lo publicamos para que todo el mundo lo usara.

Logotipo de dadabots.

Recuerdo que los casos que veía hace años de uso de RNNs para componer música partían casi siempre de datos MIDI, y es curioso ver como la evolución de los sistemas y el aumento de la capacidad computacional permite trabajar volúmenes mucho mayores datos.

.
YO! Speak Spanish or Die- Charlie Benante- Scott Ian, Dan Lilker,Mike Patton []