.

La semana pasada hablaba de un sintetizador neuronal paramétrico de canto y ahora me topo con NSynth, un proyecto de síntesis de audio utilizando Magenta con un modelo basado en WaveNet:

Uno de los objetivos de Magenta es aplicar aprendizaje automático al desarrollo de nuevas formas de expresión humana. Así que hoy estamos orgullosos de anunciar NSynth (Neural Synthesizer), una aproximación novedosa a la síntesis de música diseñada para asistir en el proceso creativo.

A diferencia de sintetizadores tradicionales que generan audio a partir de componentes hechos a mano, como osciladores y tables de ondas, NSynth utiliza redes neuronales profundas para generar sonidos al nivel de muestras individuales. Aprendiendo directamente de los datos, NSynth ofrece a los artistas un control intuitivo sobre el timbre y la dinámica, y la habilidad de explorar nuevos sonidos que sería difícil o imposible de producir con un sintetizador afinado a mano.

Las cualidades acústicas del instrumento aprendido dependen tanto del modelo usado como los datos de entrenamiento disponibles, así que estamos encantados de publicar mejoras de ambos:

Un descripción completa del conjunto de datos y el algoritmo se puede encontrar en nuestra publicación en arXiv.

Visión general del autocodificador WaveNet de NSynth

Aunque no he tenido oportunidad de cacharrear con TensorFlow no es la primera vez que aparece Magenta por aquí: hace unos meses mencionaba unos experimentos musicales con inteligencia artificial que me tentaban a echar un ojo a las herramientas de aprendizaje automático que utilizan. De momento me lo apunto como otra referencia.

.

Tenía marcado para leer cuando tuviese un hueco un artículo de Forrest M. Mims III titulado «Convert Scientific Data into Synthesized Music». En él comenta cómo se ha aficionado a crear composiciones musicales a partir de mediciones científicas, y menciona que utiliza tanto Wolfram Mathematica como una página creada por Jonathan Middleton, un profesor adjunto de teoría y composición en el departamento de música de la Eastern Washington University, llamada MusicAlgorithms. No dispongo del paquete software de Wolfram y en el navegador que suelo usar no tengo Java, por lo que no he sido capaz de producir ningún sonido con MusicAlgorithms.

El señor Mims admite que el uso que le ha dado es bastante simple, ya que sólo ha transformado series de números en música. Lo curioso quizás es conocer el origen de los valores utilizados en estas composiciones. Por ejemplo, en uno de los casos utiliza mediciones de radiación cósmica tomadas en un vuelo entre San Antonio (Texas) y Zúrich (Suiza).

Mediciones de radiación cósmica tomadas en un vuelo entre San Antonio (Texas) y Zúrich (Suiza).

La medición de radiación cósmica captada por un contador Geiger aumenta con la altura. Uno de estos instrumentos da una medida de unas once cuentas por minuto (CPM) en tierra y varios centenares a partir de 10,500 metros.