programación.

29 resultados, página 1 de 6.

  1. .

    Veo el siguiente código en el blog de Robert Elder:

    cat /dev/urandom | hexdump -v -e '/1 "%u\n"' | awk '{ split("0,2,4,5,7,9,11,12",a,","); for (i = 0; i < 1; i+= 0.0001) printf("%08X\n", 100*sin(1382*exp((a[$1 % 8]/12)*log(2))*i)) }' | xxd -r -p | aplay -c 2 -f S32_LE -r 16000

    Introducido en una terminal de un sistema Linux con los programas necesarios, genera una melodía aleatoria. En el primer enlace hay una explicación detallada de lo que hace exactamente, aunque se resumir con cada orden entubada:

    1. cat /dev/urandom

      Vuelca los contenidos de /dev/urandom a stdout.

    2. hexdump -v -e '/1 "%u\n"'

      Convierte bytes binarios en enteros (opción -e '/1 "%u\n"') incluyendo las repeticiones (opción -v).

    3. awk '{ split("0,2,4,5,7,9,11,12",a,","); for (i = 0; i < 1; i+= 0.0001) printf("%08X\n", 100*sin(1382*exp((a[$1 % 8]/12)*log(2))*i)) }'

      Procesa la información con AWK de modo que:

      1. split("0,2,4,5,7,9,11,12",a,",");

        Crea un array a con los número de semitonos relativos a la nota base en una escala mayor. Este array se usa para calcular la frecuencia en hercios de una nota de temperamento igual con esta fórmula: 440 × 2^(número de semitonos / 12) 440Hz representa la frecuencia de un La 440.

      2. for (i = 0; i < 1; i+= 0.0001)

        Un contador para generar los tonos. Variar el incremento de cada iteración altera el tempo y la frecuencia percibida de la melodía.

      3. printf("%08X\n", 100*sin(1382*exp((a[$1 % 8]/12)*log(2))*i))

        Imprime números hexadecimales de 4 octetos representando la amplitud de la onda sonora en un momento determinado. La fórmula 100*sin(1382*exp((a[$1 % 8]/12)*log(2))*i)) se puede descomponer en varias partes:

        1. a[$1 % 8] / 12

          A partir del valor aleatorio de la entrada ($1) elige el semitono de la escala y lo divide por doce.

        2. exp(… * log(2))

          AWK no tiene una función para calcular potencias de una base cualquiera pero sí calcula potencias del número e y logaritmos naturales, así que para obtener 2x hay que calcular e(x × ln(2)).

        3. 1382

          Es un valor aproximado de 440 × π.

        4. 100

          Un factor de escala para la amplitud de la onda y, por consiguiente, el volumen.

    4. xxd -r -p

      Convierte los 8 bytes de valores hexadecimales en binario.

    5. aplay -c 2 -f S32_LE -r 16000

      Reproduce el sonido equivalente.

  2. .

    El mes pasado me topé con “Beat Detection Algorithms”, un texto en dos partes (1 y 2) sobre la implementación en Scala de un par de algoritmos sencillos con el objetivo titular. Aparte de la explicación de la teoría tras estas implementaciones se puede encontrar el resultado integrado en el código fuente de un proyecto del autor.

    Recuerdo haber echado un ojo a este tipo de análisis matemático (aunque sin llegar a aplicarlo) a finales de la década de los 90, en la estela de la demoscene y con el ascenso de WinAmp y sus complementos de visualización. Remontándome sólo al año pasado, tenía apuntado un artículo sobre detección de pulsaciones usando Web Audio, encontrado a través de EchoJS, nuevamente sin llevarlo a la práctica por mi parte.

    Grimes "Go". Peaks with a lowpass, highpass, and bandpass filter, respectively.Grimes – Go: Peaks with a lowpass, highpass, and bandpass filter, respectively.

    Este último enlace lo tenía apuntado junto con otra reseña en EchoJS de un proyecto denominado WaveGL, cuyo objetivo era “generar audio en la GPU y transmitirlo a la tarjeta de audio” y del que señalaban uno de varios ejemplos. Con tantos proyectos de programación que he visto recientemente no estaría mal sacar un poco de tiempo para programar por gusto en lugar de por compromiso.

  3. .

    No recuerdo dónde oí por primera vez “una idea es una responsabilidad” pero me resulta admirable la gente que es capaz de ponerla en práctica. Una de estas personas es Paul Lewis, trabajador de Google, que se planteaba los siguiente:

    Given we have the Web Audio API and getUserMedia, I wondered if I could make a passable guitar tuner. Looks like I can, and in the process I learned way more stuff about audio than I care to mention. Cool stuff, though! I thought I’d do a breakdown of what went into building it.

    No contento con desarrollar su idea en su página explica algunos detalles de todo este proyecto personal. Una lectura muy interesante y muy recomendable.

    Aerotwist - Guitar Tuner
  4. Una red neuronal recurrente, o RNN (Recurrent Neural Network) es una clase de red de neuronas artificial en las que las conexiones entre unidades forman un ciclo dirigido. Si no lo he entendido mal, esto quiere decir que la secuencia cíclica de vértices (o nodos) y aristas en un camino es determinada completamente por el conjunto de aristas que usa: sólo se puede recorrer en una dirección. Esto creo un estado interno de la red que le permite exhibir un comportamiento temporal dinámico y procesar secuencias arbitrarias de entradas. También se puede entender como una red neuronal recursiva, igualmente abreviada como RNN, con una estructura en cadena.

    Todo esto viene a colación una serie de relativamente breves pero interesantísimos textos de Bob L. Sturm titulados “Deep learning for assisting the process of music composition”, partes 1, 2, 3 y 4. En ellos deja constancia de algunas reflexiones sobre un proyecto veraniego realizado en colaboración con João Felipe Santos denominado The Infinite Irish Trad Session:

    So João grabbed all the tunes he could from The Session, I parsed and editted the text file to produce a 13 MB file of 23,962 tunes, and João set to using it to train an RNN with 3 hidden layers having 512 units each. Once finished, João had the system generate a 21 MB text file of new ABC tunes, which I am parsing into its 72,000+ tunes. I convert each ABC tune to MIDI, process it in python (with python-midi) to give a more human-like performance (including some musicians who lack good timing, and a sometimes over-active bodhran player who loves to have the last notes :), and then synthesize the parts with timidity, and finally mix it all together and add effects with sox. Each successful synthesis is then served to my home directory, and a cronjob generates a new playlist every five minutes from the 22000+ tunes already synthesized (that is 18,964,140 kilobytes, which at 128 kbps is a 41 hour trad session!).

    Hope you have some craic!

    El resultado son composiciones como esta:

    The Doutlace

    Parte del trabajo se apoya en el trabajo de Andrej Karpathy sobre redes LSTM, cuyo artículo “The Unreasonable Effectiveness of Recurrent Neural Networks” explica con algo más de detalle qué son las RNN y sus virtudes.

    Todo esto me llegó vía Hacker News, igual que el artículo sobre composición algorítmica de hace unos meses.

  5. .

    Hay un gran artículo de Batuhan Bozkurt de mediados de 2009 que describe tanto el origen como el proceso de recreación de Deep Note utilizando SuperCollider. Años después veo este post de Stuart Memo (que de hecho cita al primero) donde explica su experimento intentando aproximar el sonido usando JavaScript:

    El sonido [se genera] básicamente [con] 30 osciladores de onda cuadrada emitiendo aleatoriamente en frencuencias entre 200Hz y 400Hz. [El resultado] es filtrado para producir el efecto de barrido que se oye.

    El resultado se puede oír en CodePen y tiene una semblanza con la composición del Dr. James A. Moorer.

    THX