.

Llego vía Hacker News a un artículo sobre lo que significa afinar una batería. El texto está en la web de los fabricantes de Resotune, un afinador electrónico de baterías, y lo firma John Roberts.

A pesar de no haber afinado una batería en mi vida el contenido me pareció bastante interesante. En mi limitado trato con la física de la música, había visto con brevedad previamente el tema de los sobretonos, pero no había dedicado tiempo a pensar en el análisis de las vibraciones de una membrana circular como modelo del parche de una batería. La parte matemática del asunto me cuesta aunque, afortundamente, hay una serie de ilustraciones realizadas por Oleg Alexandrov con MATLAB que representan gráficamente algunos modos de vibración de un parche ideal:

Claro que un tambor es algo más complejo que una membrana. Eso no ha detenido a un grupo de la Universidad de Edimburgo a la hora de plantear la posibilidad de sintetizar sonidos (entre ellos, de instrumentos de percusión) a partir de su modelado físico. El proyecto académico NESS ha finalizado hace unos meses pero dentro de sus modelos incluyeron uno de percusión.

Modelo del proyecto NESS de una caja con sus distintos componentes.

.

Según este artículo aprobado en PNAS en 2014 al que llego ahora vía hypebot:

El entorno auditorio contiene normalmente varias fuentes de sonido que se solapan en el tiempo y el sistema auditorio analiza la onda de sonido completa como flujos o voces que representan las distintas fuentes. Curiosamente, la melodía principal (información espectral/tonal) la acarrea habitualmente la voz más aguda, mientras que el ritmo (base temporal) se suele llevar con la voz más grave.

Trabajos anteriores que utlizaron electroencefalografía (EEG) demostraron que la corteza auditiva registra el tono con más robustez en la más aguda de dos tonos o melodías simultáneas, y el trabajo de modelado indicó que esta superioridad de la voz aguda para el tono tiene su origen en la periferia sensorial. Aquí, hemos investigado la base neural de acarrear información de sincronización rítmica en las voces de tonos graves.

Presentamos tonos agudos y graves simultáneamente en un flujo isócrono, presentando a veces el tono agudo o el tono grave 50 ms antes de lo esperado y manteniendo el otro tono en el tiempo esperado. Grabaciones EEG revelaron que las respuestas negativas a la discrepancia era mayor en las desviaciones de sincronía en los tonos graves, indicando mejor registro de sincronía de tonos graves frente a tonos agudos a nivel de la corteza auditiva.

Una tarea de comportamiento motriz reveló que la sincronización percusiva [siguiendo el ritmo con la mano] estaba más influenciada por el flujo de tono más grave. Resultados de un modelo biológico plausible de la periferia auditoria sugieren que las dinámicas cocleares no lineales contribuyen al efecto observado. El efecto de superioridad de la voz grave para registrar la sincronía explica la práctica musical habitual de llevar el ritmo con instrumentos con rangos en los graves, y complementa los efectos de superioridad de las voces agudas para tono y melodía previamente establecidos.

Representación de las dos condiciones experimentales EEG. En la versión de la condición desviada de dos voces, el estándar (80% de los casos) consistían en tonos de piano agudos y graves simultáneos [frecuencias fundamentales de 196 Hz (Sol3) and 466.2 Hz (Si♭4)]; las desviaciones consistían en presentar aleatoriamente uno de los tonos 50 ms antes de lo esperado (un 10% de los casos el tono agudo y un 10% el tono grave). En la condición de control de dos voces, sólo se presentaban los estímulos con tono agudo prematuro y tono grave prematuro, ocurriendo cada caso un 50% de las veces.

.

Este fin de semana me topé con este artículo: This is what the LHC sounds like. Como no es muy extenso pero si bastante curioso lo dejaré por aquí:

A few years ago one of my friends worked at the LHC making some equipment to help correct beam drift. (I emailed her for clarification) Apparently the particles go past any fixed point in the ring at about the right frequency to land in the audible range. To get data samples, she ended up camping out with audio equipment underground in some emergency bunker next to the beam while they cooled it down and spun it up. She was stuck down there for hours – the only entrance was through the beam tunnel, which was superchilled (and radioactive? I’ve emailed her for the full story.)

Anyway, I got some of the audio recordings off her (because why wouldn’t you??) and they’ve been sitting on my computer for the last couple of years. I just saw an AMA by some CERN researchers who also have never heard the beam. And people on quora who say the same.

So for maybe the first time on the internet, this is what the LHC sounds like:

LHC Beam sounds – CNGS LHC1 Single Bunch Gate [02m09s]

I have some more samples too that I’ll upload once I get the full story from my friend.

No es que sean unos sonidos espectaculares pero su origen los hace interesantes, aunque tampoco son los primeros en grabarse en el LHC: hay grabaciones anteriores de audio y vídeo del colimador.

Imágenes de colimadores del LHC: Vista a lo largo de la ruta del haz.

.

Hace años leía en el blog de Chema una reseña sobre imágenes del sistema nervioso de ratones que habían sido modificados genéticamente para dotarlos con proteínas fluorescentes. En su momento aproveché esa entrada para hablar de un estudio neurológico sobre la improvisación en el Jazz. Unos meses después recuerdo haber echo nota de escuchar la serie “Music and the Brain” en iTunes U y, desde entonces, he ido topándome con pequeños recordatorios de este apunte.

Por ejemplo, el año pasado encontré “Impaired pitch perception and memory in congenital amusia: the deficit starts in the auditory cortex”, texto que, ya en el sumario, supera mis conocimientos relevantes pero que me presentó un trastorno que podría haber supuesto existía: la amusia. El estudio, desarrollado sobre un grupo de personas con este trastorno y otro de control, proponía unas pruebas en las que el sujeto tenía que determinar si dos secuencias de seis tonos, reproducidas con una demora de un par de segundo entre ellas, eran iguales o diferentes. Mientras, se grababa la magnetoencefalografía (MEG) del participante. Todos los sujetos fueron sometidos a una morfometría basada en vóxel, menos uno que no se hizo la resonancia magnética al parecer de claustrofobia. Como anécdota adicional, el pre-procesado de los datos tuvo que tener en cuenta las contaminaciones en las grabaciones MEG de dos sujetos con amusia, uno por artefactos ferromagnéticos de una prótesis dental metálica y otro por la señal del pulso.

Como digo, el contenido del artículo se me escapa en muchos casos, así que probablemente no esté cualificado para resumir las conclusiones, pero seguro que gente con más conocimiento que yo lo encuentra interesante.

(A and B) Time–frequency plot of a right temporal MEG sensor (MRT22, ‘MEG right temporal’) for a trial time window (-100 to 5500 ms) including S1 (0 to 1500 ms), delay (1500 to 3500 ms) and S2 (3500 to 5000 ms) collapsed across conditions (contour task, transposition task), for the control group (A) and the amusic group (B). The time–frequency power values are plotted after subtraction of the mean power values of the baseline for each frequency. (C) Cortical meshes showing the statistics of two sided t-tests (corrected for multiple comparisons using cluster-level statistics) for the group comparison for each task (upper panel: contour task; lower panel: transposition task). P-values for the group effect are colour-coded with yellow for P < 0.05, red for P < 0.01 and black for P < 0.001. The surrounding panels correspond to the grand average of source data for each group and for each region. Black bars = amusics; grey bars = control subjects; circles = individual data; rDLPFC = right dorsolateral prefrontal cortex; lDLPFC = left dorsolateral prefrontal cortex; rTPJ = right temporo-parietal junction.

.

Hace poco leí el artículo “24/192 Music Downloads are Very Silly Indeed“, que comienza de la siguiente manera:

Articles last month revealed that musician Neil Young and Apple’s Steve Jobs discussed offering digital music downloads of ‘uncompromised studio quality’. Much of the press and user commentary was particularly enthusiastic about the prospect of uncompressed 24 bit 192kHz downloads. 24/192 featured prominently in my own conversations with Mr. Young’s group several months ago.

Unfortunately, there is no point to distributing music in 24-bit/192kHz format. Its playback fidelity is slightly inferior to 16/44.1 or 16/48, and it takes up 6 times the space.

There are a few real problems with the audio quality and ‘experience’ of digitally distributed music today. 24/192 solves none of them. While everyone fixates on 24/192 as a magic bullet, we’re not going to see any actual improvement.

Aunque el artículo tiene ya unos años creo que merece la pena echarle un vistazo. En él, el autor desarrolla los fundamentos que apoyan estas aseveraciones de una manera, a mi entender, sólida y convincente. El texto tiene suficientes ejemplos y referencias para sustentar la opinión sintetizada al principio y permitir elaborar una propia, empezando por el principio.

Dibujo de un corte transversal de la cóclea y diagrama esquemático de la respuesta de los estereocilios.

Mi conclusión previa es que el formato de 24bit/192kHz tiene sus usos, con sus ventajas y sus inconvenientes. No por tener más bits o un mayor rango de frecuencia el sonido es mejor, especialmente en los casos de distribución y reproducción, donde incluso puede crear problemas adicionales. Con todo, tendría que valorar los argumentos a favor del formato y ver si tienen el mismo peso.