.

No recuerdo donde vi que el sonido con bobinas de Tesla se debe a que la ruptura del dieléctrico, en este caso aire, provoca ondas longitudinales mecánicas. Modulando las descargas eléctricas es como se consiguen los distintos tonos.

Tampoco sé por qué es lo primero que se me vino a la cabeza cuando leí sobre la aplicación del efecto fotoacústico a la generación de mensajes audibles utilizando láseres:

Investigadores [del Laboratorio Lincoln del MIT] informan sobre dos métodos distintos basados en el uso del laser para trasmitir varios tonos, música y habla grabada a volumen conversacional. […] Los nuevos métodos están basados en el efecto fotoacústico, que ocurre cuando un material forma ondas sonoras después de absorber luz. En este caso, los investigadores utilizaron vapor de agua en el aire para absorber luz y crear sonido.

«Esto puede funcionar incluso en condiciones relativamente secas porque casi siempre hay agua en el aire, especialmente alrededor de personas», dijo [el jefe del equipo de investigación, Charles M.] Wynn. «Encontramos que no necesitamos mucha agua si utilizamos una longitud de onda laser que sea fuertemente absorbida por el agua. Esto fue clave ya que la absorción más fuerte conlleva más sonido».

Las declaraciones anteriores salen supuestamente en la revista Optics Letters de la OSA (Sociedad Óptica Estadounidense), a la que no tengo acceso con lo que no lo he podido verificar. Del resumen documental se puede saber que se elige un laser de tulio de 1.9 μm calibrado a una línea de absorción del vapor del agua atmosférica, para maximizar la presión sonora al mismo tiempo que se mantienen densidades de potencia que no afecten a los ojos.

Rayos laser. Foto de Ralf Vetterle vista en Pixabay.

.

Llego vía Hacker News a un artículo sobre lo que significa afinar una batería. El texto está en la web de los fabricantes de Resotune, un afinador electrónico de baterías, y lo firma John Roberts.

A pesar de no haber afinado una batería en mi vida el contenido me pareció bastante interesante. En mi limitado trato con la física de la música, había visto con brevedad previamente el tema de los sobretonos, pero no había dedicado tiempo a pensar en el análisis de las vibraciones de una membrana circular como modelo del parche de una batería. La parte matemática del asunto me cuesta aunque, afortundamente, hay una serie de ilustraciones realizadas por Oleg Alexandrov con MATLAB que representan gráficamente algunos modos de vibración de un parche ideal:

Claro que un tambor es algo más complejo que una membrana. Eso no ha detenido a un grupo de la Universidad de Edimburgo a la hora de plantear la posibilidad de sintetizar sonidos (entre ellos, de instrumentos de percusión) a partir de su modelado físico. El proyecto académico NESS ha finalizado hace unos meses pero dentro de sus modelos incluyeron uno de percusión.

Modelo del proyecto NESS de una caja con sus distintos componentes.

.

Según este artículo aprobado en PNAS en 2014 al que llego ahora vía hypebot:

El entorno auditorio contiene normalmente varias fuentes de sonido que se solapan en el tiempo y el sistema auditorio analiza la onda de sonido completa como flujos o voces que representan las distintas fuentes. Curiosamente, la melodía principal (información espectral/tonal) la acarrea habitualmente la voz más aguda, mientras que el ritmo (base temporal) se suele llevar con la voz más grave.

Trabajos anteriores que utlizaron electroencefalografía (EEG) demostraron que la corteza auditiva registra el tono con más robustez en la más aguda de dos tonos o melodías simultáneas, y el trabajo de modelado indicó que esta superioridad de la voz aguda para el tono tiene su origen en la periferia sensorial. Aquí, hemos investigado la base neural de acarrear información de sincronización rítmica en las voces de tonos graves.

Presentamos tonos agudos y graves simultáneamente en un flujo isócrono, presentando a veces el tono agudo o el tono grave 50 ms antes de lo esperado y manteniendo el otro tono en el tiempo esperado. Grabaciones EEG revelaron que las respuestas negativas a la discrepancia era mayor en las desviaciones de sincronía en los tonos graves, indicando mejor registro de sincronía de tonos graves frente a tonos agudos a nivel de la corteza auditiva.

Una tarea de comportamiento motriz reveló que la sincronización percusiva [siguiendo el ritmo con la mano] estaba más influenciada por el flujo de tono más grave. Resultados de un modelo biológico plausible de la periferia auditoria sugieren que las dinámicas cocleares no lineales contribuyen al efecto observado. El efecto de superioridad de la voz grave para registrar la sincronía explica la práctica musical habitual de llevar el ritmo con instrumentos con rangos en los graves, y complementa los efectos de superioridad de las voces agudas para tono y melodía previamente establecidos.

Representación de las dos condiciones experimentales EEG. En la versión de la condición desviada de dos voces, el estándar (80% de los casos) consistían en tonos de piano agudos y graves simultáneos [frecuencias fundamentales de 196 Hz (Sol3) and 466.2 Hz (Si♭4)]; las desviaciones consistían en presentar aleatoriamente uno de los tonos 50 ms antes de lo esperado (un 10% de los casos el tono agudo y un 10% el tono grave). En la condición de control de dos voces, sólo se presentaban los estímulos con tono agudo prematuro y tono grave prematuro, ocurriendo cada caso un 50% de las veces.

.

Este fin de semana me topé con este artículo: This is what the LHC sounds like. Como no es muy extenso pero si bastante curioso lo dejaré por aquí:

A few years ago one of my friends worked at the LHC making some equipment to help correct beam drift. (I emailed her for clarification) Apparently the particles go past any fixed point in the ring at about the right frequency to land in the audible range. To get data samples, she ended up camping out with audio equipment underground in some emergency bunker next to the beam while they cooled it down and spun it up. She was stuck down there for hours – the only entrance was through the beam tunnel, which was superchilled (and radioactive? I’ve emailed her for the full story.)

Anyway, I got some of the audio recordings off her (because why wouldn’t you??) and they’ve been sitting on my computer for the last couple of years. I just saw an AMA by some CERN researchers who also have never heard the beam. And people on quora who say the same.

So for maybe the first time on the internet, this is what the LHC sounds like:

LHC Beam sounds – CNGS LHC1 Single Bunch Gate [02m09s]

I have some more samples too that I’ll upload once I get the full story from my friend.

No es que sean unos sonidos espectaculares pero su origen los hace interesantes, aunque tampoco son los primeros en grabarse en el LHC: hay grabaciones anteriores de audio y vídeo del colimador.

Imágenes de colimadores del LHC: Vista a lo largo de la ruta del haz.

.

Hace años leía en el blog de Chema una reseña sobre imágenes del sistema nervioso de ratones que habían sido modificados genéticamente para dotarlos con proteínas fluorescentes. En su momento aproveché esa entrada para hablar de un estudio neurológico sobre la improvisación en el Jazz. Unos meses después recuerdo haber echo nota de escuchar la serie «Music and the Brain» en iTunes U y, desde entonces, he ido topándome con pequeños recordatorios de este apunte.

Por ejemplo, el año pasado encontré “Impaired pitch perception and memory in congenital amusia: the deficit starts in the auditory cortex”, texto que, ya en el sumario, supera mis conocimientos relevantes pero que me presentó un trastorno que podría haber supuesto existía: la amusia. El estudio, desarrollado sobre un grupo de personas con este trastorno y otro de control, proponía unas pruebas en las que el sujeto tenía que determinar si dos secuencias de seis tonos, reproducidas con una demora de un par de segundo entre ellas, eran iguales o diferentes. Mientras, se grababa la magnetoencefalografía (MEG) del participante. Todos los sujetos fueron sometidos a una morfometría basada en vóxel, menos uno que no se hizo la resonancia magnética al padecer de claustrofobia. Como anécdota adicional, el pre-procesado de los datos tuvo que tener en cuenta las contaminaciones en las grabaciones MEG de dos sujetos con amusia, uno por artefactos ferromagnéticos de una prótesis dental metálica y otro por la señal del pulso.

Como digo, el contenido del artículo se me escapa en muchos casos, así que probablemente no esté cualificado para resumir las conclusiones, pero seguro que gente con más conocimiento que yo lo encuentra interesante.

(A and B) Time–frequency plot of a right temporal MEG sensor (MRT22, ‘MEG right temporal’) for a trial time window (-100 to 5500 ms) including S1 (0 to 1500 ms), delay (1500 to 3500 ms) and S2 (3500 to 5000 ms) collapsed across conditions (contour task, transposition task), for the control group (A) and the amusic group (B). The time–frequency power values are plotted after subtraction of the mean power values of the baseline for each frequency. (C) Cortical meshes showing the statistics of two sided t-tests (corrected for multiple comparisons using cluster-level statistics) for the group comparison for each task (upper panel: contour task; lower panel: transposition task). P-values for the group effect are colour-coded with yellow for P < 0.05, red for P < 0.01 and black for P < 0.001. The surrounding panels correspond to the grand average of source data for each group and for each region. Black bars = amusics; grey bars = control subjects; circles = individual data; rDLPFC = right dorsolateral prefrontal cortex; lDLPFC = left dorsolateral prefrontal cortex; rTPJ = right temporo-parietal junction.