.

Me gustaría que se me dieran mejor las matemáticas. Cuando me topo con algún artículo científico o estudio y es de corte empírico, como el de la acústica de Notre-Dame antes y después del fuego de 2019, normalmente soy capaz de seguir el ritmo del texto con mayor o menor comodidad. Sin embargo, cuando el contenido es puramente teórico empiezo a sufrir, aunque debo ser masoca porque no por ello tiene por qué dejar de interesarme.

Es lo que me pasa con «Can one hear the shape of a drum?», un texto de Mark Kac publicado en The American Mathematical Monthly en 1966 (vol. 73, Part II, pp. 1-23) que recibió el premio Lester R. Ford Award (ahora conocido como premio Paul R. Halmos – Lester R. Ford) de la MAA en 1967 y el premio Chauvenet, de la misma institución, en 1968. Lo vi hace unas horas en Hacker News y debo confesar que apenas he pasado de las primeras páginas. Como el propio autor expone, el punto focal de su exposición es la siguiente:

Sean Ω1 y Ω2 dos regiones planares delimitadas por las curvas Γ1 y Γ2, respectivamente, y considérense los problemas de autovalor:

con ½∇2U + λU = 0 en Ω1 con U = 0 en Γ1

con ½∇2V + μV = 0 en Ω2 con V = 0 en Γ2

Asúmase que para cada n, el autovalor λn para Ω1 es igual al autovalor μn para Ω2. Pregunta: ¿Son las regiones Ω1 y Ω2 congruentes en el sentido de la geometría euclídea?

El interrogante anterior comienza la tercera página de un texto de veintitres y, aparentemente, se puede interpretar como, ¿podrías averiguar la forma de un tambor si tuvieras oído absoluto?

Prmiera figura del texto «Can one hear the shape of a drum?» (1966) de Mark Kac.

Por lo que cuentan en la Wikipedia, a principios de los noventa Gordon, Webb y Wolpert establecieron que las frecuencias a las que puede vibrar una membrana no determinan su forma. Eso me ha recordado a un proyecto de síntesis de sonido a partir del modelado físico de instrumentos de percusión que tampoco estaría mal re-visitar en profundidad.

.

No recuerdo donde vi que el sonido con bobinas de Tesla se debe a que la ruptura del dieléctrico, en este caso aire, provoca ondas longitudinales mecánicas. Modulando las descargas eléctricas es como se consiguen los distintos tonos.

Tampoco sé por qué es lo primero que se me vino a la cabeza cuando leí sobre la aplicación del efecto fotoacústico a la generación de mensajes audibles utilizando láseres:

Investigadores [del Laboratorio Lincoln del MIT] informan sobre dos métodos distintos basados en el uso del laser para trasmitir varios tonos, música y habla grabada a volumen conversacional. […] Los nuevos métodos están basados en el efecto fotoacústico, que ocurre cuando un material forma ondas sonoras después de absorber luz. En este caso, los investigadores utilizaron vapor de agua en el aire para absorber luz y crear sonido.

«Esto puede funcionar incluso en condiciones relativamente secas porque casi siempre hay agua en el aire, especialmente alrededor de personas», dijo [el jefe del equipo de investigación, Charles M.] Wynn. «Encontramos que no necesitamos mucha agua si utilizamos una longitud de onda laser que sea fuertemente absorbida por el agua. Esto fue clave ya que la absorción más fuerte conlleva más sonido».

Las declaraciones anteriores salen supuestamente en la revista Optics Letters de la OSA (Sociedad Óptica Estadounidense), a la que no tengo acceso con lo que no lo he podido verificar. Del resumen documental se puede saber que se elige un laser de tulio de 1.9 μm calibrado a una línea de absorción del vapor del agua atmosférica, para maximizar la presión sonora al mismo tiempo que se mantienen densidades de potencia que no afecten a los ojos.

Rayos laser. Foto de Ralf Vetterle vista en Pixabay.

.

Llego vía Hacker News a un artículo sobre lo que significa afinar una batería. El texto está en la web de los fabricantes de Resotune, un afinador electrónico de baterías, y lo firma John Roberts.

A pesar de no haber afinado una batería en mi vida el contenido me pareció bastante interesante. En mi limitado trato con la física de la música, había visto con brevedad previamente el tema de los sobretonos, pero no había dedicado tiempo a pensar en el análisis de las vibraciones de una membrana circular como modelo del parche de una batería. La parte matemática del asunto me cuesta aunque, afortundamente, hay una serie de ilustraciones realizadas por Oleg Alexandrov con MATLAB que representan gráficamente algunos modos de vibración de un parche ideal:

Claro que un tambor es algo más complejo que una membrana. Eso no ha detenido a un grupo de la Universidad de Edimburgo a la hora de plantear la posibilidad de sintetizar sonidos (entre ellos, de instrumentos de percusión) a partir de su modelado físico. El proyecto académico NESS ha finalizado hace unos meses pero dentro de sus modelos incluyeron uno de percusión.

Modelo del proyecto NESS de una caja con sus distintos componentes.

.

Según este artículo aprobado en PNAS en 2014 al que llego ahora vía hypebot:

El entorno auditorio contiene normalmente varias fuentes de sonido que se solapan en el tiempo y el sistema auditorio analiza la onda de sonido completa como flujos o voces que representan las distintas fuentes. Curiosamente, la melodía principal (información espectral/tonal) la acarrea habitualmente la voz más aguda, mientras que el ritmo (base temporal) se suele llevar con la voz más grave.

Trabajos anteriores que utlizaron electroencefalografía (EEG) demostraron que la corteza auditiva registra el tono con más robustez en la más aguda de dos tonos o melodías simultáneas, y el trabajo de modelado indicó que esta superioridad de la voz aguda para el tono tiene su origen en la periferia sensorial. Aquí, hemos investigado la base neural de acarrear información de sincronización rítmica en las voces de tonos graves.

Presentamos tonos agudos y graves simultáneamente en un flujo isócrono, presentando a veces el tono agudo o el tono grave 50 ms antes de lo esperado y manteniendo el otro tono en el tiempo esperado. Grabaciones EEG revelaron que las respuestas negativas a la discrepancia era mayor en las desviaciones de sincronía en los tonos graves, indicando mejor registro de sincronía de tonos graves frente a tonos agudos a nivel de la corteza auditiva.

Una tarea de comportamiento motriz reveló que la sincronización percusiva [siguiendo el ritmo con la mano] estaba más influenciada por el flujo de tono más grave. Resultados de un modelo biológico plausible de la periferia auditoria sugieren que las dinámicas cocleares no lineales contribuyen al efecto observado. El efecto de superioridad de la voz grave para registrar la sincronía explica la práctica musical habitual de llevar el ritmo con instrumentos con rangos en los graves, y complementa los efectos de superioridad de las voces agudas para tono y melodía previamente establecidos.

Representación de las dos condiciones experimentales EEG. En la versión de la condición desviada de dos voces, el estándar (80% de los casos) consistían en tonos de piano agudos y graves simultáneos [frecuencias fundamentales de 196 Hz (Sol3) and 466.2 Hz (Si♭4)]; las desviaciones consistían en presentar aleatoriamente uno de los tonos 50 ms antes de lo esperado (un 10% de los casos el tono agudo y un 10% el tono grave). En la condición de control de dos voces, sólo se presentaban los estímulos con tono agudo prematuro y tono grave prematuro, ocurriendo cada caso un 50% de las veces.

.

Este fin de semana me topé con este artículo: This is what the LHC sounds like. Como no es muy extenso pero si bastante curioso lo dejaré por aquí:

A few years ago one of my friends worked at the LHC making some equipment to help correct beam drift. (I emailed her for clarification) Apparently the particles go past any fixed point in the ring at about the right frequency to land in the audible range. To get data samples, she ended up camping out with audio equipment underground in some emergency bunker next to the beam while they cooled it down and spun it up. She was stuck down there for hours – the only entrance was through the beam tunnel, which was superchilled (and radioactive? I’ve emailed her for the full story.)

Anyway, I got some of the audio recordings off her (because why wouldn’t you??) and they’ve been sitting on my computer for the last couple of years. I just saw an AMA by some CERN researchers who also have never heard the beam. And people on quora who say the same.

So for maybe the first time on the internet, this is what the LHC sounds like:

LHC Beam sounds – CNGS LHC1 Single Bunch Gate [02m09s]

I have some more samples too that I’ll upload once I get the full story from my friend.

No es que sean unos sonidos espectaculares pero su origen los hace interesantes, aunque tampoco son los primeros en grabarse en el LHC: hay grabaciones anteriores de audio y vídeo del colimador.

Imágenes de colimadores del LHC: Vista a lo largo de la ruta del haz.