.

Las arañas no me molestan pero tampoco me llaman especialmente la atención, a menos que estemos hablando de Spider-man. No es el caso de una noticia en CNN que veía la semana pasada pero, en esta ocasión, sí que me ha interesado:

Cinetíficos en el MIT ha convertido telarañas en música, creando una misteriosa banda sonora que les podría ayudar a entender mejor cómo los arácnidos tejen sus complejas creaciones, e incluso cómo se comunican.

El equipo del MIT trabajó con el artista Tomás Saraceno, afincado en Berlin, para crear escaneos bidimensionales con láser de una tela de araña, que fueron encajados y convertidos en un modelo matemático que podía recrear la telarña en realidad virtual en 3D. También trabajaron con el departamento de música del MIT para crear el instrumento musical parecido a un harpa.

Este ejercicio, que parece puramente artístico, parece tener también una vertiente más práctica. Partiendo del supuesto que las arañas se comunican a través de las vibraciones, ser capaces de interpretarlas y entenderlas podría abrir el camino para una comunicación con las arañas. Entender cómo un arácnido crea estructuras complejas sin andamios ni otras estructuras de soporte podría inspirar mejoras en las tecnologías de impresión 3D, por ejemplo.

Markus Buehler, el profesor de ingeniería del MIT que presentó este trabajo en una conferencia virtual de la American Chemical Society, lleva una temporada explorando la conexión entre la música y los materiales a nivel molecular, y ha utilizado técnicas similares para mostrar las sutiles diferencias entre las vacunas de Pfizer/BioNTech y Moderna, al igual que las diferencias entre dos variantes distintas del SARSCoV-2.

Composición tridimensional de una tela de araña, a partir de cortes transversales en diferentes colores. Crédito: Isabelle Su y Markus Buehler.

Aunque no tenga nada que ver en términos de tecnología y complejidad, todo esto me ha recordado al tocadiscos de árbol de hace unos años.

.

No recuerdo donde vi que el sonido con bobinas de Tesla se debe a que la ruptura del dieléctrico, en este caso aire, provoca ondas longitudinales mecánicas. Modulando las descargas eléctricas es como se consiguen los distintos tonos.

Tampoco sé por qué es lo primero que se me vino a la cabeza cuando leí sobre la aplicación del efecto fotoacústico a la generación de mensajes audibles utilizando láseres:

Investigadores [del Laboratorio Lincoln del MIT] informan sobre dos métodos distintos basados en el uso del laser para trasmitir varios tonos, música y habla grabada a volumen conversacional. […] Los nuevos métodos están basados en el efecto fotoacústico, que ocurre cuando un material forma ondas sonoras después de absorber luz. En este caso, los investigadores utilizaron vapor de agua en el aire para absorber luz y crear sonido.

«Esto puede funcionar incluso en condiciones relativamente secas porque casi siempre hay agua en el aire, especialmente alrededor de personas», dijo [el jefe del equipo de investigación, Charles M.] Wynn. «Encontramos que no necesitamos mucha agua si utilizamos una longitud de onda laser que sea fuertemente absorbida por el agua. Esto fue clave ya que la absorción más fuerte conlleva más sonido».

Las declaraciones anteriores salen supuestamente en la revista Optics Letters de la OSA (Sociedad Óptica Estadounidense), a la que no tengo acceso con lo que no lo he podido verificar. Del resumen documental se puede saber que se elige un laser de tulio de 1.9 μm calibrado a una línea de absorción del vapor del agua atmosférica, para maximizar la presión sonora al mismo tiempo que se mantienen densidades de potencia que no afecten a los ojos.

Rayos laser. Foto de Ralf Vetterle vista en Pixabay.

.

A la hora de percibir música, el cerebro humano es más afín a ciertos tipos de ritmos frente a otros, de acuerdo con un estudio del MIT publicitado en “How the brain perceives rhythm” por Anne Trafton.

Un equipo de neurocientíficos ha observado que la gente tiene tendencia a la hora de oír y producir ritmos compuestos por ratios de enteros simples. Por ejemplo, una serie de cuatro compases separados por intervalos de tiempo iguales que, en este ejemplo, se representarían por un ratio de 1:1:1. Han hecho su estudio con músicos y no-músicos estadounidenses, al igual que con los miembros de la tribu Tsimane’ de Bolivia con poca exposición a la música occidental. En ambos casos llegaron a la misma conclusión, encontrando diferencias en los ratios preferidos en uno y otro grupo.

Para este estudio, el equipo del MIT desarrolló una forma de descubrir tendencias en la interpretación del cerebro de estímulos sensoriales. Se piensa que estas tendencias, denominadas «antecedentes», están basadas en experiencias anteriores y ayudan a resolver estímulos cuando estos pueden ser interpretados de diversas maneras. Por ejemplo, en una habitación ruidosa los antecedentes ayudan a extraer una conversación influenciando la interpretación hacia sonidos, palabras o formas linguísticas familiares.

Para descubrir estas preferencias, los investigadores generaron aleatoriamente series de cuatro compases que los sujetos tenían que escuchar y repetir posteriormente. En cada caso, se grababa lo que el sujeto repetía y se lo volvían a poner, que tenía que volver a repetirlo, y así un número suficiente de veces. En cada iteración el ritmo se iba alterando ligeramente hasta que las secuencias que reproducía el sujeto mostraban la dominancia de sus tendencias.

Gráfica que muestras las diferencias en las distribuciones de las respuestas entre los participantes Tsimane’ y estadounidenses.

.

Veo con casi un año de retraso en io9 una reseña a lo que en agosto de 2014 era noticia en el MIT:

Investigadores en el MIT, Microsoft y Adobe han desarrollado un algoritmo que puede reconstruir una señal de audio mediante el análisis de vibraciones minúsculas de objetos en un vídeo. En uno conjunto de experimentos lograron recuperar diálogo inteligible a partir de las vibraciones de una bolsa de patatas fritas fotografiada a 4.5 metros de distancia tras un cristal a prueba de sonido.

[…]

Reconstruir audio a partir de vídeo requiere que la frecuencia de las muestras de vídeo —el número de fotogramas de vídeo capturados por segundo— sea mayor que la frecuencia de la señal de audio. En algunos de sus experimentos, los investigadores utilizaron una cámara de alta velocidad que capturaba de 2000 a 6000 fotogramas por segundo. Eso es mucho más rápido que los 60 fotogramas por segundo que se consiguen con algunos móviles, pero muy por debajo de las frecuencias de las mejores cámaras de alta velocidad comerciales, que pueden llegar a alcanzar los 100000 fotogramas por segundo.

Sin embargo, en otros experimentos utilizaron una cámara digital común. Gracias a una peculiaridad en el diseño de los sensores de la mayoría de las cámaras, los investigadores pudieron inferir información sobre vibraciones de alta frecuencia incluso de vídeo grabado a los 60 fotogramas por segundo estándares.

[…]

Algunos bordes de una imagen son más borrosos que el ancho de un píxel. Así que los investigadores utilizaron una técnica de un trabajo anterior sobre algoritmos que amplifican variaciones minúsculas en vídeo, haciendo visibles movimientos previamente indetectables: la respiración de un bebé en el ala infantil de un hospital o el pulso en la muñeca de un sujeto.

Todo el trabajo me parece fascinante y alguna cosa hasta me resulta familiar, aunque sólo sea de oídas: la peculiaridad en los sensores de las cámaras de la que hablan es el efecto de rolling shutter que ya comenté una vez y que aprovechan de forma muy ingeniosa.

Figure 1: Recovering sound from video. Left: when sound hits an object (in this case, an empty bag of chips) it causes extremely small surface vibrations in that object. We are able to extract these small vibrations from high speed video and reconstruct the sound that produced them – using the object as a visual microphone from a distance. Right: an instrumental recording of ”Mary Had a Little Lamb” (top row) is played through a loudspeaker, then recovered from video of different objects: a bag of chips (middle row), and the leaves of a potted plant (bottom row). For the source and each recovered sound we show the waveform and spectrogram (the magnitude of the signal across different frequencies over time, shown in linear scale with darker colors representing higher energy). The input and recovered sounds for all of the experiments in the paper can be found on the project web page

.

Expertos en acústica y dinámica de fluidos del MIT, junto con fabricantes de violines de la North Bennet Street School de Boston, han analizado medidas de cientos de violines de la etapa cremonesa obtenidas a partir de diagramas técnicos de museos, bases de datos de coleccionistas y libros, al igual que de rayos X y TACs. Comparando dimensiones de varias características, y también medidas de resonancias acústicas, entre distintos instrumentos llegaron a la conclusión que uno de los factores principales en el sonido de un violín es la forma y longitud de las aberturas en la tapa, denominadas oídos.

Se puede leer algo más al respecto en las noticias del MIT, aunque tampoco entran en mucho detalle sobre el estudio en sí mismo. A pesar de todo las conclusiones e incluso las especulaciones que plantea son interesantes.