.

Es la pregunta que se hace este artículo de Quartz señalado en Hacker News. El argumento que la provoca se apoya en dos premisas:

  1. Los servicios de reproducción por streaming, entre los que destaca Spotify, son la fuente de ingresos principal de los músicos.
  2. Spotify en particular paga por el número de veces que una canción es reproducida, independientemente de su duración.

Es lícito preguntarse si esto constituye un aliciente económico para que los músicos hagan las canciones más cortas.

El artículo hace algunas observaciones sobre la evolución de las duraciones de las canciones de algunos artistas. Tal como está planteado, no me queda muy claro si estas observaciones son datos recopilados a posterior para apoyar la teoría, o si esta surgió tras observar los datos. Con todo, no dejan de ser curiosos.

Se puede observar, por ejemplo, el aumento reciente del porcentaje de canciones del Billboard Hot 100 que duran dos minutos y medio o menos:

’02’04’06’08’10’12’14’16’180%1%2%3%4%5%6%
Porcentaje de canciones del Billboard Hot 100 que duran 2:30 o menos. Crédito: Billboard, Michael Tauberg.

Al final del texto señalan que existen otros factores, aparte del económico, que pueden considerarse:

Los primeros fonógrafos sólo podían reproducir entre dos y tres minutos de música así que, como resultado, esa era la duración típica de las canciones desde los años 1920 a los 1950. La introducción del álbum LP, después la cinta y después el CD hizo posible tener canciones más largas, a medida de la capacidad creciente de cada medio. Ahora, en la época del streaming, tecnología y economía parecen estar enviándonos de vuelta a la brevedad.

Me recuerda un poco al análisis de las guerras del volumen que mencionaba por última vez hace unos años.

.

Veo con casi un año de retraso en io9 una reseña a lo que en agosto de 2014 era noticia en el MIT:

Investigadores en el MIT, Microsoft y Adobe han desarrollado un algoritmo que puede reconstruir una señal de audio mediante el análisis de vibraciones minúsculas de objetos en un vídeo. En uno conjunto de experimentos lograron recuperar diálogo inteligible a partir de las vibraciones de una bolsa de patatas fritas fotografiada a 4.5 metros de distancia tras un cristal a prueba de sonido.

[…]

Reconstruir audio a partir de vídeo requiere que la frecuencia de las muestras de vídeo —el número de fotogramas de vídeo capturados por segundo— sea mayor que la frecuencia de la señal de audio. En algunos de sus experimentos, los investigadores utilizaron una cámara de alta velocidad que capturaba de 2000 a 6000 fotogramas por segundo. Eso es mucho más rápido que los 60 fotogramas por segundo que se consiguen con algunos móviles, pero muy por debajo de las frecuencias de las mejores cámaras de alta velocidad comerciales, que pueden llegar a alcanzar los 100000 fotogramas por segundo.

Sin embargo, en otros experimentos utilizaron una cámara digital común. Gracias a una peculiaridad en el diseño de los sensores de la mayoría de las cámaras, los investigadores pudieron inferir información sobre vibraciones de alta frecuencia incluso de vídeo grabado a los 60 fotogramas por segundo estándares.

[…]

Algunos bordes de una imagen son más borrosos que el ancho de un píxel. Así que los investigadores utilizaron una técnica de un trabajo anterior sobre algoritmos que amplifican variaciones minúsculas en vídeo, haciendo visibles movimientos previamente indetectables: la respiración de un bebé en el ala infantil de un hospital o el pulso en la muñeca de un sujeto.

Todo el trabajo me parece fascinante y alguna cosa hasta me resulta familiar, aunque sólo sea de oídas: la peculiaridad en los sensores de las cámaras de la que hablan es el efecto de rolling shutter que ya comenté una vez y que aprovechan de forma muy ingeniosa.

Figure 1: Recovering sound from video. Left: when sound hits an object (in this case, an empty bag of chips) it causes extremely small surface vibrations in that object. We are able to extract these small vibrations from high speed video and reconstruct the sound that produced them – using the object as a visual microphone from a distance. Right: an instrumental recording of ”Mary Had a Little Lamb” (top row) is played through a loudspeaker, then recovered from video of different objects: a bag of chips (middle row), and the leaves of a potted plant (bottom row). For the source and each recovered sound we show the waveform and spectrogram (the magnitude of the signal across different frequencies over time, shown in linear scale with darker colors representing higher energy). The input and recovered sounds for all of the experiments in the paper can be found on the project web page