.

No encuentro ahora el enlace donde vi el artículo en arXiv de un equipo de FAIR titulado «A Universal Music Translation Network», un método para traducir música entre instrumentos, géneros y estilos […] basado en un autocodificador wavenet multi-dominio, con un codificador independiente del dominio y un espacio latente desenredado entrenado de punto a punto con formas de onda. Estoy casi seguro que: a) la traducción dista mucho de ser técnicamente correcta y, b) tampoco aclara qué es lo que se supone que hace ni cómo lo hace.

Leyendo un poco más, se da a entender que esta red puede tomar un sonido en forma de onda como entrada y producir una réplica como si hubiera sido realizada con un conjunto de instrumentos y estilos diferentes al original. Es lo que hacemos los humanos al oír una canción o una composición instrumental y la replicamos tarareando o silbando.

Sobre el cómo lo hacen, mis conocimientos y mi tiempo (ambos limitados) no me han permitido hacer una lectura exhaustiva del artículo. Puedo entenderlo a nivel superficial pero sería muy interesante profundizar en este tipo de proyectos.

Arquitectura de la red de traducción musical universal.

Me parece curioso que, como parte de su proceso de evaluación, aprovecharan de una de las ventajas de NSynth que mencionaban en su presentación, en particular, el corpus de notas musicales que elaboraron.