Soy bastante dado a las generalizaciones pero me gustaría pensar que dejo claro que nunca hablo de verdades absolutas; una generalización no es dogma, en principio está derivada de una estadística significativa y reconoce explícitamente que no se aplica invariablemente. Por esta definición, es un argumento reduccionista de lo que normalmente será algo más complejo.
Dicho esto, voy a hacer alguna que otra generalización basada en mi experiencia particular.
Observo con bastante frecuencia que la gente culpa o exculpa determinados comportamientos por ideología. Unas veces la atribución de una ideología a una entidad sirve para atacarla o defenderla, según convenga. En otras instancias, se usa la ideología para justificar o introducir una intencionalidad donde es posible que no la haya. Esta clase de injerencias rara vez sirven de mucho más que para ofuscar y generar posturas dogmáticas, que descartan cualquier otro tipo de análisis, desviando y reduciendo la atención a ese punto.
Por desgracia, el sexismo parece ser otro de esos términos que pierde valor por su abuso y, aunque a veces da para chiste, el uso indiscriminado del término no ayuda a resolver el problema existente. Esto viene a colación de un artículo en Hypebot con un titular similar al de esta entrada que se presenta con el siguiente párrafo:
Aunque la información predictiva ha demostrado ciertamente ser útil, los algoritmos —escritos por humanos— son inherentemente defectuosos y puede que estén sirviendo una dosis considerable de sexismo a la hora de recomendar opciones de música en streaming.
El artículo menciona varias cifras, que parecen sacadas de un artículo en el New York Post que, a su vez, señala un estudio y un artículo de opinión de los autores del mismo. En una lectura superficial algunos de los datos obtenidos parecen significativos: con una muestra suficientemente grande de artistas musicales diferenciados como «masculinos» y «femeninos» se observa que, para una relación aproximada de 3:1 entre el número de integrantes de ambos conjuntos, la posición media en el que se producía la primera recomendación de un integrante de de cada conjunto se diferenciaba aproximadamente a razón 1:7, aunque la distribución de las recomendaciones sí que tenga paridad estadística.
La catalogación de los artistas en esas dos categorías tiene su propia problemática pero no es eso lo que me incomoda. Lo que veo más problemático es que el artículo de Hypebot es el primero en toda la cadena de contenidos mencionada que usa el término sexismo para describir a los algoritmos. No digo que no sea una interpretación válida, pero el estudio habla de corregir los algoritmos para que las recomendaciones no amplifiquen el desequilibrio previamente existente. Los autores dicen que el diseño de los sistemas de recomendación crea un bucle de realimentación que, a partir de una situación de desigualdad, tiende a aumentar dicha diferencia. El problema que abordan no es ideológico, es algorítmico.
Ahora no lo encuentro, pero recuerdo haber leído un estudio donde se veía como estos ecosistemas «sociales», donde las recomendaciones vienen en la forma de «a otras personas a las que les ha gustado esto también les interesa esto», generaban el mismo efecto amplificador y aislante: la gente no se ve expuesta a una mayor variedad, más bien al contrario. Me alegro que se preste atención a los peligros de estos efectos cuando existe un problema de base pero, si se habla de discriminación en la música, habría que seguir ilustrando sobre por qué algunas personas se pueden sentir excluidas o no se sientan cómodas siendo usadas para llamar la atención.