julio 25, 2024

El algoritmo de Twitter ha elegido rostros femeninos delgados y blancos. Un concurso de programadores lo demostró | Tecnología

El algoritmo de Twitter ha elegido rostros femeninos delgados y blancos.  Un concurso de programadores lo demostró |  Tecnología

En septiembre de 2020, un estudiante de la Universidad de Victoria (Canadá) descubrió accidentalmente que Twitter hacía más visibles las caras blancas al recortar imágenes. Su hilo de tweets causó mucha controversia y docenas de pruebas de otros tweeters con el mismo efecto. Finalmente, Twitter decidió ver qué sucedía. El ensayo culminó en agosto pasado con una competencia, la primera de su tipo, entre científicos informáticos a los que se les permitió analizar el algoritmo. y se les ofreció una recompensa por sus descubrimientos. La competencia confirmó la existencia de algunos prejuicios. El ganador, Bogdan Kulynych (Ucrania, 1993), estudiante de doctorado en la Universidad Politécnica de Lausana (Suiza), descubrió que el algoritmo favorece ciertamente los rostros claros, jóvenes y delgados con rasgos femeninos.

El sesgo del algoritmo no es nada nuevo. Un algoritmo de este tipo es un programa que ordena los resultados a partir de los datos que se le proporcionan. En el caso de Twitter, eligió el fragmento (los píxeles) de una imagen que le pareció más interesante para resaltarla y que los usuarios de Twitter verían en sus pantallas.

Este algoritmo se deriva de un modelo elaborado siguiendo la mirada humana cuando aparece una imagen en una pantalla. Y presumiblemente los humanos prefieren rostros jóvenes, femeninos, delgados, de piel clara con un tono cálido y bien contrastado. En un estudio previo al concurso realizado por la misma red social, y donde ya era visible cierto sesgo, también analizaron lo que denominan la «mirada masculina»: en ocasiones el algoritmo se enfocaba en áreas del cuerpo femenino que no eran las según el artículo científico, se originó en la «representación constante de la mujer como objeto sexual de placer desde el punto de vista de los hombres heterosexuales».

«En mi investigación generé varias caras artificiales y las modifiqué no de manera arbitraria sino de una manera muy específica para ver dónde el algoritmo ganaba protagonismo» [es decir, que cuando hacía un recorte automático, tendía a conservar o a destacar más dichos rostros] , Explica Kulynych a EL PAÍS en una conversación por videoconferencia. “Solo seleccioné un pequeño grupo de 16 caras por razones de tiempo y porque el proceso de cálculo es largo. Eran caras diferentes y al final vi patrones. El algoritmo dio más protagonismo a los rostros más jóvenes y delgados con más calidez y rasgos femeninos «, continúa.

Aunque el campeón de Kulynych es pequeño porque a la competencia solo le quedaba una semana para participar, él piensa que el problema probablemente era «fundamental» y sería el mismo si se repitiera con una muestra mayor de rostros. «Aunque sospecho que con este análisis más amplio la diferencia sería menos pronunciada o que los patrones serían menos claros», aclara.

Detalle del proyecto Kulynych: así es como el algoritmo clasifica progresivamente las imágenes de la derecha en cuanto a feminidad y calidez en el tono de piel.

La competencia fue una especie de análisis Post mortem algoritmo. Twitter que? había eliminado en mayo y lo había reemplazado con una opción manual: ahora cada usuario puede recortar la parte que desea ver de la imagen colgante. «Es una buena opción», cree Kulynych. La eliminación del algoritmo solo elimina un pequeño problema. En última instancia, este algoritmo no fue crucial, simplemente decidió qué partes de una foto grande mostrar. En investigaciones anteriores, algunas realizadas con su tutora de tesis, la ingeniera española Carmela Troncoso, Kulynych analizó el impacto de otros algoritmos más importantes para las grandes empresas tecnológicas: esos algoritmos imprescindibles que deciden lo que vemos en Twitter, YouTube, Amazon o Airbnb. ¿Qué comportamientos podrían promover a favor de los beneficios de estas empresas?

Dichos algoritmos no están actualmente disponibles para investigadores externos para verificar si hay sesgos o errores, dice Kulynych. Son una parte central de la tecnología: «Además de los errores, están los problemas en los algoritmos que surgen debido a la estructura de incentivos y optimización de beneficios dentro de las empresas», dice Kulynych. “No se organizan competiciones con estos porque no son errores como tales. Solo se pueden resolver desde el exterior y eso requeriría una regulación para desafíos como mitigar la desinformación en las redes sociales o aumentar la gentrificación en plataformas como Airbnb. La capacidad de autorregulación de estas empresas es limitada ”, añade.

La competencia de Twitter para analizar su algoritmo desacreditado es loable, admite Kulynych, pero queda por ver si se trata de un primer paso o simplemente de un caso aislado. Rumman Chowdhury, nuevo director de Twitter (se incorporó en febrero) de Machine Learning Ethics, dijo que no es fácil abrir el algoritmo de recomendación de Twitter para un análisis externo, pero «sería fascinante tener una competencia sobre el sesgo del sistema».

En su charla sobre esta competencia, Chowdhury admitió la obviedad de que el sesgo algorítmico se basa en automatizar lo que los humanos hacen de forma natural: «Creamos estos filtros porque pensamos que eso es lo ‘lindo’, y que termina entrenando a nuestros modelos a seguir y guiándonos hacia estas nociones irreales de lo que significa ser atractivo «.

En una conversación previa en Twitter, los empleados de la empresa ofrecieron una analogía para este concurso: se asemeja a los primeros premios otorgados a quienes encontraron errores de seguridad en programas informáticos hace años. Ahora, una falla de seguridad puede costar cientos de miles de dólares o incluso millones si se vende a quién: es una forma de acceder a los sistemas sin ser descubierto. Kulynych solo tomó $ 3,500 por su trabajo, que es una cifra ridícula para los estándares de Silicon Valley.

Pero puede que no termine ahí. “Al principio se informaron errores de seguridad y nadie recibió nada a cambio, tal vez el problema no se haya solucionado. Así nacieron las recompensas, para crear un incentivo para comunicarlas a los creadores del software y solucionarlas «, dice Kulynych. La diferencia es que los problemas de seguridad se pueden descubrir desde el exterior y el análisis del algoritmo requiere la complicidad de la empresa, que debe abrirla al análisis externo.

La detección de sesgos de Kulynych no fue la única. El segundo premio fue para un trabajo que también verificó que el algoritmo prestaba menos atención a los rostros mayores y el tercero lo ganó otro investigador que encontró, al comparar memes con texto, que el algoritmo prefería el idioma en letras latinas al árabe. Twitter también otorgó un premio a un investigador italiano que descubrió que incluso los emojis de piel clara reciben la mejor puntuación del algoritmo.

Puedes seguir a EL PAÍS TECNOLOGÍA en FacebookGorjeo o regístrate aquí para recibir el nuestro boletín semanal.