El Algoritmo de LinkedIn: ¿Sesgo de Género o Complejidad Inentendible en la Era de la IA?

En el vertiginoso mundo de las redes sociales profesionales, donde cada interacción cuenta y la visibilidad puede definir una carrera, cualquier cambio algorítmico es recibido con una mezcla de curiosidad y preocupación. Recientemente, LinkedIn, la plataforma profesional por excelencia, se ha encontrado en el ojo de una tormenta algorítmica. Un experimento viral, conocido como #WearthePants, ha encendido el debate sobre si su nuevo algoritmo, impulsado por Modelos de Lenguaje Grande (LLM), podría estar exhibiendo un sesgo de género implícito, favoreciendo los perfiles masculinos.

El Experimento #WearthePants: Una Hipótesis Inquieta

La historia comienza con una creciente ola de quejas entre usuarios de LinkedIn que notaban una drástica disminución en el alcance y las impresiones de sus publicaciones. En este contexto, Michelle, una estratega de producto con más de 10.000 seguidores, decidió probar una teoría que circulaba: ¿el género influía en la visibilidad? En noviembre, Michelle cambió su género y nombre en su perfil de LinkedIn a «Michael», y los resultados fueron sorprendentes. Ella, que habitualmente veía una visibilidad similar a la de su esposo con solo 2.000 seguidores, reportó un aumento significativo tras la modificación.

Marilynn Joyner, una fundadora que utiliza LinkedIn para el marketing de su negocio, también participó en el experimento. Tras dos años de publicaciones constantes y una reciente caída en la visibilidad, cambió su perfil a masculino. Su testimonio es revelador: «Cambié mi género en mi perfil de mujer a hombre, y mis impresiones saltaron un 238% en un día», afirmó. Otros profesionales como Megan Cornish, Rosie Taylor, Jessica Doyle Mekkes, Abby Nydam, Felicity Menzies y Lucy Ferguson reportaron resultados similares, alimentando la preocupación y el debate.

El experimento #WearthePants fue iniciado por las empresarias Cindy Gallop y Jane Evans. Ellas pidieron a dos hombres que publicaran exactamente el mismo contenido que ellas, para comparar el alcance. Gallop reportó que su publicación solo llegó a 801 personas, mientras que la del hombre con el mismo contenido alcanzó a 10.408 personas, más del 100% de sus seguidores, a pesar de que Gallop y Evans combinaban más de 150.000 seguidores frente a los 9.400 de los hombres. Estos datos anecdóticos, aunque no científicamente controlados, generaron una alarma considerable en la comunidad profesional, sugiriendo que la plataforma podría estar operando con un sesgo que afecta desproporcionadamente a las mujeres.

La Defensa de LinkedIn y la Complejidad Algorítmica

Ante estas acusaciones, LinkedIn ha sido enfático en su postura. La compañía ha declarado que «su algoritmo y sistemas de IA no utilizan información demográfica como edad, raza o género como señal para determinar la visibilidad de contenido, perfil o publicaciones en el Feed«. Según Tim Jurka, vicepresidente de ingeniería de la plataforma, y Sakshi Jain, jefa de IA Responsable y Gobernanza, los LLM se implementaron para mejorar la relevancia del contenido para los usuarios. Afirman que una instantánea de las actualizaciones del feed de un usuario, que no son perfectamente representativas o iguales en alcance, no implica automáticamente un trato injusto o sesgo dentro del feed.

Expertos en algoritmos sociales coinciden en que un sexismo explícito puede no ser la causa directa, pero el sesgo implícito es una posibilidad real. Brandeis Marshall, consultora de ética de datos, describe las plataformas como una «intrincada sinfonía de algoritmos que tiran de palancas matemáticas y sociales específicas, simultánea y constantemente». Según Marshall, cambiar la foto de perfil y el nombre es solo una de esas «palancas». El algoritmo está influenciado por una miríada de factores, como la interacción pasada y actual del usuario con otros contenidos. «Lo que no sabemos es todas las otras palancas que hacen que este algoritmo priorice el contenido de una persona sobre otra. Este es un problema más complicado de lo que la gente asume», advierte Marshall.

El Sesgo Oculto de los LLMs y la Cultura «Bro-Coded»

El meollo del problema radica en cómo se entrenan los LLM. La mayoría de estas plataformas, al ser entrenadas con contenido generado por humanos, «innatamente tienen incrustado un punto de vista blanco, masculino y occidental», explica Marshall. Investigadores han encontrado consistentemente evidencia de sesgos humanos como el sexismo y el racismo en los modelos LLM populares. Esto se debe a que los modelos aprenden de datos que reflejan la sociedad existente, y los humanos a menudo están directamente involucrados en el entrenamiento posterior o el aprendizaje por refuerzo, perpetuando inadvertidamente estos sesgos.

Esta hipótesis se refuerza con la observación de Michelle. Cuando publicó como «Michael», ajustó ligeramente su tono, adoptando un estilo más simplista y directo, similar al que utiliza para su esposo. Fue entonces cuando sus impresiones se dispararon un 200% y los comentarios un 27%. Su conclusión fue que el sistema no era «explícitamente sexista», pero parecía considerar los estilos de comunicación comúnmente asociados con las mujeres «un proxy de menor valor». Los estereotipos de estilo de escritura masculino suelen ser más concisos y directos, mientras que los estereotipos femeninos son percibidos como más suaves o emocionales. Si un LLM está entrenado para priorizar un estilo que se alinea con los estereotipos masculinos, estamos frente a un sutil, pero potente, sesgo implícito.

La «Caja Negra» Algorítmica y la Búsqueda de Transparencia

Cómo cualquier empresa implementa sus sistemas de IA es un secreto celosamente guardado en la «caja negra» algorítmica. Esta falta de transparencia dificulta enormemente la auditoría externa y la verificación de sesgos. LinkedIn, por su parte, afirma que sus sistemas de IA analizan cientos de señales para determinar qué se muestra a un usuario, incluyendo información del perfil, la red y la actividad de la persona. La compañía realiza pruebas continuas para entender qué ayuda a las personas a encontrar el contenido más relevante y oportuno para sus carreras. El comportamiento del miembro también moldea el feed: lo que la gente hace clic, guarda y con lo que interactúa cambia diariamente, y esto, junto con las actualizaciones de la plataforma, da forma a lo que aparece en los feeds.

Sarah Dean, profesora asistente de ciencias de la computación en Cornell, señala que plataformas como LinkedIn a menudo utilizan perfiles completos, además del comportamiento del usuario, para determinar qué contenido impulsar. Esto incluye los puestos de trabajo en el perfil de un usuario y el tipo de contenido con el que suelen interactuar. «La demografía de alguien puede afectar ‘ambos lados’ del algoritmo: lo que ven y quién ve lo que publican», explica Dean.

Chad Johnson, un experto en ventas activo en LinkedIn, ha descrito los cambios como una despriorización de los «me gusta», comentarios y republicaciones. El sistema LLM «ya no se preocupa de la frecuencia con la que publicas o a qué hora del día», escribió Johnson. «Le importa si tu escritura muestra comprensión, claridad y valor». Esta perspectiva añade otra capa de complejidad, sugiriendo que el algoritmo busca una calidad de contenido específica que podría, inadvertidamente, superponerse con estilos de comunicación sesgados.

Más Allá del Género: Otros Factores y Percepciones Diversas

La dificultad para determinar la verdadera causa de los resultados del experimento #WearthePants radica en la multitud de variables no controladas. Participar en una tendencia viral, por ejemplo, puede generar un aumento de la participación. Algunos usuarios que participaron en el experimento podrían haber estado publicando por primera vez en mucho tiempo, y el algoritmo podría haberlos recompensado por volver a la actividad. Además, no todos los usuarios, independientemente del género, han tenido la misma experiencia. Mientras Shailvi Wakhulu, una científica de datos, ha visto una caída drástica en sus miles de impresiones diarias, otro usuario masculino reportó un aumento del 100% en las suyas, atribuyéndolo a la escritura sobre temas específicos para audiencias específicas que el nuevo algoritmo parece recompensar.

Sin embargo, la complejidad no se detiene en el género. Brandeis Marshall, que es afroamericana, ha observado que las publicaciones sobre sus experiencias personales obtienen peores resultados que las relacionadas con su raza. «Si las mujeres negras solo obtienen interacciones cuando hablan de mujeres negras, pero no cuando hablan de su experiencia particular, entonces eso es un sesgo», argumenta. Si bien esta evidencia es anecdótica, subraya que los sesgos algorítmicos pueden manifestarse de múltiples formas, afectando a diferentes grupos demográficos de manera desigual.

LinkedIn ha intentado ofrecer algunas pistas sobre qué funciona bien ahora. La compañía señala que su base de usuarios ha crecido, y como resultado, las publicaciones han aumentado un 15% interanual y los comentarios un 24% interanual. «Esto significa más competencia en el feed«, aclararon. El contenido que prospera incluye conocimientos profesionales y lecciones de carrera, noticias y análisis de la industria, y contenido educativo o informativo sobre trabajo, negocios y economía.

Conclusión: Una Búsqueda Continua de Equidad en la IA

La saga del algoritmo de LinkedIn es un microcosmos de un desafío mucho más amplio en la era de la IA: la garantía de la equidad y la minimización de los sesgos inherentes a los sistemas de aprendizaje automático. Si bien LinkedIn niega rotundamente el uso de información demográfica explícita para el ranking de contenido, la posibilidad de sesgos implícitos, heredados de los datos de entrenamiento o incrustados en las sutilezas de los estilos de comunicación favorecidos, sigue siendo una preocupación legítima. Michelle lo resume con una simple frase: «Quiero transparencia».

Sin embargo, la transparencia total en los algoritmos de las empresas tecnológicas es un «gran pedido», uno que probablemente nunca será satisfecho por completo. Las empresas protegen sus algoritmos como secretos comerciales vitales, y una divulgación completa podría llevar a que los usuarios intenten manipularlos. La comunidad tecnológica, los reguladores y los propios usuarios deben seguir presionando para que las plataformas adopten marcos de IA más responsables y éticos. La conversación en torno al algoritmo de LinkedIn es un recordatorio de que, a medida que la IA se vuelve más omnipresente en nuestras vidas profesionales, la vigilancia y la crítica constructiva son más necesarias que nunca para construir un futuro digital verdaderamente equitativo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *