BitcoinWorld
Algoritmo di LinkedIn Esposto: La Scioccante Discriminazione di Genere nella Distribuzione dei Contenuti IA
Immagina di vedere la portata dei tuoi contenuti professionali diminuire drasticamente mentre i colleghi maschi con meno follower prosperano. Non è solo una speculazione: è la inquietante realtà scoperta dagli utenti di LinkedIn che hanno scoperto che il loro genere potrebbe essere la mano invisibile che sopprime la loro visibilità. L'esperimento #WearthePants ha rivelato potenziali falle nel nuovo algoritmo basato su LLM di LinkedIn, sollevando questioni urgenti sulla correttezza nelle piattaforme di networking professionale.
A novembre, una stratega di prodotto che chiameremo Michelle ha condotto un esperimento semplice ma rivelatore. Ha cambiato il genere del suo profilo LinkedIn in maschile e il suo nome in Michael. I risultati sono stati sorprendenti: le impressioni dei suoi post sono aumentate del 200% e gli engagement del 27% in pochi giorni. Non era sola. Marilynn Joyner ha riportato un aumento del 238% nelle impressioni dopo aver fatto lo stesso cambiamento, mentre numerose altre donne professioniste hanno documentato modelli simili.
Questo esperimento è emerso dopo mesi di lamentele da parte di utenti assidui di LinkedIn riguardo al calo di engagement. Il momento ha coinciso con l'annuncio di agosto di LinkedIn che avevano "più recentemente" implementato i Large Language Models (LLMs) per far emergere i contenuti. Per le donne che avevano costruito un seguito sostanziale attraverso pubblicazioni costanti, il cambiamento improvviso è sembrato particolarmente ingiusto.
Il movimento è iniziato con le imprenditrici Cindy Gallop e Jane Evans, che hanno chiesto a due colleghi maschi di pubblicare contenuti identici. Nonostante avessero un seguito combinato superiore a 150.000 (rispetto ai 9.400 degli uomini), i risultati sono stati eloquenti:
| Creatore | Follower | Portata del Post | Percentuale di Follower Raggiunti |
|---|---|---|---|
| Cindy Gallop | ~75.000 | 801 | 1,07% |
| Collega Maschio | ~4.700 | 10.408 | 221% |
"L'unica variabile significativa era il genere," ha detto Michelle a Bitcoin World. Ha notato che nonostante avesse oltre 10.000 follower rispetto ai 2.000 di suo marito, ricevevano numeri di impressioni simili—fino a quando non ha adottato i dettagli del profilo e lo stile di scrittura di lui.
LinkedIn sostiene che il suo "algoritmo e i sistemi di IA non utilizzano informazioni demografiche come età, razza o genere come segnale per determinare la visibilità dei contenuti." Tuttavia, gli esperti suggeriscono che il pregiudizio potrebbe essere più sottile e sistemico.
Brandeis Marshall, consulente di etica dei dati, spiega: "Le piattaforme sono una sinfonia intricata di algoritmi che azionano specifiche leve matematiche e sociali, simultaneamente e costantemente. La maggior parte di queste piattaforme ha intrinsecamente incorporato un punto di vista bianco, maschile e occidentale a causa di chi ha addestrato i modelli."
Il problema deriva da come apprendono gli LLM:
Michelle ha notato qualcosa di cruciale durante il suo esperimento. Quando pubblicava come "Michael", ha adattato la sua scrittura a uno stile più diretto e conciso—simile a come scrive come ghostwriter per suo marito. Questo cambiamento stilistico, combinato con il cambio di genere, ha prodotto i risultati drammatici.
Sarah Dean, professoressa assistente di informatica a Cornell, osserva: "I dati demografici di qualcuno possono influenzare 'entrambi i lati' dell'algoritmo—ciò che vedono e chi vede ciò che pubblicano. Le piattaforme spesso utilizzano profili completi, inclusi lavori e storia di engagement, quando determinano quali contenuti promuovere."
Questo suggerisce che l'algoritmo di LinkedIn potrebbe premiare modelli di comunicazione storicamente associati ai professionisti maschi:
Il responsabile dell'IA responsabile e della governance di LinkedIn, Sakshi Jain, ha ribadito a novembre che i loro sistemi non utilizzano informazioni demografiche per la visibilità dei contenuti. L'azienda ha dichiarato a Bitcoin World che testano milioni di post per garantire che i creatori "competano ad armi pari" e che l'esperienza del feed rimanga coerente tra i diversi pubblici.
Tuttavia, la piattaforma offre una trasparenza minima sui loro processi di addestramento dell'IA. Chad Johnson, un esperto di vendite attivo su LinkedIn, ha descritto il nuovo sistema come prioritario per "comprensione, chiarezza e valore" rispetto alle metriche tradizionali come frequenza di pubblicazione o tempistica.
Principali cambiamenti segnalati dagli utenti:
La frustrazione si estende oltre le questioni di genere. Molti utenti, indipendentemente dal genere, segnalano confusione sul nuovo sistema:
Sarah Dean suggerisce che l'algoritmo potrebbe semplicemente amplificare i segnali esistenti: "Potrebbe premiare certi post non a causa dei dati demografici dell'autore, ma perché c'è stata più risposta storica a contenuti simili in tutta la piattaforma."
Basandosi sulle esperienze degli utenti e sulle linee guida di LinkedIn, ecco cosa sembra funzionare:
"Voglio trasparenza," ha affermato Michelle, facendo eco a un sentimento comune. Tuttavia, come nota Brandeis Marshall, la completa trasparenza potrebbe portare a manipolazioni dell'algoritmo. Le piattaforme proteggono attentamente i loro segreti algoritmici, creando quello che gli esperti chiamano il problema della "scatola nera".
La tensione fondamentale rimane: gli utenti vogliono sistemi equi e comprensibili, mentre le piattaforme devono prevenire manipolazioni. Questo conflitto è particolarmente acuto nelle reti professionali come LinkedIn, dove la visibilità può influenzare direttamente carriere e opportunità di business.
L'esperimento #WearthePants ha coinvolto donne che hanno cambiato il genere del loro profilo LinkedIn in maschile per verificare se l'algoritmo della piattaforma mostrasse pregiudizi di genere nella distribuzione dei contenuti.
L'esperimento è iniziato con le imprenditrici Cindy Gallop e Jane Evans, che sospettavano che il genere potesse spiegare il calo di engagement.
LinkedIn sostiene che il suo algoritmo non utilizza dati demografici per la visibilità dei contenuti. Sakshi Jain, responsabile dell'IA responsabile, e Tim Jurka, VP of Engineering, hanno entrambi affrontato queste preoccupazioni.
Sì. I partecipanti hanno notato che l'adozione di stili di scrittura più diretti e concisi—spesso associati ai modelli di comunicazione maschili—correlava con una maggiore visibilità.
Sì. La maggior parte delle piattaforme dipendenti da LLM lotta con pregiudizi incorporati dai loro dati di addestramento, come notato da esperti come Brandeis Marshall e ricercatori tra cui Sarah Dean.
L'esperimento #WearthePants rivela una possibilità inquietante: anche i sistemi di IA ben intenzionati possono perpetuare pregiudizi del mondo reale. Mentre LinkedIn nega discriminazioni intenzionali, i modelli osservati da numerose donne professioniste suggeriscono qualcosa di sistemico all'opera. Che sia incorporato nei dati di addestramento, rafforzato da modelli di engagement storici o amplificato attraverso preferenze stilistiche, l'effetto rimane lo stesso: alcune voci vengono amplificate mentre altre vengono soppresse.
Man mano che l'IA diventa sempre più incorporata nelle piattaforme professionali, la necessità di trasparenza, responsabilità e dati di addestramento diversificati diventa più urgente. L'alternativa è un panorama professionale digitale in cui il successo dipende non solo dal merito, ma da quanto bene ci si può conformare alle preferenze algoritmiche—preferenze che potrebbero portare i pregiudizi dei loro creatori umani.
Per saperne di più sugli ultimi sviluppi negli algoritmi di IA e sui loro impatti sociali, esplora il nostro articolo sui principali sviluppi che modellano l'implementazione dell'IA e le considerazioni etiche nelle piattaforme di social media.
Questo post Algoritmo di LinkedIn Esposto: La Scioccante Discriminazione di Genere nella Distribuzione dei Contenuti IA è apparso per la prima volta su BitcoinWorld.


