L’algoritmo pubblicitario di Facebook prende di mira in modo sproporzionato gli utenti neri con annunci di college a scopo di lucro, secondo un nuovo articolo di un team di ricercatori universitari.
Come tutte le principali piattaforme di social media, Meta, proprietaria di Facebook e Instagram, non rivela esattamente come o perché i suoi miliardi di utenti vedono determinati post e non altri, comprese le pubblicità. Per mettere alla prova il sistema pubblicitario a scatola nera di Facebook, gli accademici di Princeton e dell’Università della California del Sud hanno acquistato annunci di Facebook e monitorato le loro prestazioni tra gli utenti reali di Facebook, un metodo che dicono prodotto “prove di discriminazione razziale nella distribuzione algoritmica di annunci di opportunità educative da parte di Meta, che pongono preoccupazioni legali ed etiche.”
I ricercatori affermano di essersi concentrati sulle università a scopo di lucro a causa della loro lunga e dimostrabile storia di inganno di potenziali studenti – in particolare studenti di colore – con marketing predatorio, ottenendo risultati educativi poco brillanti e prospettive di lavoro ridotte rispetto ad altre università.
In un serie di campagne di marketing di provai ricercatori hanno acquistato serie di due annunci accoppiati insieme: uno per un’istituzione pubblica, come la Colorado State University, e un altro che commercializzava una società a scopo di lucro, come la Strayer University. (Né i college for-profit né le scuole statali pubblicizzate dai ricercatori sono stati coinvolti nel progetto).
Gli inserzionisti su Facebook possono ottimizzare le proprie campagne con una varietà di opzioni di targeting, ma la razza non è più una di queste. Quindi i ricercatori hanno trovato un proxy intelligente. Utilizzando i dati di registrazione degli elettori della Carolina del Nord che includono le razze degli individui, i ricercatori hanno creato un campione di pubblico composto per il 50% da bianchi e per il 50% da neri. Gli utenti neri provenivano da una regione della Carolina del Nord e gli elettori bianchi da un’altra. Utilizzando la funzione “pubblico personalizzato” di Facebook, hanno caricato questo elenco di individui specifici a cui indirizzare gli annunci. Sebbene i parametri di performance degli annunci di Facebook non rivelino la razza degli utenti che hanno visto ciascun annuncio, i dati mostrano dove è stato visualizzato ciascun annuncio. “Ogni volta che il nostro annuncio viene mostrato a Raleigh, possiamo dedurre che sia stato mostrato a una persona nera e, quando viene mostrato a Charlotte, possiamo dedurre che sia stato mostrato a una persona bianca”, spiega il documento.
In teoria, un algoritmo imparziale fornirebbe ogni annuncio per ciascuna scuola a un numero uguale di utenti bianchi e neri. L’esperimento è stato progettato per vedere se esisteva un disallineamento statisticamente significativo in base al quale le persone alla fine vedevano quali annunci.
Con ogni coppia di annunci, l’algoritmo di consegna di Facebook ha mostrato un pregiudizioi ricercatori hanno scoperto. L’algoritmo dell’azienda mostrava in modo sproporzionato agli utenti neri annunci di college come DeVry e Grand Canyon University, scuole a scopo di lucro che sono state multate o citate in giudizio dal Dipartimento dell’Istruzione per inganni pubblicitari, mentre un numero maggiore di utenti bianchi veniva indirizzato verso i college statali, hanno concluso gli accademici.
“Affrontare l’equità negli annunci pubblicitari è una sfida a livello di settore e abbiamo collaborato con gruppi per i diritti civili, accademici e regolatori per promuovere l’equità nel nostro sistema pubblicitario”, ha detto a The Intercept il portavoce di Meta Daniel Roberts. “I nostri standard pubblicitari non consentono agli inserzionisti di pubblicare annunci che discriminano individui o gruppi di individui in base ad attributi personali come la razza e stiamo attivamente costruendo una tecnologia progettata per compiere ulteriori progressi in quest’area”.
Anche nei casi in cui questi programmi a scopo di lucro hanno riformato i loro effettivi sforzi di marketing e “mirano a un targeting pubblicitario equilibrato in base alla razza”, il team di ricerca ha concluso che “gli algoritmi di Meta ricreerebbero la distorsione razziale storica nei destinatari della pubblicità, e lo farebbero all’insaputa agli inserzionisti.”
Sin dall’a Rapporto ProPublica 2016 scoperto che Facebook consente agli inserzionisti di escludere esplicitamente gli utenti dalle campagne pubblicitarie in base alla loro razza, il sistema pubblicitario dell’azienda è stato oggetto di maggiore controllo e critiche. E mentre Facebook alla fine ha rimosso le opzioni che consentivano agli esperti di marketing di indirizzare gli utenti in base alla razza, precedenti ricerche accademiche hanno dimostrato che l’algoritmo segreto che decide chi vede quali annunci è distorto in base alla razza e al genere, suggerendo pregiudizi intrinseci ai sistemi dell’azienda.
Un documento di ricerca del 2019 su questo argomento ha mostrato che gli annunci per varie offerte di lavoro lo erano ordinati algoritmicamente in base agli stereotipi di razza e di genereper esempio, mostrando in modo sbilanciato agli utenti neri le opportunità di guidare i taxi, mentre le opportunità per uno sviluppatore di intelligenza artificiale erano sbilanciate a favore degli utenti bianchi. Un documento di follow-up del 2021 ha rilevato che la pubblicazione di annunci su Facebook replicati squilibri di genere sul posto di lavoro nel mondo realemostrare annunci femminili per aziende in cui le donne erano già sovrarappresentate.
Anche se nasconde praticamente tutti i dettagli sulle funzioni dell’algoritmo di pubblicazione degli annunci, Facebook sostiene da tempo che i suoi annunci vengono mostrati solo alle persone che hanno maggiori probabilità di trovarli pertinenti. In risposta alla ricerca del 2021 che mostrava pregiudizi di genere nell’algoritmo, un portavoce dell’azienda ha dichiarato a The Intercept che, pur comprendendo le preoccupazioni dei ricercatori, “il nostro sistema tiene conto di molti segnali per cercare di fornire alle persone annunci a cui saranno maggiormente interessate”.
Aleksandra Korolova, professoressa di informatica e affari pubblici a Princeton e coautrice della ricerca del 2019 e del 2021, ha dichiarato a The Intercept di rifiutare l’idea che l’apparente pregiudizio algoritmico possa essere spiegato riflettendo solo ciò che le persone realmente vogliono, perché è impossibile confutare. “È impossibile dire se gli algoritmi di Meta riflettono effettivamente una vera preferenza di un individuo, o stanno semplicemente riproducendo pregiudizi nei dati storici su cui sono addestrati gli algoritmi, o stanno ottimizzando le preferenze riflesse nei clic piuttosto che nelle azioni previste nel mondo reale.”
L’onere di dimostrare che la pubblicazione degli annunci di Facebook riflette le preferenze del mondo reale e non i pregiudizi razzisti, ha detto, spetta a Facebook.
Ma Korolova ha anche osservato che, anche se gli annunci universitari a scopo di lucro vengono indirizzati in modo sproporzionato agli utenti neri di Facebook a causa delle cifre effettive di iscrizione, rimane un’obiezione morale e sociale a tale sistema. “La società ha ritenuto che alcune categorie pubblicitarie siano così importanti che non si dovrebbe lasciare che le tendenze o le preferenze storiche si propaghino in azioni future”, ha affermato. Sebbene diverse aree degli Stati Uniti possano essere state a maggioranza nera o bianca nel corso degli anni, nascondere gli annunci di proprietà nei “quartieri bianchi” agli acquirenti neri, ad esempio, è illegale, nonostante le tendenze storiche.
A parte le considerazioni etiche sull’incoraggiamento sproporzionato dei suoi utenti neri a iscriversi a college a scopo di lucro, gli autori suggeriscono che Facebook potrebbe creare responsabilità legale anche per se stesso. “Le opportunità educative godono di tutele legali che vietano la discriminazione razziale e possono applicarsi alle piattaforme pubblicitarie”, avverte il documento.
Korolova ha affermato che, negli ultimi anni, “Meta ha compiuto sforzi per ridurre i pregiudizi nei propri sistemi di pubblicazione degli annunci nei settori dell’edilizia abitativa, dell’occupazione e del credito – l’edilizia abitativa come parte dell’accordo del 2022 con il Dipartimento di Giustizia, e l’occupazione e il credito su base volontaria, forse per prevenire azioni legali basate sul lavoro che ha mostrato discriminazione nella pubblicazione di annunci di lavoro.
Ma ha aggiunto che, nonostante anni di ricerche sui pregiudizi algoritmici apparentemente radicati nei prodotti dell’azienda, “Meta non si è impegnata direttamente con noi e non sembra aver esteso i propri sforzi per affrontare i pregiudizi nella pubblicazione degli annunci a un insieme più ampio di domini che riguardano la vita. opportunità e temi socialmente importanti”.