In collaborazione con |
Uno studio del MIT ha dimostrato che se dai a un algoritmo una foto ritagliata di una donna, anche una donna famosa come la rappresentante degli Stati Uniti Alexandria Ocasio-Cortez, il 53% delle volte la completerà automaticamente con un bikini scollato
C’è uno studio fatto di recente dal MIT di Boston (potete leggerlo qui) che riguarda algoritmi, intelligenza artificiale, donne in costume da bagno e una deputata democratica statunitense. Lo studio, piuttosto inquietante, ci mostra che se a un algoritmo fornisci una foto di un uomo ritagliata proprio sotto il collo, il 43% delle volte lo completerà automaticamente facendogli insossare un abito. Se dai allo stesso algoritmo una foto ritagliata di una donna, anche prendendo una rappresentante di una forza politica come la democratica Alexandria Ocasio-Cortez, il 53% delle volte l’algoritmo completerà automaticamente l’immagine facendole indossare un bikini scollato.
Dopo che sono state sollevate preoccupazioni su Twitter, i ricercatori hanno rimosso dal documento di ricerca l’immagine generata dal computer della Cortez in un costume da bagno.
Algoritmi non supervisionati dall’uomo
Si tratta, bene inteso, di algoritmi che utilizzano una modalità di apprendimento completamente non supervisionato, il che significa che non hanno bisogno che gli umani etichettino le immagini. Una novità del 2020, i precedenti algoritmi utilizzavano principalmente l’apprendimento supervisionato, che prevedeva che una persona inserisse manualmente immagini etichettate: foto di gatti con l’etichetta “gatto” e foto di bambini con l’etichetta “bambino”.
Lo studio dimostra quindi che l’Intelligenza Artificiale ha “appreso” come dovrebbe essere l’aspetto di una donna tipica consumando un set di dati online che conteneva molte foto di donne seminude e da qui ha automaticamente imparato che anche Alexandria Ocasio-Cortez che è donna, deve essere rappresentata in bikini.
Uno dei molti bias dell’intelligenza artificiale e a perdere sono le donne
Riflettendoci non si tratta di un problema di poco conto, perchè ancora una volta ci mostra quanti bias ci sono alla base dell’intelligenza artificiale e quanto le donne ne escano peggio degli uomini. Uno studio precedente sempre del MIT chiamato “Gender Shades” ha verificato l’accuratezza di alcuni prodotti di riconoscimento facciale ed è arrivato alla conclusione che che alcune etnie e gruppi sono trattati in maniera più imprecisa rispetto ad altri. Dato che gli algoritmi di questi sistemi si basavano su soggetti di tipo machile bianco, la ricerca ha dimostrato che il riconoscimento era accurato al 99% per gli uomini bianchi e solo del 34% per le donne dalla carnagione scura.
Un altro esempio famoso è quello del software di reclutamento del personale di Amazon: il bias privilegiava le assunzioni maschili. Addirittura il sistema escludeva la parola donna e ci sono voluti anni per rendersi conto dell’errore e molti tentativi per correggerlo.
Tornado agli algoritmi per immagini generati senza la supervisione umana, sono utilizzati anche dalle piattaforme digitali per i colloqui di lavoro, e ben si capisce quanto possa essere discriminatorio nei confronti delle donne rappresentate in bikini. E allora il caso della Cortez diventa solo una punta dell’iceberg e a patire le conseguenze sono un po’ tutte le donne.