Este algoritmul Twitter rasist?

Carl și Lenny
(Credit de imagine: Fox / Future Owns)

Twitter a lansat o anchetă asupra rețelei sale neuronale, care pare a fi părtinitoare rasial. Când trageți o imagine în funcția de previzualizare a fotografiei, algoritmul favorizează în mod constant fețele persoanelor albe - afișând aproape întotdeauna o față cu piele mai deschisă și decupând oamenii negri, de asemenea, prezentați în fotografie.

Un profesor de facultate a ridicat mai întâi problema de proiectare pe Twitter, dar în legătură cu software-ul AI al Zoom. Puteți vedea tweet-ul de mai jos, care a atras atenția asupra faptului că Zoom șterge fața colegului său negru atunci când a folosit un fundal în timp ce vorbea video (pentru rezultate de design mai reușite, consultați selecția noastră de instrumente de proiectare web ).

vreo presupunere? pic.twitter.com/9aIZY4rSCX 19 septembrie 2020



Prin cursul firului , Colin Madland și-a dat seama că și Twitter nu își arăta propria față în previzualizările fotografice și lăsând-o deoparte pe cea a colegului său negru - indicând o problemă larg răspândită cu modul în care funcționează AI.

Un separat „Experiment” pe Twitter a început (vezi mai jos), în care inginerul criptografic Tony Arcieri a comparat previzualizările fotografice ale lui Mitch McConnell și Barack Obama pentru a vedea care ar fi algoritmul Twitter.

Încercând un experiment oribil ... Care va alege algoritmul Twitter: Mitch McConnell sau Barack Obama? pic.twitter.com/bR1GRyCkia 19 septembrie 2020

Arcieri și alții au editat imaginile într-o multitudine de moduri de a verifica rezultatele - inversând culorile, luminând și luminând părțile imaginilor și schimbând fundalurile. Toate încercările păreau să dovedească o prejudecată rasială bazată pe AI, Obama apărând doar în previzualizare atunci când culorile au fost schimbate.

Alți utilizatori Twitter s-au alăturat testării algoritmului, experimentând cu Lenny și Carl de la The Simpsons și chiar câini.

Am încercat cu câini. Să vedem. pic.twitter.com/xktmrNPtid 20 septembrie 2020

Twitter Liz Kelley a mulțumit tuturor pentru că a atras atenția asupra problemei , afirmând că rețeaua socială are „de făcut mai multe analize”. „Am testat pentru prejudecăți înainte de livrarea modelului și nu am găsit dovezi ale prejudecății rasiale sau de gen în testarea noastră, dar este clar că avem de făcut mai multe analize. Vom deschide sursa lucrării noastre, astfel încât ceilalți să poată revedea și replica. ”

Există în mod clar mai mult de lucru în ceea ce privește algoritmii care alimentează AI și ne bucurăm că Twitter își asumă responsabilitatea pentru problema cu software-ul său. Având în vedere că AI devine din ce în ce mai responsabilă pentru diferitele aspecte ale experiențelor noastre de zi cu zi, este vital să fie construită pentru a reflecta nuanțele complexe ale nevoilor societății. Dacă doriți să vă asigurați că designul dvs. funcționează pentru toată lumea, consultați ghidul nostru pentru design web incluziv .

Citeste mai mult: