Alexandria Ocasio-Cortez říká, že algoritmy mohou být rasistické. Tady je důvod, proč má pravdu.

  • Vova Krasen
  • 0
  • 3199
  • 515

Minulý týden se nově zvolená americká reprezidentka Alexandrie Ocasio-Cortez dostala na titulky, když v rámci čtvrté výroční události MLK Now uvedla, že technologie a algoritmy rozpoznávání obličeje „mají vždy přeložené tyto rasové nerovnosti, protože algoritmy jsou stále vytvářeny lidskými bytostmi a tyto algoritmy jsou stále navázány na základní lidské předpoklady. Jsou prostě automatizované. A automatizované předpoklady - pokud neopravíte zkreslení, pak to jen automatizujete. “

Znamená to, že algoritmy, které jsou teoreticky založeny na objektivních pravdách matematiky, mohou být „rasistické“? A pokud ano, co lze udělat pro odstranění tohoto zkreslení? [11 nejkrásnějších matematických rovnic]

Ukazuje se, že výstup z algoritmů může skutečně vést k předpojatým výsledkům. Vědci dat říkají, že počítačové programy, neuronové sítě, algoritmy strojového učení a umělá inteligence (AI) fungují, protože se učí, jak se chovat z dat, která jsou jim dána. Software je napsán lidmi, kteří mají zaujatost, a údaje o tréninku generují také lidé, kteří mají zaujatost.

Dvě fáze strojového učení ukazují, jak se toto zkreslení může vplížit do zdánlivě automatizovaného procesu. V první fázi, ve fázi školení, se algoritmus učí na základě souboru údajů nebo na základě určitých pravidel nebo omezení. Druhou fází je inferenční fáze, ve které algoritmus aplikuje to, co se naučil v praxi. Tato druhá fáze odhaluje předpětí algoritmu. Například, pokud je algoritmus vyškolen s obrázky pouze žen, které mají dlouhé vlasy, pak si bude myslet, že někdo s krátkými vlasy je muž.

Google se nechvalně vzpálil v roce 2015, kdy Fotky Google označily černé lidi za gorily, pravděpodobně proto, že to byly jediné bytosti tmavé pleti v tréninkové sadě.

A zkreslení se může vplížit mnoha cestami. „Běžnou chybou je školení algoritmu pro předpovědi na základě minulých rozhodnutí předpojatých lidí,“ řekla Sophie Searcy, vedoucí vědecká pracovnice v oblasti datového vzdělávání, výcvikového kádru Metis. "Pokud udělám algoritmus pro automatizaci rozhodnutí, která dříve učinila skupina úvěrových úředníků, mohl bych se vydat na snadnou cestu a vycvičit algoritmus na minulá rozhodnutí těchto úvěrových úředníků. Ale pak, samozřejmě, pokud byli tito úvěrové úředníci zaujatí, pak algoritmus, který buduji, bude v těchto předsudcích pokračovat. “

Searcy citovala příklad COMPAS, prediktivního nástroje používaného napříč americkým systémem trestního soudnictví k odsouzení, který se snaží předvídat, kde k zločinu dojde. ProPublica provedl analýzu COMPAS a zjistil, že po kontrole dalších statistických vysvětlení tento nástroj přeceňoval riziko recidivy černých obžalovaných a důsledně podceňoval riziko pro bílé obžalované.

Searcy řekl, že v zájmu boje proti algoritmickým předsudkům by inženýři a vědci v oblasti dat měli stavět rozmanitější datové soubory pro nové problémy a také se snažit porozumět a zmírnit předpojatost zabudovanou do stávajících datových sad..

V první řadě je třeba říci, že Ira Cohen, datový vědec v analytické společnosti Anodot, by měl mít školicí set s relativně jednotným zastoupením všech typů populace, pokud trénuje algoritmus pro identifikaci etnických nebo genderových atributů. „Je důležité představit dostatek příkladů z každé skupiny obyvatelstva, i když jsou v celé zkoumané populaci menšinou,“ řekl Cohen. Nakonec Cohen doporučuje zkontrolovat zkreslení na testovací sadě, která zahrnuje lidi ze všech těchto skupin. "Pokud je přesnost pro určitou rasu statisticky významně nižší než u jiných kategorií, algoritmus může mít zkreslení a vyhodnotil bych údaje o tréninku, které se pro něj použily," řekl Cohen LiveScience. Pokud například algoritmus dokáže správně identifikovat 900 z 1 000 bílých tváří, ale správně detekuje pouze 600 z 1 000 asijských tváří, může mít algoritmus předpojatost „proti“ Asiatům, Cohen dodal.

Odstranění zkreslení může být pro AI neuvěřitelně náročné.

Dokonce ani Google, považovaný za předchůdce komerční AI, zřejmě nemohl přijít s komplexním řešením svého gorilího problému od roku 2015. Wired zjistil, že namísto nalezení způsobu, jak svým algoritmům rozlišit mezi lidmi barvy a gorily, Google jednoduše zablokoval jeho algoritmy rozpoznávání obrazu z identifikace goril vůbec.

Příkladem společnosti Google je dobrá připomínka, že školení softwaru AI může být obtížné cvičení, zejména pokud software není testován ani školen zástupcem a různorodou skupinou lidí.

  • Umělá inteligence: Přátelská nebo děsivá?
  • Super inteligentní stroje: 7 robotických budoucnosti
  • 10 bláznivých nových dovedností, které roboti vyzvedli v roce 2018

Původně publikováno dne .




Zatím žádné komentáře

Nejzajímavější články o tajemstvích a objevech. Spousta užitečných informací o všem
Články o vědě, prostoru, technologii, zdraví, životním prostředí, kultuře a historii. Vysvětlete tisíce témat, abyste věděli, jak všechno funguje