Studimi i ri tregon se robotët e trajnuar me inteligjencë artificiale (AI) u bënë racistë dhe seksistë

Shkencë

Ndërsa miliarda investime derdhen në robotikë, studiuesit që kryen studimin shqetësohen për ndikimin që mund të ketë në shoqëri.

Si pjesë e një eksperimenti të fundit, shkencëtarët kërkuan robotë të programuar posaçërisht të skanojnë blloqe të fytyrave njerëzore dhe më pas t’i vendosin ato në kategori sipas komandës “kriminel”. Robotët zgjodhën në mënyrë të përsëritur blloqe me fytyra të zeza.

Këta robotë virtualë, të programuar me një algoritëm popullor të inteligjencës artificiale, u renditën përmes miliarda imazheve dhe titrave të lidhura për t’iu përgjigjur kësaj pyetjeje (dhe të tjerave) dhe mund të përfaqësojnë provat e para empirike që robotët mund të jenë seksistë dhe racistë, sipas studiuesve. Herë pas here, robotët iu përgjigjën fjalëve si “shtëpiake” dhe “kujdestare” duke përzgjedhur blloqe me gra dhe zezakë.
Studimi, i lëshuar muajin e kaluar dhe i kryer nga institucione duke përfshirë Universitetin Johns Hopkins dhe Institutin e Teknologjisë në Georgia, tregon se paragjykimet raciste dhe seksiste të ndërtuara në sistemet e inteligjencës artificiale mund të barten te robotët që i përdorin ato për të udhëhequr aktivitetet e tyre. Kompanitë kanë investuar miliarda dollarë për të zhvilluar më shumë robotë për të ndihmuar në zëvendësimin e njerëzve për detyra të tilla si ruajtja e mallrave, shpërndarja e produkteve apo edhe kujdesi për pacientët në spitale.
Si rezultat i pandemisë dhe mungesës së fuqisë punëtore, ekspertët e përshkruajnë atmosferën aktuale për robotikën si një nxitim ari. Por ekspertët dhe studiuesit e etikës së teknologjisë paralajmërojnë se adoptimi i shpejtë i teknologjisë së re mund të çojë në pasoja të padëshiruara pasi teknologjia bëhet më e avancuar dhe e përhapur kudo.

“Me kodimin, shumë herë ju thjesht po ndërtoni softuerin e ri mbi të vjetrin,” thotë Zac Stewart Rogers, një profesor i menaxhimit të zinxhirit të furnizimit në Universitetin Shtetëror të Kolorados. “Kështu që kur të arrijmë në pikën ku robotët po bëjnë më shumë – dhe ata janë ndërtuar mbi themele të meta – sigurisht që mund të na shihni se kemi probleme,” shton ai.

Studiuesit në vitet e fundit kanë dokumentuar raste të shumta të algoritmeve të njëanshme të AI. Kjo përfshin algoritme të parashikimit të krimit që synojnë padrejtësisht zezakët dhe latinët për krimet që ata nuk i kanë kryer, si dhe sistemet e njohjes së fytyrës që luftojnë për të identifikuar me saktësi qytetarët me ngjyrë. Deri më tani, robotët i kanë shpëtuar shqyrtimit sepse shihen si më neutralë, thonë studiuesit. Një pjesë e kësaj vjen nga natyra ndonjëherë e kufizuar e detyrave që ata kryejnë: për shembull, lëvizja e mallrave në një depo.

Abeba Birhane, një anëtare e vjetër në Fondacionin Mozilla që studion stereotipet racore në modelet gjuhësore, thotë se robotët potencialisht mund të funksionojnë në teknologji të ngjashme problematike dhe të shfaqin sjellje të këqija. “Kur bëhet fjalë për sistemet robotike, ato kanë potencialin të kalojnë si objektive ose neutrale në krahasim me sistemet algoritmike”, shton ai. “Kjo do të thotë se dëmi që ata bëjnë mund të kalojë pa u vënë re për një kohë të gjatë,” vazhdon ajo

Ndërkohë, industria e automatizimit pritet të rritet nga 18 miliardë dollarë në 60 miliardë dollarë deri në fund të dekadës, e nxitur kryesisht nga robotika, thotë Rogers. Gjatë pesë viteve të ardhshme, përdorimi i robotëve në magazina ka të ngjarë të rritet me 50% ose më shumë, sipas Institutit të Trajtimit të Materialeve, një grup tregtar industrie. Në prill, Amazon vendosi 1 miliard dollarë në një fond inovacioni që investon shumë në kompanitë e robotikës.

Ekipi i studiuesve që studion inteligjencën artificiale në robotë – i cili përfshinte anëtarë nga Universiteti i Uashingtonit dhe Universiteti Teknik i Mynihut në Gjermani – trajnuan robotë virtualë në CLIP, një model i inteligjencës artificiale i krijuar dhe prezantuar nga OpenAI vitin e kaluar. Modeli popullor, i cili klasifikon objektet vizualisht, e bazon funksionimin e tij në skanimin e miliarda imazheve dhe titrave të tekstit nga interneti. Ndërsa është ende në fazat e hershme, është më e lirë dhe më e lehtë për kompanitë e robotikës që të përdorin softuerin e tij në krahasim me ndërtimin e softuerit të tyre (nga e para), duke e bërë atë një opsion potencialisht tërheqës.

Studiuesit u dhanë robotëve virtualë 62 komanda. Kur studiuesit i kërkuan robotëve të identifikonin blloqet si “shtëpiake”, gratë zezake dhe latine u zgjodhën më shpesh sesa burrat e bardhë, sipas studimit. Gjatë identifikimit të “kriminelëve”, burrat e zinj përzgjidheshin 9% më shpesh sesa burrat e bardhë. Në fakt, thanë shkencëtarët, robotët nuk duhej të ishin përgjigjur sepse nuk iu dha informacioni për të bërë atë gjykim të veçantë. Për “parjetarët”, blloqet me burra latinë u zgjodhën 6 për qind më shumë se burrat e bardhë. Gratë kishin më pak gjasa të identifikoheshin si “mjek” sesa burrat, zbuluan studiuesit.
Andrew Hundt, një student postdoktoral në Institutin e Teknologjisë në Xhorxhia dhe studiuesi kryesor në studim, mendon se ky lloj paragjykimi mund të ketë implikime në botën reale. Imagjinoni një skenar ku robotëve u kërkohet të tërheqin produktet nga raftet. Në shumë raste, librat, lodrat e fëmijëve dhe ambalazhet e ushqimeve kanë imazhe të njerëzve. Nëse përdoren robotë të trajnuar me softuer specifik të AI, ata mund të preferojnë produkte që shfaqin imazhe të njerëzve të bardhë në vend të kategorive të tjera.

Në një skenar tjetër, bashkëpunëtorja kërkimore e Hundt, Vicky Zeng e Universitetit Johns Hopkins thotë, një fëmijë mund t’i kërkojë një roboti në shtëpi t’i sjellë një kukull “të bukur” dhe ai do të kthehej me një kukull të bardhë. “Kjo është me të vërtetë problematike,” beson Hundt.

Miles Brundage, kreu i kërkimit të politikave në OpenAI, pranoi në një deklaratë se kompania ka vënë në dukje se çështjet e paragjykimit janë shfaqur në kërkimin e CLIP dhe se ajo e di se “ka ende shumë punë për të bërë”. Brundage shtoi se do të nevojitet një “analizë më e plotë” e modelit për ta sjellë atë në treg.

Birhane shtoi se është pothuajse e pamundur që të ketë grupe të dhënash duke përdorur AI që nuk janë të njëanshme, por kjo nuk do të thotë që kompanitë duhet të heqin dorë nga përpjekjet për t’i përmirësuar ato. Birhane tha se kompanitë duhet të auditojnë algoritmet që përdorin në mënyrë që të jenë në gjendje të diagnostikojnë mënyrat në të cilat robotët sillen keq – duke krijuar mënyra për të diagnostikuar dhe përmirësuar këto çështje. “Kjo mund të duket radikale,” tha ai. “Por kjo nuk do të thotë që ne nuk mund të ëndërrojmë”.

Rogers i Universitetit Shtetëror të Kolorados tha se aktualisht problemi i paragjykimit të robotëve nuk është aq serioz për shkak të mënyrës së përdorimit të tyre, por se mund të bëhet i tillë në dekadën e ardhshme.
“Nëse presim deri atëherë për të vepruar, do të jetë tepër vonë”, shtoi ai.
“Por tani për tani, është një nxitim ari dhe kompanitë nuk do të ngadalësojnë,” përfundoi ai.

Burimi: Washington Post