Machine learning is just statics.
On steroids. Lots and lots of steroids.
Ilya Sutskever (suosnivač i nekadašnji naučnik OpenAI), 2022.
Ilya Sutskever (suosnivač i nekadašnji naučnik OpenAI), 2022.
Svet se za kratko vreme korenito transformisao, tako da mnogi, u nastojanju da misle novonastalu situaciju, počinju da govore o supstancijalno bitno drugom svetu, o svetu koji odlikuje nesupstancijalnost, nazivajući ga, pod dominantnim uticajem digitalnih tehnologija, sve češće virtuelnim i tako nastoje da, s jedne strane, opravdaju stari svet, time što će ga konzervisati I hermetički sačuvati pod staklenim zvonom, a da u isto vreme njemu suprotstave različite modalne svetove. Za mnoge, ovaj fenomen, koje karakteriše kompresija prostora i vremena, označava potpuno novu epohu ljudske egzistencije. Priroda rada, potrošnje i društvene interakcije se menjaju.
Čini se da, ipak, postoje mnogi kauzalni odnosi, čije posledice nastojimo da pratimo u projektu “Rodni (dis)balans revolucije 5.0: Tehnofeminizam i umetnost”, kao i u okviru konferencije “Kodiranje pogleda -Tehnologija, umetnost i društvo: Feminističke perspektive” kao centralnog dela ovog projekta, koja će biti održana u Muzeju savremene umetnosti, Beograd, 4. i 5. novembra uz učešće velikog broja akademskih istraživačica i istraživača, aktivistkinja, profesorki, umetnica i teoretičarki umetnosti iz zemlje i inostranstva.
Iako se I dalje vodi debata o tome da li Industrijska revolucija 4.0. još uvek predstavlja aktuelni razvojni koncept, Evropska unija je marta 2020. godine donela novi strateški dokument , u kome se navode ciljevi i priorideti do 2030. godine, i u kome se govori o Revoluciji 5.0. kao novoj razvojnoj paradigmi Evrope. U dokumentu iz 2022. godine, na kome je radila nezavisna ekspertska grupa ESIR koju je formirala Evropska komisija –“Industry 5.0: A Transformative Vision for Europe – Governing Systemic Transformations towards a Sustainable Industry, ESIR Policy Brief No. 3, European Commission, Directorate-General for Research and Innovation, Directorate G – Common Policy Centre”,[1] postoji i poglavlje koje nosi vrlo indikativan naziv: „Industry 4.0 is not the right framework to achieve Europe’s 2030 goals“.
No, najviše smo se odlučili za Revoluciju 5.0. jer označava i korektivni pogled na obeležja Industrijske revolucije 4.0. koju neki, zapravo, smatraju tekućom, a koja počiva na automatskim tehnologijama, veštačkoj inteligenciji, mašinskom učenju. Kreatori evropskih politika u paradigmi Industrija 5.0 pre svega nude strateški otklon od postojeće prakse neoliberalnog kapitalizma i njegovog isključivog fokusa na proizvodnju za profit i „primat akcionara“, i nasuprot tome, smatraju nužnim usmeravanje ka uravnoteženijem pogledu na vrednosti, njihovo određivanje kroz dugoročne vremenske okvire (nasuprot odmah i sve) i multivalentnom razumevanju koncepta kapitala, podjednako ljudskog kako i prirodnog, i naravno finansijskog. Te termin koristimo imajući u vidu posebno reakciju na postojeće konsekvence, uslovno rečeno, posledica Industrijske revolucije 4.0.
Centralna tema projekta je zato kodiranje pogleda korišćenjem novih optičkih medija i računarskih programa, (re)konstrukcija ženskog identiteta u kontekstu pojave novih tehnologija, te prenošenje i multipliciranje nejednakosti i predrasuda koje su postojale i koje postoje u društvu, a koje dobijaju nove, eksponincijalne forme u dominantnim formama bivstovanja.
***
Jedan od važnih događaja, na koji se pozivamo povodom ovog projekta, a koji je ukazao na nekontrolisane konsekvence savremene tehnologije, desio se 2015. godine, kada je softverski inženjer Džeki Alsin (Jacky Alcine) otkrio da su algoritmi za prepoznavanje slika u Google pretraživaču za fotografije, klasifikovali njegove Afroameričke prijatelje kao „gorile”. Događaj koji je istakao ne samo probleme u vezi sa brutalno iskrivljenom, rasističkom kategorizacijom, već je i dramatično ukazao da ljudsko dostojanstvo u celini može ozbiljno biti ugroženo nekontrolisanom upotrebom novih tehnologija.
Kao odgovor na ovako dramatično pogrešnu kategorizaciju, navedena kompanija jednostavno je blokirala svoje algoritme za prepoznavanje slika gorila uopšte. Odnosno, nije urađeno ništa povodom korekcije samog programa.
No, ovakav primer distorzije stvarnosti realizovan nekontrolisanom obradom podataka, uticao je na niz istraživanja, među kojima se ističe istraživačka studija “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification” autorki Džoj Buolamvini (Joy Bulamwini), istraživačice grupe Civic Media MIT Media Lab-a i Timnit Gebin iz 2018. godine,[2] koja otkriva procese na kojima programi veštačke inteligencije generišu ovako pogrešne predstave na osnovu roda i boje kože. Naime, njihovo ispitivanje softvera za analizu lica pokazalo je neznatno prisustvo stope greške od samo 0,8 odsto za svetle muškarce, ali čak 34,7 odsto za tamnopute žene.
Ovi nalazi su pokrenuli pitanja o principima na kojima počiva mašinsko učenje, te istakli potrebu analize načina procesuiranja ogromnih skupova podataka, kao i podataka koji se koriste. Po Džoj Buolamvini „… ono što je ovde zaista važno jeste metoda i kako se ta metoda primenjuje na druge aplikacije“, dodajući „ (da se) ne radi se samo o kompjuterskom pogledu.”[3]
Istovremeno, Brajan Kristijan (Brian Christian), autor poznatih knjiga „Algoritmi po kojima treba živeti“ (Algorithms to live by, The Computer Science of Human Decisions, 2016)” i „Problem poravnanja“ (The Alignment Problem, 2020), navodi primedbe korisnika najnovije generacije IPhone-a, koje ukazuju na limitarnost njihovih kamera da fotografišu sneg tokom noći. Jedan od jedanaest nivoa obrade slika, odnosno mašinskog učenja ovog modela, prepoznaje sneg kao vizuelni šum i potpuno ga eliminiše. Čuveni citat Pola Sezana „Moraš da požuriš ako želiš nešto da vidiš, sve nestaje“ danas zvuči proročanski.
Čovek je sklon predrasudama. Ali sistemi veštačke inteligencije te predrasude još više osnažuju. I u tom procesu feministički princip intersekcionalnosti, koji diskriminaciju analizira kao složen sistem u kome su različiti oblici diskriminacije zasnovani na različitim kategorijama identiteta (roda, rase, klase, seksualne orijentacije itd), osnova je kritičkog i analitičkog sagledavanja. Ovi identiteti su međusobno povezani i utiču jedni na druge, te se zato i u razmatranjima diskriminacije moraju sagledavati skupa. I zato Buolamvini dodaje “Zaista se nadam da će ovo podstaći više rada na sagledavanju (drugih) dispariteta.“
U nagrađivanoj knjizi „Invisible Women: Data Bias in World Designed for Men” (2021)[4] istraživačica i feministička aktivistkinja, Kerolajn Krijado Peres (Caroline Criado Perez), daje vredan doprinos globalnoj debati o rodnoj diskriminaciji koja proističe iz statističkih modela koji služe za obuku programa veštačke inteligencije. Prema ovoj autorki, nedovoljna zastupljenost žena, kao 50% stanovništva u bazama podataka implicira da je zapis ljudske istorije pristrasan. Dokumentujući principe koji dovode do ženske „nevidljivosti“ Krijado Peres zasniva analizu ovog problema na iscrpnom istraživanju i pažljivo sprovedenim anketama, kojima ilustruje događaje iz realnog života koji utiču na rodnu pristrasnost podataka, prenošenje i učvršćivanje nejednakosti, te na kompromitovanje objektivnih kriterijuma na kojima počivaju algoritmi veštačke inteligencije.
Kako se većina aktuelnih aplikacija zasniva na podacima mašinskog učenja, društvo je zapravo zasnovano na rodno mnogo pristrasnijim informacijama nego što se to uobičajeno može videti.
Prepoznajući ovaj problem, Unesko je 2019. u partnerstvu sa Vladom Savezne Republike Nemačke i Udruženjem EQUALS Skills (za promovisanje rodne ravnoteže u tehnološkom sektoru), objavio studiju I’d blush if I could: closing gender divides in digital skills through education koja adresira pitanje rodnog jaza u digitalnom sektoru i zajedničke strategije za smanjenje ovog jaza kroz obrazovanje.[5] Naslov studije reprodukuje standardni odgovor virtuelnog asistenta Siri na uvredu: „Pocrvenela bih da mogu“. U studiji se navode i zanimljivi, ali paradoksalni rezultati da zemlje sa najvišim nivoom rodne ravnopravnosti, kao npr. zemlje Evrope, imaju niže stope prisustva žena na postdiplomskim studijama računarstva i srodnim oblastima, dok zemlje sa niskim nivoom rodne ravnopravnosti, kao što su arapske zemlje, imaju najveći udeo žena u obrazovnim studijama novih tehnologija. Npr. u Belgiji samo 6% IKT diplomaca (Informativno komunikacione tehnologije). predstavljaju žene, dok u Ujedinjenim Arapskim Emiratima žene čine 58% diplomaca IKT studija.
No, za našu temu još su važnija istraživanja koja se odnose na virtuelne asistente. Naime, ženska imena i glasovi preovlađuju kao virtuelne asistentkinje, poput Amazonove Alekse, Apple-ove Siri, i Microsoft-ove Cortine, sa ugrađenim submisivnim obrascem reakcija. U izveštaju Uneska se, na primer, navodi da kada korisnik kaže Aleksi: „Zgodna si“, automatski odgovor koji se dobija je „Lepo od vas što ste to rekli!” ili još dramatičnije primere seksualno zasnovanih uvreda i pokornih odgovora, direktno ugrađujući rodne predrasude društva u tehnološke proizvode.
„Kako je glas većine virtualnih asistenata ženski, to nam šalje signal da su žene uslužne, poslušne i voljne da udovolje, dostupne na dodir dugmeta ili direktnu glasovnu komandu poput „Hej“ ili „Okej“, tvrdi se u izveštaju.[6]
Virtuelni asistenti se pokoravaju komandama i odgovaraju na pitanja, ćime pojačavaju rodne predrasude o potčinjenosti žena i njihovoj saglasnosti da se prema njima postupa neprikladno. UNESKO upozorava da prisustvo ovako kodiranih virtuelnih asistenata u domovima širom sveta nosi opasnost dodatnog uticaja na interakcije sa ženama, i ističe da što se više uloga žena izjednačava sa pomoćnicama, to će uloga žena u realnom svetu više biti prihvaćena kao uslužnih i submisivnih asistentkinja bez prava glasa.
Ugrađivanje predrasuda u procese mašinskog učenja
Predrasude su posledica nedostatka svesti o postojanju predrasuda, i u ovom slučaju nedostatka učešća različitih glasova u timovima za razvoj veštačke inteligencije. Ali ne samo u kontekstu većeg prisustva žena, već prvenstveno više različitih glasova, odnosno mišljenja iz različitih disciplina. Jer, oblast veštačke inteligencije je u suštini multidisciplinarna. To zahteva sam razvoj tehnologije kako bi se rešili praktični problemi koji se odnose na funkcionalnost sistema i neophodne kritičke, ali i etičke i društvene refleksije, zadatak koji zahteva analize metodologije i prioriteta, a kome se može pristupiti samo kroz dijalog tehničkih nauka i humanistike.
Da bismo bolje razumeli ovu temu, kratko ćemo se osvrnuti na izvore rodnih predrasuda u sistemima veštačke inteligencije.
Rešavanje zadataka koje ljudi obavljaju intuitivno, i sa relativnim stepenom subjektivnosti, predstavljalo je polje ranog razvoja veštačke inteligencije. No, nekoliko pokušaja koji su uključivali formalne jezike, podržane pravilima logičkog zaključivanja, imalo je za rezultat samo ograničeni uspeh, što je ukazalo na potrebu za sistemima koji mogu da generišu sopstveno znanje izvlačenjem obrazaca iz dostupnih podataka, tj. „učenjem“ iz podataka, bez dobijanja izričitih instrukcija. Ovaj proces se obično naziva „mašinskim učenjem“, termin nastao 1959. godine, kao podoblast veštačke inteligencije koja je trenutno svakako najveća po broju razvnoj istraživača i aktera.
Proces učenja ovih sistema pod uticajem je mnogih faktora koji mogu, a i ne moraju biti ispitivani u fizičkom svetu i podložni efektima spoljnih izvora. Najbolja tehnika mašinskog učenja koja danas rešava ove izazove jeste “deep learning” tehnika, koja uvodi složene reprezentacije, često nazvanim „duboke neuronske mreže“, koji se izražavaju u terminima drugih, jednostavnijih predstava organizovanih na nekoliko nivoa.
Pristranosti se obično pripisuju pristranim bazama podataka. Ali predrasude se mogu pojaviti i pre, zbog odluka programera (atributi i varijable uključene u model čak određuju odabrane podatke). U slučaju predrasuda koje se odnose na podatke, dva su glavna izvora: prikupljeni podaci ne predstavljaju odgovarajuće karakterteristike određenog objekta, ili podaci odražavaju postojeće predrasude u društvu.
Predrasude mogu biti i rezultat grešaka u označavanju baze podataka koja prethodi procesu mašinskog učenja i generisanja podataka. Pristrasnosti u modelima se generalno nalaze u kasnijoj fazi mašinskog učenja, što otežava retroaktivno utvrđivanje njegovog porekla i zato se teško može eliminisati.
Dok je nedavni napredak u tehnologijama veštačke inteligencije možda anticipirao pozitivnije društvene efekte, ipak sadašnji razvoj pokazuje nove obrasce rasizma i diskriminacije, proistakle iz neizbalansiranih uzoraka podataka i načina njihovog prikupljanja, označavanja i obrade.
U nameri ublažavanja i smanjenja ovakvih predrasuda u sastavima veštaćke inteligencije, većina predloga za njihovo otklanjanje dolazi iz sfere društvenih nauka. No tim predlozima, usled nedovoljnog poznavanja konstrukcije i procesa samog tehničkog sistema, nedostaje njihova praktična primenivost. Predlozi se kreću od edukacije javnosti i razumevanja tehničkih sistema informisanja javnosti o pozadini tehničkih sistema
Ipak treba istaći da danas postoje određeni zakonodavni okviri u ovoj oblasti. SAD i Kina predstavljaju sile u samom razvoju napredne tehnologije. No, EU prepoznaje potrebu adekvatne zakonodavne regulacije , te ovde svakako treba istaći značaj donošenja prvog zakona o veštačkoj inteligenciji „Artificial Intelligence Act“[7] 12. jula 2024. godine, sa ciljem zaštite ljudskih prava, demokratije, vladavine prava i održivosti životne sredine od visokorizične veštačke inteligencije. Pravila za veštačku inteligenciju postavljena su na osnovu njenih potencijalnih rizika i nivoa performansi, te se zakonom zabranjuju određene primene veštačke inteligencije koje ugrožavaju prava građana. Zabranjena je i ograničena upotreba veštačke inteligencije za niz praksi koje se smatraju neetičkim ili koje krše osnovna ljudska prava, kao što su klasifikacija pojedinaca po etničkoj i verskoj pripadnosti, seksualnoj orijentaciji, društveno bodovanje ili prepoznavanje lica, prognostički rad policije (kada se zasniva isključivo na kreiranju profila pojedinaca ili proceni njihovih karakteristika). Korišćenje veštačke inteligencije koja koristi ranjivost pojedinaca je takođe zabranjena.
I Ada Lovelace Institut (ALI) daje predlog regulatornih protokola pomoću kojih se može procenjivati usklađenost s propisima i standardima „Procenom rizika algoritma“, odnosno procenom potencijalne štete pre pokretanja sistema i „ Procenom algoritamskog uticaja“ koji sledi nakon pokretanja sistema.Nacionalni institut za standarde i tehnološka laboratorija (NIST), kao deo Ministarstva trgovine SAD-a, objavio je 2021. godine „Predlog za prepoznavanje predrasuda u veštačkoj inteligenciji“[8] uz strategiju promovisanja pouzdane VI zasnovane na konsenzusnim standardima. U zaključcima NIST izveštaja se navodi da predrasude nisu nova pojava, niti osobena samo za VI, te da je cilj identifikacija, razumevanje procesa građenja predrasuda u VI i njihovo smanjenje. No, posebno je važno da su standradi i smernice neophodne za procenu i utvrđivanje postojanja predrasuda, te da su za njihovo smanjenje potrebne tehnike koje su fleksibilne i koje se mogu primeniti u svim kontekstima.
Najzad, obratimo se na kratko i problemu revizije sistema veštačke inteligencije. Naime, po Dori Kaufman, profesorki sa Fakulteta tehničkih nauka Univerziteta Sao Paolo, Brazil, postoje dva pristupa ovom problemu koje navodi u studiji „Gender discrimination in AI models: origins and mitigation paths“.[9] Prvi se odnosi na tehničke metode koje se koriste za utvrđivanje porekla predrasuda koji generišu sistemi VI, a drugi se odnosi na operativne barijere.
Tehnike za prepoznavanje porekla predrasuda u modelima mašinskog učenja postoje.Ove tehnike analiziraju inicijalne varijable i parametre, i na temelju onoga što je identifikovano smanjuju efekte predrasude i pogrešnih klasifikacija. Tu je npr. Googleov interaktivni interfejs „What if tool“ koji generiše grafikone koji upoređuju varijable i uočene pristranosti, i IBM-ov „AIF-360“ koji identifikuje i smanjuje predrasude. Iako ovi postojeći alati još uvek nisu sasvim pouzdani, oni utiču na razumevanje problema čime unapređuju društvenu reakciju na ovaj problem.
Za podizanje svesti društva o postojanju predrasuda u VI – rasnih, rodnih, klasnih itd, komunikacijske strategije su od ključnog značaja, kao i informisanje javnosti o osnovama na kojima počivaju sistemi i logika VI. Zato se u ovom projektu bavimo komunikacionim strategijama, uključujući i umetničke strategije, koje ističu važnost ovog problema, te na moguće pravce njihovog budućeg regulisanja i savlađivanja.
***
Tekst je nastao u okviru projekta „Rodni (dis)balans revolucije 5.0: Tehnologija i feminizam“.
Projekat je podržan od strane Vlade Švajcarske, u okviru programa “Kultura za demokratiju”, koji sprovodi Hartefakt fond, Ministarstva kulture Republike Srbije, Muzeja savremene umetnosti u Beogradu, Ambasade Kraljevine Holandije u Beogradu i Ambasade Švedske u Beogradu.
[1] Videti više na https://research-and-innovation.ec.europa.eu/knowledge-publications-tools-and- data/publications/all-publications/industry-50-transformative-vision-europe_en
[2] https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
[3] Iz teksta Larry Hardesty, Study finds gender and skin-type bias in commercial artificial-intelligence systems , MIT News Office, 2018. https://news.mit.edu/2018/study-finds-gender-skin-type-bias artificial-intelligence-systems 0212 Pristupljeno 25. aprila 2024.
[4] Knjiga je objavljena i u Srbiji, u izdanju Lagune, Kerolajn Krijado Peres, Nevidljive žene: Kako podaci kroje svet po meri mušlaraca, 2021.
[5] https://unesdoc.unesco.org/ark:/48223/pf0000367416
[6] Više videti u publikaciji dostupnoj na https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1, pristupljeno 17. aprila 2024.
[7] Zanimljivo je primetiti da je Kene bio lekar, te u tom svetlu možemo razmišljati o disciplinarnim izvorima ovakve forme reprezentacije, sa mogućim uticajem cirkulacije krvi, cirkulacije ljudi u gradove, para i resursa. Jer ovi dijagrami nisu samo dijagrami protoka, već i izvora.
[8] https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft.pdf
[9] Kaufman, D “Gender discrimination in AI models: origins and mitigation paths“ u TechnoFeminism – Multi and Transdisciplinary Contemporary views on women in technology, ur. Renata Frade, str.118-120
Povezani postovi
Interviews with Selena Savić and Annet Dekker
Interview with Selena Savić (part of the Conference program „Coding the Gaze“) Link: https://www.youtube.com/watch?v=Cnk2DiN5tLI Interview with Annet Dekker (part of t
Rodne predrasude i umetnička praksa
Rodne predrasude i umetnička praksa Nismo rođeni jednaki; postajemo ravnopravni tek kao članovi grupe na temelju naše odluke da garantujemo sebi međusobno jednaka prava. H
Kratki osvrt na genezu feminističkog promišljanja odnosa roda i tehnologije
Nismo li oduvek bili kiborzi?
Anica Tucakov
Uroš Krčadinac, Kadar iz video instalacije o kentaurskom crtanju, izložba “Kentaurski crtež”, Galerija nauke i tehnike SANU, 2023. Povodom izložbenog projekta Uroša Krča
Kako rod oblikuje kulturu računarstva
Presek recentnih akademskih interesovanja Sa pojavom studija koje su se tokom 1990-ih godina i početkom 2000-ih godina organizovale oko termina kiberfeminizam ili kibernetski
Razgovori sa autorima
Vladan Joler
Vladan Joler, „Novi ekstraktivizam“ (segment), 2020. Ono što mi sada živimo je PSYOPS kapitalizam, kapitalizam psihološke manipulacije, koji se nadovezuje na surveil
