Апстракт: Иако се вештачка интелигенција (ВИ) најчешће представља као неутралан алат, бројни су докази да она појачава родне, расне и друге пристрасности, чиме битно утиче на дискриминацију и маргинализацију. Циљ овог рада је да покушамо да анализирамо интерсекционалност (у терминима интерсекционалног феминизма, па и перспектива феминистичке периодике) у добу вештачке интелигенције, и укажемо на предности и изазове које вештачка интелигенција доноси. Типични примери су родне и расне пристрасности које се појављују у гласовним асистентима, хуманоидним роботима и алатима за запошљавање. Очигледно је да просто бројчано повећање присуства жена и мањинских група у индустрији развоја вештачке интелигенције није довољан (јер суштински не решава постојеће стање), већ је потребно изнаћи приступе који укључују промену културолошких окошталих обрасаца, односа моћи и приступа утицају.
Кључне речи: феминизам, вештачка интелигенција, интерсекционалност, алгоритми
Феминистичка вештачка интелигенција – интерсекционални приступ
Интерсекционални феминизам представља теоријски и активистички приступ који проучава начин на који различити облици дискриминације и неједнакости — као што су пол, раса, класа, инвалидитет, сексуална оријентација и друге друштвене категорије — делују заједно и утичу на положај појединаца у друштву. Појам интерсекционалности увела је америчка правница и теоретичарка Кимберли Креншо 1989. године, указујући на то да традиционални феминизам и антирасистички покрети често занемарују специфичне изазове са којима се суочавају жене које припадају више маргинализованих група, попут црних жена или жена из радничке класе. Заснива се на схватању да различити системи моћи и потчињености нису одвојени, већ међусобно испреплетани. Уместо да се анализирају посебно пол, раса или класа, интерсекционални приступ истражује како се они преклапају и обликују искуства појединаца (Crenshaw, 1989). На овај начин, интерсекционални феминизам проширује класични феминистички оквир и чини га инклузивнијим, узимајући у обзир различите друштвене и културне контексте.
У савременом друштву интерсекционални феминизам има велику улогу у обликовању јавних политика, образовних програма и друштвеног активизма. Он позива на преиспитивање институционалних структура и друштвених норми које производе неједнакост, као и на развој свеобухватних политика које узимају у обзир вишеслојност људских идентитета. На овај начин, интерсекционални феминизам доприноси изградњи праведнијег и солидарнијег друштва.
Александра Вудел и Ана Еренберг у свом раду What is Feminist AI? (2025), у неку рукупрограмском документу који настоји да дефинише и теоријски утемељи појам феминистичке вештачке интелигенције (Feminist Artificial Intelligence – FAI), полазе од постулата интерсекционалног феминизма. Оне указују да вештачка интелигенција није неутралан технолошки инструмент, већ производ друштвених структура и односа моћи у којима настаје и покушавају да дају оквир за разумевање и примену принципа феминистичке етике и друштвене правде у развоју и управљању системима вештачке интелигенције. Ауторке истичу да је неопходно преместити тежиште са техничких на структурне и културне аспекте развоја и производње технологије, јер су дискриминаторне праксе уграђене у саме алгоритме као и подаци који одражавају друштвене предрасуде. У том смислу, феминистичка вештачка интелигенција се заснива на трима кључним стубовима:
1. Интерсекционалне феминистичке вредности – признавање комплексности идентитета и међусобне испреплетености категорија пола, расе, класе, инвалидитета, старости и географије;
2. Анализа моћи и структура – разумевање ВИ као друштвено-технолошког система у којем се репродукују постојеће неједнакости;
3. Трансформативни циљеви – потреба да се вештачка интелигенција не само „поправља“ ради смањења пристрасности, већ да постане инструмент друштвене промене заснован на принципима једнакости, слободе и правде (Wudel, Ehrenberg, 2025).
Ауторке праве јасну разлику између концепта феминистичке вештачке интелигенције и традиционалних приступа етици или ESG (Environmental, Social, Governance) моделима у технолошком сектору. За разлику од њих, феминистичка вештачка интелигенција не нуди искључиво техничке корекције, већ инсистира на системској промени културе, моћи и утицаја у оквиру развојних процеса. Уместо повећања пуког нумеричког удела жена и мањинских група у технолошким тимовима, феминистичка вештачка интелигенција захтева дубље преиспитивање начина на који се дефинишу проблеми, доносе одлуке и постављају приоритети у индустрији вештачке интелигенције.
Посебан значај рада огледа се у томе што ауторке повезују теоријске увиде феминизма и интерсекционалности са практичним иницијативама као што су FemAI (мрежа за унапређење феминистичких перспектива у законодавству ЕУ) и платформа MIRA, намењена процени усклађености алата вештачке интелигенције са принципима социјалне правде[1]. Тиме се феминистичка вештачка интелигенција представља као интердисциплинарни и трансформативни приступ који уједињује технолошки развој, друштвену анализу и активизам. Из тога следи да феминистичка вештачка интелигенција није ни идеолошки ни маргинални пројекат, већ кључна компонента одрживе и праведне дигиталне будућности. Без увођења интерсекционалне перспективе у развој и регулацију у области вештачке интелигенције, постоји ризик да технолошки системи наставе да репродукују и продубљују постојеће неједнакости. Имајући горе наведено у виду, увиђамо да вештачка интелигенција не изводи интерсекционалност из политичког дискурса, који је иначе најчешће усмерен на потенцијалне друштвене и економске користи – па самим тим и на корист од употребе вештачке интелигенције. Јака родна униформисаност у радној снази која развија вештачку интелигенцију доводи до стварања пристрасних интелигентних алата, јер хомогена група — претежно бели мушкараци, програмери и велики технолошки могули — уграђују сопствене пристрасности у системе вештачке интелигенције. Типични примери су родне и расне пристрасности које се појављују у гласовним асистентима, хуманоидним роботима и алатима за запошљавање. Очигледно је да просто бројчано повећање присуства жена и мањинских група у индустрији развоја вештачке интелигенције није довољан (јер суштински не решава постојеће стање), већ је потребно изнаћи приступе који укључују промену културолошких окошталих обрасаца, односа моћи и приступа утицају.
Самим тим, јављају се и опасности у области истраживања односа интерсекционалности и вештачке интелигенције у патријархалним системима, јер се у највећем односе на „проклизавање” у сферу да буду сведени на „питања жена и мањина“, уместо да буду препознати као део централне агенде развоја и управљања вештачком интелигенцијом. Интерсекционални приступ у овој области указује да решавање проблема пристрасности у области вештачке интелигенције мора бити део ширих друштвених промена које обухватају равноправност, етичност и инклузивност технолошког развоја.
(Не)прикосновеност кода – алгоритамске предрасуде
Феминистичка епистемологија већ дуже време поставља питање да ли је вештачка интелигенција заиста „родно неутрална“. Теорије које нуде киберфеминизам[2] и постхуманистички приступи критикују концепт објективности у технолошким системима, указујући на то да је машинска рационалност често уобличена према мушком моделу знања. Ова перспектива доводи до преиспитивања самих појмова истине, знања и одговорности у дигиталном добу, чиме феминистичка периодика добија улогу простора за редефинисање етичких и политичких парадигми у медијима и технологији.
Анализу односа између алгоритамске правичности и структурне неправде, ослањајући се на концепте из феминистичке политичке филозофије, посебно на теорију Ирис Марион Јанг[3], доноси рад Атосе Касирзадех, Algorithmic Fairness and Structural Injustice: Insights from Feminist Political Philosophy (2022). Ауторка тврди да се савремени приступи објективним (фер) алгоритмима, који се ослањају на статистичке метрике и дистрибутивну правду, не могу сматрати довољним, јер не обухватају системске и историјске узроке друштвених неједнакости. Она сматра да се проблем алгоритамске пристрасности не може решити искључиво техничким прилагођавањем алгоритамских модела. Фокусирање на „равномерну расподелу исхода, као што су једнаке стопе грешака или калибрације између група, занемарује чињеницу да алгоритми делују у оквиру ширих структура моћи које већ производе и одржавају неједнакости (Kasirzadeh, 2022)”. Овај приступ, према ауторки, често доводи до површне корекције где се техничке мере представљају као друштвена правда, док се стварни узроци неправде не мењају.
Касирзадех у свом раду уводи концепт структурне неправде у оквир расправе о алгоритамској објективности. Структурална неправда, по узору на Јанг, није последица појединачних грешака, већ резултат дугорочних, институционализованих образаца понашања, закона, економских интереса и друштвених односа који одређене групе стављају у подређени положај (Kasirzadeh, 2022). У овом контексту, алгоритми не само да репродукују ове структуре, већ их и учвршћују. Из тог разлога Касирзадех предлаже концепт „одговорне алгоритамске правичности“ (responsible algorithmic fairness), који захтева да процена праведности укључи анализу односа моћи, идентификацију актера који имају корист од постојећег система, и преузимање друштвене и политичке одговорности за трансформацију услова који производе неправду. Овај приступ проширује појам правичности са статистичких метрика на питање колективне одговорности и социјалне промене. У том светлу, ауторка закључује да алгоритамска правичност не сме бити схваћена као технички изазов, већ као морални и политички задатак. Фер алгоритам није онај који једнако третира све кориснике унутар неправедног система, већ онај који доприноси преобликовању самог система тако да постане праведнији.
У таквом добу, алгоритамског посредовања, феминистичка периодика се налази на прекретници напуштања наслеђа штампаних часописа (не у историјско-теоријској равни, већ као медиј) и изазова дигиталног доба. Док су штампани медији током 20. века имали кључну улогу у артикулисању женског искуства и промовисању родне равноправности, данашњи феминистички медији морају да пронађу нове облике деловања у времену аутоматизованог новинарства и дигиталних платформи. Њихов задатак је да сачувају критичку и еманципаторску функцију, али и да се прилагоде технолошким и етичким изазовима које доноси вештачка интелигенција (Fagundes-Ausani, 2024).
Уз саму промену медијума, значајна тема савремене феминистичке периодике постаје критика алгоритамске пристрасности јер открива начине на које технолошки системи могу репродуковати постојеће родне и друштвене неједнакости. Феминистички часописи и дигиталне платформе анализирају како се дискриминаторне структуре из стварног света преносе у дигиталне просторе — у моделима машинског учења, системима препорука и алгоритмима који обликују видљивост садржаја. На тај начин, критика алгоритамске пристрасности постаје не само техничко, већ и етичко и политичко питање унутар феминистичког дискурса. Морамо приметити да, помало парадоксално, алгоритамска пристрасност ВИ модела уједно јесте и алат којим феминистичка периодика делује – и критички и практично. Критички, она разобличава родне стереотипе и невидљивост жена у медијским наративима, често користећи вештачку интелигенцију за мапирање мизогиних дискурса у медијима. Практично, примењује вештачку интелигенцију као алат за оснаживање и анализу. Добар пример представља бразилски феминистички часопис AzMina, који користи вештачку интелигенцију у борби против дигиталног насиља. У сарадњи са регионалним колективима развијена је апликација за детекцију говора мржње усмереног на жене, што представља иновативан пример примене технологије у функцији јавне одговорности и родне равноправности. AzMina тако показује како се критика може претворити у активну технолошку праксу[4]. У ери вештачке интелигенције, феминистичка периодика постаје кључно место друштвеног отпора и продукције знања. Из свега реченог можемо прихватити став да се алгоритамска пристрасност не може схватити само као технички изазов, већ као културни и политички феномен који открива неједнаку расподелу моћи унутар дигиталних система. Кроз критику и иновацију, феминистички медији чувају простор за демократско, инклузивно и етичко промишљање технологије, утемељено на принципима равноправности и социјалне правде.
Интерсекционалност у развоју вештачке интелигенције више није питање етике „додате накнадно“, већ постаје полазиште за само осмишљавање технолошких система. У иновативним феминистичким пројектима, као што је Феминистички скуп података (Feminist Data Set), ауторке Керолајн Синдерс, сви кораци развоја вештачке интелигенције преиспитују се кроз призму интерсекционалности – од прикупљања и обраде података, преко означавања, избора алгоритамских приступа, до дизајнирања самог модела и начина његове примене у конкретним интерфејсима као што су чет-ботови[5]. Оваква пракса не полази од претпоставке да је довољно унапредити „родну сензитивност“ технологије, већ захтева да систем постане свестан сложености идентитета и вишеструких, преклапајућих облика потчињености и дискриминације.
Керолајн Синдерс започела је уметничко-истраживачки пројекат Feminist Data Set 2017. године, са циљем да конструише феминистички скуп података као алтернативу доминантним, често пристрасним изворима података који се користе за тренирање алгоритама. У свом приступу Синдерсова инсистира да се свака фаза развоја вештачке интелигенције мора критички испитати: ко сакупља податке, које гласове и искуства они садрже, ко врши означавање и по којим критеријумима, како се модели обучавају и за кога су дизајнирани. Циљ није само техничко унапређење тачности модела, већ политичко питање репрезентације и моћи. Тај процес се темељи на интерсекционалном феминизму као теоријском и политичком оквиру који истиче да се неједнакости по основу пола, расе, класе, сексуалности, инвалидитета, старости или мигрантског статуса не могу посматрати одвојено, већ као узајамно преплетени облици структурне неправде[6]. У том смислу, интерсекционални феминизам постаје кључан за разумевање и сузбијање алгоритамске пристрасности. Он захтева да се одлуке у развоју технологије не тестирају на „просечном кориснику“, него на потенцијалном утицају на најугроженије и најневидљивије групе. Тај преокрет помера фокус са формалне једнакости ка субстанцијалној праведности: питање није само да ли систем „ради исто за све“, већ да ли он додатно оштећује оне који су већ у маргинализованом положају.
Питања друштвених (не)правди, предрасуда и дискриминације данас су нераскидиво везана за питања података, технологије и саме структуре друштва. Технологија нас окружује, али технолошки системи нису неутрални: увек постоји одговор на питање ко их је пројектовао, под којим претпоставкама, у чијем интересу и за чију корист. Управо зато, за савремена друштвена и уметничка истраживања, као и за критичке студије медија и вештачке интелигенције, интерсекционални феминизам делује не само као политички став, већ као аналитички алат. Он омогућава да машинско учење не буде само техничка дисциплина оптимизације, већ поље борбе за видљивост, праведност и редистрибуцију моћи у дигиталној сфери. Инге Улникан је још једна у низу ауторки које истражују интерсекционалност као теоријски концепт у примени вештачке интелигенције. У свом раду Intersectionality in Artificial Intelligence: Framing Concerns and Envisioning Change (2024) полази од претпоставке да вештачка интелигенција није неутралан технолошки инструмент, већ производ друштвених односа, вредности и структура моћи. У раду се испитује како интерсекционални приступи могу допринети дубљем разумевању и ублажавању системских неједнакости које се уграђују у алгоритамске системе. Улникан анализира четири утицајна извештаја о интерсекционалности и вештачкој интелигенцији, објављена између 2019. и 2021. године, које су припремиле реномиране институције као што су AI Now Institute, Leverhulme Centre for the Future of Intelligence, Alan Turing Institute и UNESCO. Користи метод приступа фрејминга (framing analysis), којим се испитује не само садржај већ и начин на који се проблеми дефинишу, именују и постављају у јавном и политичком дискурсу. Овај приступ омогућава увид у то како се интерсекционалност представља у вештачкој интелигенцији — као технички, етички или структурни изазов. Сви анализирани извештаји полазе од констатације да постоји криза разноликости у сектору развоја вештачке интелигенције. Доминантну већину истраживача и програмера чине бели мушкарци из привилегованих средина, што резултира алгоритмима који репродукују њихове погледе и предрасуде. Недостатак разноликости и пристрасни исходи делују као зачарани круг, учвршћујући неједнакост унутар индустрије и технологије. Улникан показује да постојеће иницијативе за родну и расну разноликост не постижу стварне ефекте, јер се своде на повећање бројности, без промене културе и односа моћи. Ауторка истиче да је проблем структуралне природе – интерсекционалност подразумева истовремено сагледавање пола, расе, класе, инвалидитета, старости и географије, али Улникан указује да је у пракси њена примена ограничена због непотпуних и бинарних података. Ово доводи до репродукције епистемолошких неједнакости — одређене групе остају невидљиве у подацима и анализама. Извештаји позивају на дубоку институционалну промену: померање фокуса са квота на моћ и утицај, успостављање транспарентности у платама и условима рада, интердисциплинарну сарадњу и критичко преиспитивање самих намера развоја система вештачке интелигенције. Поједини системи који по својој природи репродукују дискриминацију не би требало ни да буду развијани (Ulnicane, 2024).
Закључак
Феминистичка периодика, као вид отпора дискриминаторној природи развоја вештачке интелигенције, пролази кроз дубоку трансформацију: од историјске улоге штампаних часописа који су током XX века артикулисали женско искуство, јавно именовали патријархалне структуре моћи и захтевали родну равноправност, ка савременим дигиталним и алгоритамски посредованим форматима новинарства и активизма. Ова промена није само технолошка; она је политичка и епистемолошка. У условима у којима вештачка интелигенција обликује производњу, циркулацију и видљивост знања, феминистички медији више не могу да се посматрају искључиво као простор за дистрибуцију садржаја, већ као активни актери у борби за правичност унутар друштвено-технолошких система. Алгоритамска пристрасност није техничка грешка нити појединачни пропуст, већ облик репродуковане структурне неправде. Алгоритми, модели машинског учења и системи аутоматизованог одлучивања често уграђују постојеће родне, расне, класне и друге друштвене хијерархије, а затим их појачавају и нормализују. Растући корпус феминистичких, интерсекционалних и критичких пракси које не застају на критици већ прелазе у интервенцију, често и путем феминистичких медија који нису више само медији, већ активно средство за разобличавање чињенице да алгоритамски системи настављају да одржавају патријархалну, расну и класну неједнакост. Они експериментишу са новим облицима технолошке праксе који настоје да те неједнакости смање, а не да их понављају. Управо у том споју критике и продукције налази се потенцијал за другачији медијски модел.
ЛИТЕРАТУРА
Crenshaw, K. (1989). Demarginalizing the Intersection of Race and Sex: A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory and Antiracist Politics, University of Chicago Legal Forum: Vol. 1989, Article 8.
Collins, P. H. (2009). Black Feminist Thought: Knowledge, Consciousness, and the Politics of Empowerment. Routledge.
Cvetinčanin Knežević, H. (2024). Digitalne superheroine: prvo istraživanje o digitalnom feminističkom aktivizmu u Srbiji i u Crnoj Gori. Podgorica/Beograd: Centar za ženska prava, Fondacija Jelena Šantić.
D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press.
Fagundes-Ausani, M. (2024). The Digital Feminist Magazines: A Reformulation of Women’s Press from South to North — The Cases AzMina and Madmoizelle. International Journal of Magazine Studies, Vol. 1 No. 1.
Kong, Y. (2022). “Are ‘Intersectionally Fair’ AI Algorithms Really Fair to Women of Color? A Philosophical Analysis”. FAccT’22 Proceedings, June 21-24.
Masikini, N., Modi, R, (Ed.) (2025). Feminist analysis of AI and Emerging Tehnology. Woman and Gender Equality Canada.
Gutierrey, M. (2021). Algorithmic Gender Bias and Audiovisual Data: A Research Agenda. International Journal of Communication 15(2021), 439–461.
Todorić Milićević, T. (2019). Od ulice do učionice: feministički aktivizam i teorija u Srbiji u 1990-im i 2000-im. Genero, vol 23.
Ulnicane, I. (2024). “Intersectionality in Artificial Intelligence: Framing Concerns and Recommendations for Action.” Social Inclusion, Vol. 12.
Young, I. M. (2011). Responsibility for Justice. Oxford University Press.
Young, I. M. (2000). Inclusion and Democracy. Oxford University Press.
Wudel, A., Ehrenberg, A. (2025). What is Feminist AI? Bonn: Friedrich-Ebert-Stiftung e.V.
Zaharijević, A. (Ur.) (2008). Neko je rekao feminizam? Beograd: Heinrich Böll Stiftung.
[1] MIRA није софистициранији, сложенији алат за развој вештачке интелигенције, него првенствено алат за политичку и етичку процену – да ли конкретан AI систем делује праведно према маргинализованим групама, или их додатно оштећује (видети у: Wudel, Ehrenberg; 2025: pp. 6).
[2] О киберфеминизму видети више у: Антонијевић. З. (2013). Стратегије киберфеминизма: феминизам на друштвеним мрежама у Србији. Генеро, бр. 17.
[3] Уместо либералне идеје једнакости која тежи апстрактној униформности („сви смо исти пред законом“), Јанг заговара концепт политике разлике (видети у: Young, 2011).
[4] AzMina је независни бразилски медиј са фокусом на родна питања, феминизам, права жена и равнотежу у медијима (https://www.unesco.org/mil4teachers/en/toolkit-media/indicator-4/content-ideas/case-studies/case-study-1, преузето 12. 10. 2025).
[5] https://carolinesinders.com
[6] https://ogled.org/pogled/rodne-predrasude-i-umetnicka-praksa/

Više ni najveći skeptici ne mogu nijekati uticaj fiktivne proze na aktuelna dešavanja (naravno, tačka ovovremenosti je uvek trenutak pisanja ili govora o temi) u vaskolikom svetu. Da zanemarimo naučnu fantastiku, koja je književnom vizijom pisaca, počev od osamnaestog veka, predviđala budućnost (bilo utopijsku, distopijsku ili – jednostavno – onu koja dolazi), našla i izborila se za status ozbiljne književnosti; takva dela su opipljiva, proveriva u svojoj prediktivnosti, revolucionarna, a opet, danas, nalik inženjerskim krokijima, dovedena do prepoznatljivosti u holivudskim spektaklima ili gedžet, must have odeljcima u muškim časopisima.


