Европска етичка вештачка интелигенција

Овако или онако, али Европа мора да буде јединствена у приступу вештачкој интелигенцији и да се разликује од својих моћних конкурената, Сједињених  Држава и Кине. Искрено говорећи, можда реч „конкуренти“ није, бар за сада, одговарајућа пошто праве конкуренције нема.Према недавно прикупљеним подацима, укупна улагања у вештачку интелигенцију у Европи износила су између 3 и 4 милијарде долара 2016. године, док је у истом периоду у Азији уложено између 8 и 12 милијарди, а у Северној Америци између 15 и 23 милијарде долара. Комисија Европске уније, надајући се да ће премостити толики финансијски јаз у следећој деценији, промовише се као зачетник другачије врсте вештачке интелигенције коју назива „поузданом“, што значи да таква вештачка интелигенција поштује основна људска права и етичка правила. Да ли је све то само добра реклама или напредак који сви жељно ишчекују? Изгледа да није ништа од понуђеног, већ напорно трагање за уравнотеженим приступом.

Много се може рећи у прилог утицају вештачке интелигенције на друштво у будућности, али и против ње. Могла би, рецимо, да омогући мање штетно лечење рака, помогне машинама да преузму опасне и ризичне послове и посвети се прегледању огласа на мрежи да би идентификовала могуће жртве трговине људима. С друге стране, заједно са технологијом препознавања лица, могла би да прошири надзор над становницима држава широм света, угрози људска права, оспособи роботе-убице који би могли да одаберу и униште циљеве без интервенције људи.

Да би се промене усмериле на прави пут, максимално искористиле предности и што је могуће више умањили ризици, Европска комисија је створила Групу истакнутих експерата на пољу вештачке интелигенције у априлу ове године. Група се састоји од 52 независна стручњака из области науке, индустрије и из друштва. Они су прошлог уторка објавили нацрт „Етичких смерница за развој и коришћење вештачке интелигенције“.Стручњаци траже повратне поруке од грађана да би се што боље усредсредили на осетљиве делове и дефинисали одређена правила да би ограничили потенцијалне лоше утицаје система вештачке интелигенције.

У извештају који се простире на 37 страна, истакнуте су и зебње које су уско повезане са горе наведеним претњама. Стручњаци су првенствено забринути због „неодобрене идентификације“ уско повезане са препознавањем лица. Нови софтвер кога покреће вештачка интелигенција може довести масовни надзор над грађанима на сасвим нови ниво.

До сада су такви поступци били примењивани само у високо централизованим и диктаторским државама као што је Кина, али постоје назнаке да се нешто слично може догодити и на западу. Наиме, пре неколико дана, полиција Велике Британије је најавила да тестира технологију препознавања лица на људима који обављају Божићну куповину у Лондону. Да би се избегла злоупотреба потребно је добити одобрење од грађана, међутим, то и није баш тако једноставан подухват. Тестирање у Лондону је показало да иако је снимање било унапред објављено, а пролазницима је дата могућност да се не укључују у тестирање, ипак сви они који нису дали одобрење или избегавали камере могли би да буду сматрани сумњивима.

Друга врста забринутости која је изазвала живу дискусију међу стручњацима односи се на „прикривене системе вештачке интелигенције“, софтвере и роботе који се успешно претварају да су људска бића. Помислите само на Асистента компаније „Гугл“ који вам заказује одлазак код фризера или хуманоидног робота Хирошија Ишигуроа. Њихово укључивање у људско друштво могло би да промени перцепцију људи и људског друштва и могло би да има многобројне последице као што су приврженост, утицај или умањивање вредности људских бића.

Неки су почели да примењују „бодовање грађана“ што у суштини и није лоше пошто смо навикли да нас стално неко бодује и оцењује док идемо у школу или кад полажемо испит за возачку дозволу. Међутим, ако је сваки део нашег живота под лупом свеприсутног и не баш транспарентног алгоритма, све почиње да бива прилично забрињавајуће. Кинески систем друштвеног бодовања је добар пример за то. Према „Етичким смерницама“, „кад год се примењује бодовање грађана у ограниченом друштвеном домену, требало би грађане обавестити о целокупној процедури и обезбедити све информације у вези са процедуром, сврхом и методологијом бодовања и, у најидеалнијој ситуацији, омогућити им да се изјасне против таквог механизма и да не учествују у њему“.

Поново да напоменемо да ни то није једноставан подухват. Демократије у Западним земљама вероватно нису вољне да прате и процењују своје грађане у оној мери у којој то чини Кина, али владе и политичари неће моћи да одоле изазову да употребе податке које су им обезбедили њихови грађани и искористе их да би их боље контролисали, односно, спроводили процедуре похваљивања и кажњавања. То је једна од области у коју Европска комисија улаже највеће напоре да би је регулисала, мада се многима чини да је сав труд узалудан.

Можда је сувише касно за успостављање правила у области система аутономног наоружања (односно, робота-убица, што је много распрострањенији назив). Први покушај да се забрани њихов развој осујетиле су у септембру најразвијеније војне силе међу којима треба истаћи Америку, Русију, Јужну Кореју, Израел и Аустралију.

Системи аутономног наоружања доносе предности „селективног убијања“, дакле, деца не могу бити мете, али способност тог наоружања да „одлучи кога ће, када и где убити без интервенције људског фактора“ може довести до „неконтролисане трке у наоружању на до сада невиђеном нивоу и може створити такво војно окружење у коме ће људска контрола бити скоро у потпуности уступљена машинама“, написали су стручњаци.
Остало је још неколико недеља да се заинтересовани изјасне о наведеним темама. Наиме, нацрт „Етичких смерница“ отворен је за коментаре до 18. јануара.

Стручњаци ће Комисији представити коначну верзију смерница у марту следеће године пошто добију повратне информације и коментаре од јавности и преко Европске алијансе за вештачку интелигенцију.

Рачунарски факултет Рачунарски факултет 011-33-48-079