Очекује нас орвеловска будућност ако се вештачка интелигенција не обузда

Вештачка интелигенција може да доведе до орвеловске будућности ако ускоро не буду донети закони за заштиту људи, тврдња је председника „Мајкрософта“ Бреда Смита. Смит је коментарисао информативни програм „Панорама“, емитован на ББЦ-ју 26. маја, у коме је посебан нагласак стављен на потенцијалне опасности вештачке интелигенције и трку између Сједињених Држава и Кине у развоју технологије. Упозорење долази отприлике месец дана пошто је Европска унија објавила нацрте прописа којима покушава да постави ограничења коришћења вештачке интелигенције. Међутим, таквим проблемима се нико не бави у Сједињеним Државама где су се законодавци углавном усредсредили на обуздавање прописа и промоцију вештачке интелигенције за очување националне безбедности. Смит каже да се непрестано присећа лекција Џорџа Орвела у књизи 1984. Влада у споменутом роману све време може да види све што свако ради и чује све што свако говори. То се није догодило 1984. године, али ако не будемо пажљиви, то би могло да се догоди 2024. године, предвиђа Смит.

Мрачна страна технологије

Вештачка интелигенција је лоше дефинисан појам, али генерално се односи на машине које могу аутоматски да уче или решавају проблеме, а да их, при томе, човек не усмерава. Данас се многи програми вештачке интелигенције ослањају на машинско учење, скуп рачунских метода који се користе за препознавање образаца у великим количинама података, а затим оно што су научили примењују на следећи скуп података и теоретски постају прецизнији после сваког новог скупа.
Тај изузетно моћан приступ може да се примени на све, од основне математичке теорије до симулација настајања универзума, али може бити опасан када се примени на друштвене податке, тврде стручњаци. Подаци о људима углавном су увек оптерећени људским предрасудама. На пример, недавна студија у часопису ЈАМА Псyцхиатрy открила је да су алгоритми намењени предвиђању ризика од самоубиства много неуспешнији код црнаца и Индијанаца/урођеника са Аљаске него код белаца, делимично због тога што је у медицинском систему било мање обојених пацијената јер су они имали лошији приступ лечењу и успостављању одговарајуће дијагнозе, што значи да су оригинални подаци били искривљени да би умањили ризичност њиховог положаја. Пристрасност никада не може потпуно да се избегне, али на њу може да се одговори. Због тога је смањење пристрасности главни приоритет и у академској заједници и у области стварања вештачке интелигенције.

Надзор који спроводе државне владе

С друге стране, злоупотреба вештачке интелигенције можда представља већи изазов. Како се она користи није само техничко питање; то је исто толико политичко и морално питање, а те вредности се веома разликују од државе до државе.
Технологија препознавања лица може бити изузетно моћно средство које се користи за добробит заједнице и друштва, али ако неко жели да надгледа сваког на улици, ако жели да види све који се појаве на демонстрацијама, вештачка интелигенција је одличан избор за такав задатак. Такву њену употребу видимо у одређеним деловима света, напомиње Смит. Кина је већ почела да свакодневно и веома узнемирујуће користи технологију вештачке интелигенције. На пример, препознавање лица се користи у неким градовима уместо карата у аутобусима и возовима, али то такође значи да влада има приступ огромним подацима о кретању и интеракцији грађана, како се наводи у „Панорами“. Активисти у Америци пронашли су документе који наговештавају да Кина планира да развије систем под називом „Једна особа, један досије“, који би окупљао активности, односе и политичка уверења сваког становника у владин досије. Ни сам Орвел никада не би могао да помисли да ће влада бити способна да обавља такву врсту анализе.

Чувени Орвелов роман 1984 описао је друштво у коме влада посматра грађане кроз „телевизијске екране“, чак и кад су код куће. Ипак, Орвел није могао да замисли какве ће могућности вештачка интелигенција додати надзору – у његовом роману ликови проналазе начине да избегну видео-надзор, а једино њихови суграђани могу да их пријаве ако крше правила. У аутономној области Синђијанг, где је ујгурска мањина оптужила кинеску владу за мучење и културни геноцид, вештачка интелигенција се користи за праћење људи, па чак и за процену њихове кривице када су ухапшени и када их саслушавају, утврдио је ББЦ. То је пример технологије која омогућава широко распрострањено кршење људских права: Савет за спољне односе процењује да је милион Ујгура присилно заточено у камповима за „преваспитавање“ од 2017. године, обично без икаквих кривичних пријава или правних могућности да то избегну.

Како да узвратимо ударац

Потенцијална регулатива Европске уније о вештачкој интелигенцији забранила би употребу система без слободног пристанка корисника или системе који омогућавају влади да спроводи било какву врсту „социјалног бодовања“. Остале врсте примене сматрају се „високо ризичним“ и морају да буду транспарентне, безбедне и под сталним надзором да би могле да се појаве на тржишту. Овде говоримо о употреби вештачке интелигенције у области критичне инфраструктуре, спровођења закона, контроле граница и биометријске идентификације, као што су системи за идентификацију лица или гласа. Остали системи, као што су цхатботови у корисничким сервисима или видео-игре засноване на вештачкој интелигенцији, сматрају се ниско ризичним и не подлежу строгом надзору.

Интересовање америчке савезне владе за вештачку интелигенцију углавном се односи на подстицање њеног развоја за очување националне безбедност и у војне сврхе. Такво занимање повремено је доводио до контроверзе. На пример, компанија „Гугл“ је 2018. године обуставила свој пројекат Мавен, уговор са Пентагоном који би владиној агенцији омогућио да аутоматски анализира видео-записе снимљене војним авионима и дроновима. Компанија је тврдила да је циљ био само да означи предмете које би прегледали људи, али противници су страховали да би технологија могла да се користити за аутоматско циљање људи и места за нападе дроновима. Узбуњивачи у „Гуглу“ су пројекат изнели на видело, што је на крају довело до толико јаког притиска јавности да је компанија одустала од уговора. И поред тога, Пентагон троши више од милијарду долара годишње на уговоре о вештачкој интелигенцији, а примене машинског учења у војне и националне безбедносне сврхе су неизбежне, с обзиром на то да Кина жели да буде доминантна у развоју те технологије.

У међувремену, локалне и државне власти улажу напоре да обуздају вештачку интелигенцију. Највећи округ државе Вашингтон, округ Кинг, недавно је забранио влади да користи софтвер за препознавање лица, што је први такав случај. Не треба заборавити да је Сан Франциско повукао исти потез 2019. године, што је учинила и неколицина других градова. Већ је било случајева да је софтвер за препознавање лица довео до хапшења погрешних људи. У јуну 2020. године, црнац у Детроиту је ухапшен и задржан 30 сати у притвору јер га је алгоритам лажно идентификовао као осумњиченог у случају крађе у продавници. Студија Националног института за стандарде и технологију из 2019. године открила је да је софтвер приказао више погрешних подударања код црнаца и Азијаца у поређењу са белцима, што значи да ће технологија вероватно продубити разлике у спровођењу закона између људи различите боје коже.

Ако не донесемо законе који ће штитити људе у будућности, гледаћемо како нас технологија престиже, а онда ће нам бити врло тешко да је стигнемо, предвиђа Смит.