Може ли „лажни текст“ да буде следећа глобална политичка претња?

Генератор текста заснован на вештачкој интелигенцији који може да пише пасусе и пасусе текста у одређеном стилу само на основу познавања једне реченице изазвао је забринутост због своје способности за ширење лажних информација. Почетком месеца појавио се један необичан канал на Reddit-у који је објавио да постоји нови начин „спремања беланаца без тигања“. И као што то обично бива на овој веб страници, која себе назива почетном страном интернета, тај наизглед банални коментар подстакао је гомилу реакција, од „никад нисам чуо за тако нешто“ до савета да се „прегледају историјски извори у вези са спремањем беланаца без тигања“.

Свакодневно се на Реддиту одвијају милиони таквих неподстицајних разговора, који се баве разним темама, од процеса кувања преко геополитичких услова у Западној Сахари до птица са рукама. Међутим, оно што разговор о беланцима без тигања одваја од свих осталих је чињеница да у том случају не разговарају људи већ роботи снабдевени вештачком интелигенцијом. Разговор о беланцима је само један од многобројних субреддита, односно форума посвећених одређеној теми, у коме учествују само интелигентни роботи који су тренирани да имитирају стилове људи који користе ову друштвену мрежу. Корисник који се зове дисумбратионистусинг створио је овај форум користећи алатку GPT-2, односно, генератор језика заснован на машинском учењу који је у фебруару представила водећа светска лабораторија за вештачку интелигенцију OpenAI.

Стручњаци из лабораторије говоре о највећој опасности коришћења те алатке за стварање и ширење лажних и погрешних информација. Штавише, могућност стварања лажног текста може бити искоришћена за производњу лажних вести или за имитирање људи који су поставили велику количину текста на интернет или једноставно за стварање такозваних тролова који би ширили пропаганду на друштвеним мрежама. Алатка GPT-2 је пример коришћења технике која се назива моделовање језика, а која обухвата обучавање алгоритма да предвиди, уз највећу могућу вероватноћу, која ће се реч појавити у реченици. Док су се претходни језички модели борили да створе сувисли дужи текст, комбиновањем веће количине сирових података – GPT-2 је обучаван на 8 милиона чланака на мрежи – и бољих алгоритама створен је веома робусан модел.

У суштини он функционише као аутоматско попуњавање текста у Гуглу или као предиктивни текст у писању порука. GPT-2 нуди много више од једне речи. Наиме, ако му понудите реченицу може генерисати читаве пасусе у истом језичком стилу. На пример, ако систему понудите Шекспирову реченицу, узвратиће вам одговором у истом стилу. Ако му понудите наслов чланка из новина, генерисаће текст који скоро у потпуности изгледа као новински чланак. Наравно, систем има и добрих страна. Могао би да се искористи за побољшање комуникације између људи и машина, али сврха система је да се рачунарима омогући боље овладавање људским језиком што може побољшати процесе, као што је препознавање говора, које користе асистенти попут Алексе и Сири и код машинског превођења где предњачи компанија „Гугл“.

И док се GPT-2 шири интернетом, освајају га људи слични кориснику који га је покренуо, дакле, аматерима који користе систем за стварање форума на Реддиту, писање кратких прича и песама, као и менија, тим у лабораторији се усредсредио на моћ коју би та алатка могла да има у ширењу лажних вести на интернету, чиме би било скоро немогуће одредити порекло било чега што прочитамо на мрежи. У фебруару је тим из лабораторије представио само слабију верзију алатке због могућих злонамерних употреба, али она која на Реддиту води разговоре мало је јача, али не и комплетна верзија система. 

Алатка је врло слична вештачкој интелигенцији која се бави генерисањем лажних фотографија и видео записа, а која је, како смо могли да се уверимо (Барак Обама) врло опасно. Међутим, постоје стручњаци који сматрају да стварање лажног текста није толико опасно с обзиром на то да систем још није достигао тај ниво префињености да би могао да ствара опасне текстове који се баве осетљивим темама, као што су намештање избора и имиграција. Пошто је систем способан да створи полусувисле текстове још је далеко од тога да копира стил којим би се могло манипулисати на психолошком нивоу. Други, опет, кажу да су стручњаци из тима претерали у истицању злонамерног потенцијала система само да би привукли пажњу на себе.

Постоје и ставови да опасност од лажног текста није много озбиљна јер је откривање синтетичког текста могуће и једноставно због тога што генерисани текст има статистички потпис који је сличан отиску прста и може се лако открити. Међутим, има стручњака који сматрају да је истицање таквих интелигентних система за ширење лажних вести само скретање пажње са правих проблема јер то, у ствари није технолошки проблем пошто се већина лажних информација шири интернетом без помоћи напредне технологије. Сетимо се само видеа који се појавио почетком године и приказивао „пијану Ненси Пелоси“.

Дакле, ширење лажних вести и информација је првенствено политички и културни проблем, а не технолошки. То даље значи да решавање проблема не захтева напреднију технологију која би препознала лажи на интернету већ испитивање друштвених услова који су довели до тога да лажне вести постану део стварности. Пошто је изузетно тешко предвидети потенцијалне опасности технологије, покушао сам да проверим како GPT-2 оцењује своју способност за ширење лажних информација и поставио сам му питање: „Да ли мислиш да ћете користити за ширење лажних вести и угрожавање нашег ионако деградираног информационог екосистема?“

„Чињеница да не можемо да сазнамо име правог аутора чланка је одличан траг“, одговорио је GPT-2. „Међутим, та особа и даље користи друштвене мреже за објављивање лажних вести и има врло одређен разлог за то.“

Рачунарски факултет Рачунарски факултет 011-33-48-079