NoFake

ЖИ және дипфейк дәуіріндегі қауіптер — Вашингтон университетінің профессорымен сұхбат

Бүгінде жасанды интеллектің мүмкіндіктері таңғалдырады. Алайда оның адамға берер игілігімен қатар, қауіп-қатері де артып келеді — технологияны алаяқтар қылмысты жасыру құралына айналдырып үлгерді. Осыған орай nofake.kz/ Allen Institute for AI (AI2) жасанды интеллект институтының негізін қалаған, Вашингтон университетінің компьютерлік ғылымдар профессоры Орен Эционимен сұхбаттасып, жасанды интеллектің әлеуеті мен дипфейктің жаңа қатерлерін талқылады.

Орен мырза, сіз «технология адамға қызмет етуі керек» деп жиі айтасыз. Бірақ бүгінгі таңда жауапкершіліктің нақты шекарасы қайда? Егер жасанды интеллект зиянды контент жасаса, оған кім жауапты: әзірлеуші ме, компания ма, әлде оны қолданатын қоғам ба?

Бұл шынында да өте маңызды сұрақ. Иә, мен технология қоғамға қызмет етуі тиіс екенін жиі айтамын. Бірақ іс жүзінде біз көріп жүрген жағдай бұл қағиданы әрдайым растай бермейді. Меніңше, қазір негізгі жауапкершілік әлеуметтік желілерде жатыр. Неге? Өйткені бір ғана компания этикалық тұрғыда дұрыс әрекет ете алады, бірақ басқалары ондай принциптерді ұстанбауы мүмкін. Заңдар мен ережелер бар болғанымен, толық бақылауға келмейтін Darknet сияқты ашық модельдер де бар. Сондықтан бүкіл жауапкершілікті технология әзірлеушілеріне жабу өте қиын. Бірақ бізде Meta, Twitter (X) немесе TikTok сияқты ірі платформалар бар. Олар контент тарату арқылы орасан ақша табады. Сондықтан, менің ойымша, дипфейктердің пайда болуы мен таралуына басты жауапкершілік солардың мойнында болуы керек.

– «Дипфейк» деген сөзді естігенде, ол сіз үшін нені білдіреді? Бұл — технология ма, құрал ма, әлде алдаудың жаңа түрі ме?

Мен бұл терминді кең мағынада қолданамын. Өйткені жалған ақпарат пен бұрмаланған жаңалықтар адамзат тарихында бұрыннан бар. Бірақ қазір жағдай өзгерді: адамдар жасанды интеллекті пайдалана отырып, өтірік видео, аудио, суреттерді әлдеқайда шынайы, әрі, сенімді етіп көрсетуде. Егер жасанды интеллект жалған контент жасау үшін қолданылса — мен оны дипфейк деп атаймын. Ол толықтай немесе жартылай жасалған болуы мүмкін. Бірақ жасанды интеллект шынайылықты бұрмалау үшін пайдаланылған кез келген жағдай — бұл мен үшін дипфейк.

– Бүгінде жасанды интеллект жасаған видеолар сайлау, медиада пайдаланылады және алаяқтар қолданылып жүр. Дипфейк қоғам мен демократия үшін қаншалықты қауіпті? Бұл енді жеке мәселе емес, жаһандық қауіпсіздік проблемасына айналды деп айта аламыз ба?

2024 жылы мен truemedia.org платформасын құрған кезде (ред., медиа контентінің шынайылығын тексеруге арналған коммерциялық емес жоба) бізге әлемнің түрлі елдерінің сайлау комиссияларымен жұмыс істеу мүмкіндігі туды. Сол жылы Жапония, Корея, Еуропа елдері, Бразилия және АҚШ-та сайлау өткен еді. Сол науқандар барысында мен екі маңызды нәрсеге назар аудардым. Біріншіден, дипфейк біз күткендей көп болған жоқ. Саны аз болғанымен, олардың әсері өте күшті болды. Бұл жағдай мәселенің шын мәнінде жаһандық сипатқа ие екенін айқын көрсетті. Екіншіден, менің ойымша, жағдай әлі шегіне жеткен жоқ. Қорқатыным — тиімді институттар мен қорғаныс механизмдерін құрмай тұрып, ол одан әрі ушығуы мүмкін.

Жақында ата-анам маған Қазақстанға танымал адамдардың ірі компания акцияларына инвестиция салып, қомақты пайда табуға шақырған видеосын жіберді. Мен оның ЖИ арқылы жасалғанын бірден түсіндім, бірақ ата-анам ажырата алмады. Жақын арада тіпті тәжірибелі қолданушыларға шынайы видеоны фейктен айыру қиын болады деп ойлаймын. Бүгінде шынайы мен жасанды видеоны кәсіби құралсыз ажырату мүмкін бе?  

Сіз екі өте маңызды мәселені атап өттіңіз. Біріншіден, менің негізгі зерттеу бағытым — саяси дипфейктер. Дегенмен, сіздің олар тек саясатта емес деген пікіріңіз дұрыс, олар онлайн-алаяқтық, қаржылық пирамидалар мен тауар жарнамасында — жалпы кез келген салада қолданылады. Тіпті адам ұрланды деген жалған видеолар жасалған жағдай да тіркелген. Адамдардың шындық пен жалғанды ажырата алу қабілетіне келсек — қысқа жауап: жоқ, ажырата алмайды. Сапалы жасалған дипфейкті адам көзбен анықтауы мүмкін емес. Оның үстіне мұндай видеоларды жасау құралдары күн сайын жеңілдеп, көпшілікке қолжетімді болып барады. Бұл тенденцияны біз өз зерттеулерімізден де, The New York Times жүргізген талдаулардан да байқадық.

Екі видеоны — бірі шынайы, бірі жасанды — қатар көрсеткенде, көпшілік олардың айырмасын таба алмайды. Сондықтан «қарапайым көрермен қателеседі, ал технологияны түсінетіндер бірден байқайды» деген ой — енді иллюзия. Ол кезең әлдеқашан артта қалды. Қазір технология соншалық дамыды: контенттің жасанды интеллект арқылы жасалғанын анықтау үшін енді тек жасанды интеллекттің өзі ғана қажет.

– Жасанды интеллект пен дипфейкті реттейтін халықаралық ереже енгізу мүмкін бе (мысалы, соғыс ережелерін реттейтін Женева конвенциясы сияқты), әлде технологиялық прогрестің жылдамдығы мен елдердің саяси мүдделерін ескерсек, бұл — утопия ма?

Ережелерді, әрине, жасауға болады және олар пайдалы да болуы мүмкін. Бірақ мұнда ең басты мәселе – олардың орындалуы. жалғыз ереже жеткіліксіз, олардың сақталуын қамтамасыз ететін жүйе және тараптардың ортақ келісімі қажет. Ал қазіргі жағдайда мұндай келісімге қол жеткізу өте қиын. Тағы бір маңызды сұрақ – бұл ережелерді кім әзірлеуі керек? Көпшілік Біріккен Ұлттар Ұйымына үміт артады. Бірақ іс жүзінде біз ХХІ ғасырдың мәселелерін ХХ ғасырдың институты арқылы шешуге тырысып отырмыз. БҰҰ өз мойнына алған істердің көбінде сәтсіздікке ұшырады: Таяу Шығыста да, Украинада да нәтиже болған жоқ. Коррупция, тиімсіздік, Африкадағы бітімгерлерге қатысты жанжалдар – мұның бәрі ұйым беделін түсірді. Менің ойымша, БҰҰ өзінің тарихи миссиясын аяқтады. Мүмкін, оны таратып, қазіргі заманның шындығына сай жаңа құрылым құру керек шығар. Теория жүзінде ғаламдық ережелер идеясы дұрыс, бірақ тәжірибеде Женева конвенциясы сияқты келісімдерге келу өте қиын. Бұл тырыспау керек деген сөз емес – тек әлдеқайда ақылды тәсіл қажет.

ЖИ БОЛАШАҚТА ҚАЙДА БАРАДЫ

– Генеративті жасанды интеллекттің дамуының келесі кезеңі қандай болады және ол ақпараттық кеңістікке қандай қатерлер әкелуі мүмкін?

Келесі кезең — технологияның бұрынғыдан да тиімді, қолжетімді әрі арзан болуы. Бұл оның таралуын бұрынғыдан да жеделдетеді. Біз тарихтағы ең жылдам таралған технологияны бақылап отырмыз, бірақ әлі де оны пайдаланбайтын адамдар бар. Бұл үрдіс жалғасады және күшейе береді. Сондықтан біз оған бейімделуіміз керек. Менің ойымша, дипфейктер дәуіріне бейімделудің ең тиімді жолы — цифрлық қолтаңба мен контентті аутентификациялау жүйелерін дамыту. Бірақ бұл бастаманы әлеуметтік желілердің өздері қолдауы тиіс. Олар пайдаланушыларға осы құралдарды басқаруға көмектесіп, барлығына тең қолжетімділік ұсынуы қажет.

– Философиялық сұрақ қойсам, егер жасанды интеллект контент жасаудан “мағына қалыптастыруға” өтсе, адам рөлі қалай өзгереді?

Бұл, расымен де, философиялық әрі маңызды сұрақ. Қазіргі және болашақ контексте жасанды интеллект тек құрал ретінде қалады. Оның өз еркі, ниеті жоқ. Егер ол мағына тудырса, оны кім басқарады – адам ба, мемлекет пе, әлде ұйым (мысалы, Қытай немесе АҚШ) – соған байланысты. Маңыздысы – ЖИ-дің өз мақсаты жоқ екенін түсіну. Технологиялар күрделенген сайын, оларды тиімді әрі игілікке пайдалана білуді үйренуіміз керек. Бірақ басты назар технологияның өзінде емес, оны пайдаланатын адамдар мен институттарда болуы тиіс.

– Бүгінде жасанды интеллект өлең жазып, музыка мен сурет жасай алады, тіпті эмоцияға еліктейді. Мұның бәрі әлі де “жасанды интеллект” пе, әлде нағыз интеллектің бастапқы түрі ме?

Біз ЖИ-ді сипаттау үшін қолданатын “интеллект”, “үйрену”, “мағына” сияқты ұғымдар тым адамға тән. Сондықтан олар қазіргі ЖИ мүмкіндіктерін нақты бейнелей алмайды. Бұл нағыз интеллект емес, бірақ жай имитация да емес. Мүмкін, оны “жақындатылған интеллект” деп атау дұрысырақ шығар. Кейде ол адамнан да асып түседі, бірақ күлкілі қателіктер жібереді. Сондықтан оны толық интеллект деу де, жай құрал деу де қате. Бұл — “жасанды ақымақтық” пен “жасанды интеллекттің” арасындағы күй. Сондықтан ЖИ не істей алатынын және не істей алмайтынын нақты түсіну қажет.

– ЖИ-де моральдық шешім қабылдау қабілеті пайда бола ма, әлде “жақсылық пен жамандық” мәңгі тек адамға тән ұғым ба?

“Мәңгі” деген түсінік өте кең. Жүз не мың жылдан кейін ЖИ үшін ешқандай принципті шектеу болмауы мүмкін. Біздің нейрондар не істей алса, компьютер де соны қайталауға қауқарлы. Мысалы, “Delphi” жобасы бар — ол моральдық және әлеуметтік сұрақтарға жауап беретін жүйе еді және кейде өте теңгерімді пікір білдіретін. Яғни, моральдық пайымдауды белгілі бір деңгейде модельдеуге болады. Бірақ машина жауап бергенімен, ол адамдағы ішкі моральдық сезімді сезбейді. Адамдар да кейде сұмдық істер жасайды. Сондықтан болашақта адам мен машинаның моральдық шешім қабылдаудағы бірлескен моделі пайдалы болуы мүмкін. Мәселен, сот жүйесін алайық: қазір шешімдерді адамдар қабылдайды, бірақ олар мінсіз емес. Тіпті судьяның аш немесе шаршаған сәті үкімге әсер етуі мүмкін. Ал ЖИ аштық сезбейді, оның алгоритмдік бейімділігін түзетуге болады. Болашақта ЖИ судьяға: “Бұл үкім тым қатал. Айтпақшы, сіз төрт сағаттан бері тамақ ішпедіңіз — үзіліс жасайық па?” деуі ғажап емес. Егер мұндай жүйелер ақылмен басқарылса, олар үлкен игілік әкеледі.

– Жасанды интеллект дамуының шегі бар ма – біз “осы жерде тоқтайық” дейтін сәт бола ма?

Менің ойымша, өмір мен өлім мәселесінде нақты шекара болуы тиіс. Жасанды интеллект адам өмірін өздігінен қиюға құқығы болмауы керек. Қаншалықты дамығанымен, өмір мен өлім туралы шешімді тек адам қабылдауы тиіс. Бұл — өтуге болмайтын моральдық шекара.

– Профессор Эциони, сұхбатыңызға көп рақмет. Қазақстандағы аудиториямен ой бөліскеніңізге алғыс айтамыз.

Сіздерге де рақмет! Сұрақтарыңыз өте мазмұнды болды. Сәттілік тілеймін және тағы кездесеміз деп үміттенемін!

Оқу үшін