Gemini дипфейк жасай ала ма: қауіп қайдан шығады

Фото: коллаж nofake.kz/
Google компаниясы жасаған Gemini жасанды интеллекті қазақ тілінде сөйлей бастады. Осыған байланысты nofake.kz/ бұл технологияның қазақтілді ақпараттық кеңістікке қандай қауіп төндіруі мүмкін екенін анықтап көрді.

Мамандардың айтуынша, Gemini-дің қазақ тілінде іске қосылуы отандық цифрлық орта үшін жаңа мүмкіндіктер ашады. «Qazcontent» АҚ жанындағы ЖИ сарапшысы Аршат Ораздың пікірінше, бұл қадам Gemini-дың қазақша деректер қоры кеңейіп келе жатқанын көрсетеді.
«Қазір ChatGPT пен Gemini арасында бәсекелестік күшейіп отыр, екі платформа да Қазақстанға арнайы тарифтер ұсынып жатыр. Мұндай бәсеке қазақ тіліндегі жасанды интеллектінің сапасын арттырып, сапалы контент жасауға жол ашады», – дейді сарапшы.
Сонымен қтара, Аршат Ораз кибералаяқтық қаупіне де тоқталды. Оның сөзінше, алаяқтар ЖИ технологияларын бұрыннан қолданып келеді, алайда телефонмен қоңырау шалатын, аудио хабарлама жіберетін алаяқтар әлі қазақ тілінде таза сөйлей алмайды.
«Себебі, интонация мен екпінді дәл беру қиын. Дегенмен, технология дамыған сайын қауіп те арта түседі. Азаматтар ақпараттық сауаттылық пен «ақпараттық иммунитет» қалыптастыруы маңызды», — деді Аршат Оразов.
Бұл жаңалықтың дипфэйктердің одан сайын кең тарауына әсер етіп кетпей ме деген сауалға ЖИ сарапшысы ондай қауіп жоқ деп жауап берді.
Ал дизайнер Ғалымжан Рақымғали Gemini-дың қазақ тілін түсінуі шығармашылық салаға серпін береді деп есептейді. Оның айтуынша, бұған дейінгі «аударма арқылы жасалған» жасанды мәтіндерден арылуға мүмкіндік туады.
«Енді қазақша ойлайтын, жергілікті мағынасы бар идеялар көбейеді, қазақ тілінде жұмыс істейтін дизайнерлерге сұраныс артады», – дейді ол.
Маманның пікірінше, сценарий, идея және мәтін әзірлеу үдерісі бірнеше есе жылдамдап, этнодизайн мен медиа саласында жаңа нишалар қалыптасады. Бұл мемлекеттік тапсырыстар мен отандық брендтердің дамуына да оң әсерін тигізуі мүмкін.
Gemini дипфейк жасауға арналмаған
Google компаниясы генеративті жасанды интеллект құралдарына, соның ішінде Gemini моделіне, адамдарды алдау, жеке тұлғаны жалған көрсету және дипфейк жасау мақсатында қолдануға тыйым салынғанын ресми түрде мәлімдеді.
Компанияның Generative AI Prohibited Use Policy құжатында жасанды интеллект арқылы:
нақты адамдардың атынан жалған мәлімдеме жасауға;
адамның бейнесін, дауысын немесе тұлғасын рұқсатынсыз имитациялауға;
адастыру, манипуляция немесе жалған сенім тудыруға
қатаң түрде тыйым салынатыны көрсетілген.
Google, сондай-ақ Gemini модельдерінде зиянды контентті шектейтін техникалық фильтр орнатылғанын және ЖИ арқылы жасалған материалдарды анықтауға арналған арнайы цифрлық белгілер (метадеректер, SynthID) қолданылатынын хабарлаған.
Дегенмен, компания жасанды интеллектің өзі бейтарап құрал екенін ескертеді. Мәселе технологияның өзінде емес, ЖИ-ді әдейі жалған ақпарат тарату үшін пайдаланатын адамдар қауіпті болып отыр.


