Дипфейк видеоны қалай анықтаймыз

Коллаж: NoFake.kz
Жасанды интеллект видеоны барынша шынайы жасағанмен, бәрібір «цифрлық із» қалдырады. NoFake.kz алгоритм қатесін тауып, үй жағдайында дипфейкті анықтаудың әдістерін ұсынады.
1-кезең: Психологиялық сүзгі (SIFT әдісі)
Пиксельдерге үңілмес бұрын, Вашингтон университетінің ғалымы Майк Колфилдтің әдістемесін қолданыңыз. Ғалым ақпаратты «терең оқудан» гөрі, «көлденең оқу», яғни басқа беделді дереккөздердің бұл ресурс туралы не жазатынын тексеру әлдеқайда тиімді екенін дәлелдеген. Бұл — қазіргі цифрлық ортадағы фактчекингтің «алтын стандарты» саналатын — SIFT әдісі. Ондағы:
1. S (Stop) — Тоқта: Эмоцияңызды тізгіндеңіз. Егер сіз оқып немесе көріп тұрған жаңалық сіздің эмоцияңызға әсер етіп, ашуыңызды немесе қорқынышыңызды тудырса,бұл манипуляцияның алғашқы белгісі.
2. I (Investigate) — Дереккөзді зерттеңіз: Автордың беделін тексеріңіз. Аккаунт кеше ғана ашылған ба, әлде жылдар бойы тұрақты жұмыс істеп келе жатқан сенімді дереккөз бе?
3. F (Find) — Жақсырақ қамтылған ақпаратты табыңыз: Осы жаңалық танымал бұқаралық ақпарат көздерінде жарияланғаны туралы ақпарат тауып көріңіз.
4. T (Trace) — Түпнұсқаға дейін қадағалаңыз: Цитатаның немесе видеоның алғашқы дереккөзін іздеңіз.
2-кезең: Визуалды сараптама (Ғылыми тәсіл)
Компьютерлік көру саласының ғалымдары мен сарапшылары ЖИ жиі қателесетін 5 негізгі аймақты көрсетеді:
1. Көз жанары және жарық физикасы
Тірі адамның қос жанарындағы жарықтың шағылысуы (блик) бірдей болады. ЖИ жиі көздерді екі бөлек нысан ретінде генерациялайды, соның салдарынан шағылысулар әртүрлі болуы мүмкін (мысалы, бір көзде дөңгелек, екіншісінде – қисық сызық).
Хани Фарид бастаған MIT командасы шағылысу геометриясындағы микро-сәйкессіздіктерді анықтайтын алгоритмдер жасап шығарды. Олар ЖИ-дің қос қабықша үшін біртұтас жарық көзін ескермейтінін дәлелдеді.
2. «Монотіс» әсері және артикуляция
Видеодағы адамның сөйлеуі кезіндегі оның ауыз қуысының бөлшектеріне мән беріңіз. Нейрожелілер тістердің арасындағы шекараны нақты сыза алмай, оларды біртұтас ақ массаға айналдырып жібереді немесе қызыл иекті «салуды» ұмытып кетеді.
ЖИ сарапшылары дипфейктарды анықтауда ауыз морфологиясына ерекше назар аударады. Олар ЖИ модельдерінің кейбір дыбыстарды айтқанда тіс шекараларының анықтығын жоғалтып, «бұлыңғыр» әсерін тудыратынын анықтаған.
3. Биометриялық асимметрия (Құлақ пен аксессуарлар)
ЖИ жұп нысандардың симметриясын сақтауды жиі ұмытады. Құлақ қалқандарының пішіні екі түрлі болуы мүмкін. Көп жағдайда сырғалардың көлемі әртүрлі болады немесе қозғалыс кезінде шашқа «сіңіп» кетеді. Көзілдірік жиектері теріге кіріп кеткендей көрінеді.
ЖИ сарапшылардың айтуынша генеративті модельдер (GAN) жазық фотолар арқылы жаттығады. Сондықтан 3D-кеңістікте қозғалғанда перспективаны есептеуден қате жібереді.
4. Текстуралар динамикасы және «биосигналдар». Мойын мен тері ерекшелігі
Дипфейктердің мойны тым тегіс (пластик сияқты) болады. Тірі адамда басын бұрғанда тері қатпарланып, бұлшықеттер (платизма) ширығады. Мұны Intel инженерлері FakeCatcher технологиясын жасап дәлелдеген. Ол қан айналымынан туындайтын тері түсінің микроскопиялық өзгерістерін іздейді. Нағыз адамның жүзі жүрек соғысымен бірге «соғады» (пульсация), ал дипфейктерде бұл жоқ.
5. Профильдегі сәйкессіздік
Бұл видеоқоңырау кезіндегі ең тиімді тест. Басты 90 градусқа күрт бұрғанда ЖИ-бетпердесі «сырғып» немесе дірілдеп кетеді. Сондай-ақ, ЖИ жанасу физикасын нашар түсінеді: егер адам бетін қолымен ұстаса, саусақтар беттің ішіне «кіріп» кеткендей көрінуі мүмкін. Егер видеоқоңырау кезінде мұндай көрініске тап болсаңыз, алдыңызда 100% дипфейк болғаны. Өйткені, мамандар модельдердің тұрақтылық шегін зерттеп, ЖИ көріністегі бір нысан екіншісін жауып қалғанда (мысалы, қол бетті жапса) ЖИ архитектурасының қате жіберетінін анықтаған.


