Беларуская Служба

Расія выкарыстоўвае дыпфэйкі ў дэзынфармацыйнай вайне супраць Украіны

28.03.2024 14:01
Эксперт NASK тлумачыць, як распазнаць лічбавы падман, падрыхтаваны ў мэтах дэзынфармацыі.
Аўдыё
  • Эксперт NASK тлумачыць, як распазнаць лічбавы падман, падрыхтаваны ў мэтах дэзынфармацыі
   .
Здымак мае ілюстрацыйны характар.Gerd Altmann/pixabay.com/CC0 Public Domain

Надоечы ў расійскіх СМІ з'явілася відэа з нібыта выказваннямі Аляксея Данілава, які на той момант займаў пасаду сакратара Рады нацыянальнай бяспекі і абароны Украіны. Заявы палітыка сведчылі аб датычнасці Украіны да тэракту ў выставачна-канцэртным комплексе «Крокус Сіці Хол»(Crocus City Hall) у Падмаскоўі, у якім загінулі 133 чалавекі, а пацярпелі каля 150. Эксперты і аналітыкі хутка класіфікавалі згаданы запіс як дыпфэйк – лічбавы падман, падрыхтаваны ў мэтах дэзынфармацыі.

Дыпфэйк (deepfake), інакш глыбокі фэйк – гэта фальсіфікаваны сродкаў масавай інфармацыі створаны з дапамогай сістэмы машыннага навучання, у прыватнасці, глыбокай нейронавай сеткі.
Тэхналогія дыпфэйк стварае новыя магчымасці ў інфармацыйнай вайне, кажа доктар-інжынер Эвэліна Бартузі-Тракялевіч (Ewelina Bartuzi-Trokielewicz) з Навукова-акадэмічнай кампʼютарнай сеткі-Нацыянальнага навукова-даследчага інстытута (NASK):

- Тэхналогія дыпфэйк дазваляе маніпуляваць вобразам і гукам, выкарыстоўваючы штучны інтэлект. Яна дае новыя магчымасці ў інфармацыйнай вайне. Самы свежы прыклад, гэта дзеянні Расійскай Федэрацыі, якія паказваюць патэнцыял пагрозы з боку згаданай тэхналогіі. Відэа пра якое мы згадалі, утрымлівала не толькі фальсіфікаваны малюнак Аляксея Данілава. Дадаткова згаданы малюнак быў змешчаны ў тэлевізійным шаблоне, каб рабіць уражанне прафесійнага інтэрв’ю і пацвердзіць сапраўднасць. Згаданы прыклад паказвае, якім чынам можна выкарыстаць тэхналогію дыпфэйк з мэтай стварэння ілжывых наратываў. Згаданае прапагандысцкае відэа, гэта элемент шырэйшай дэзынфармацыйнай кампаніі з мэтай ускласці на Украіну адказнасць за тэракт з 22 сакавіка. У ім быў выкарыстаны матэрыял з 16 сакавіка, у якім постаць кіраўніка Галоўнага ўпраўлення разведкі Мінабароны Украіны Кірыла Буданава была заменена малюнкам Данілава. Нягледзячы на выразныя намаганні расійскіх прапагандыстаў, якасць фальсіфікаванага матэрыялу не была самай лепшай.

У згаданым відэа выкарыстоўваліся праграму для кланавання голасу Данілава і тэхналогія lip-sync, то бок сінхранізацыя рухаў вуснаў да падрыхтаванай прамовы. Калі гаворка ідзе пра згаданае відэа доказаў маніпуляцыі было даволі шмат, напрыклад, нізкая якасць малюнку, нязгоднасць руху вуснаў з гукам, збоі ў сінхранізацыі. Для спецыялістаў яны былі выразныя, але для звычайных гледачоў – не абавязкова.

Паводле даследаванняў, асобы якія не ўсведамляюць тэхналагічнае развіццё, а таксама асобы з ніжэйшымі навыкамі крытычнага мыслення, у тым ліку старэйшыя асобы і дзеці, могуць не справіцца з ідэнтыфікацыяй такой фальсіфікацыі. Варта таксама звярнуць увагу на тое, што відэа з выказваннем Данілава было падрыхтаванае даволі хутка пасля падзеяў 22 сакавіка. Гэта доказ таго, што дыпфэйкі простыя ў выкарыстанні:

- Згаданая тэхналогія дазваляе выпусціць сінтэтычны матэрыял цягам некалькіх хвілінаў, пры ўмове доступу да адпаведных інструментаў. Гаворка ідзе пра замену малюнку асобы, сінтэз маўлення. Варта дадаць, што такія матэрыялы, як правіла, публікуюцца ў сацсетках, якія маюць вялікі дыяпазон дзеяння. Усё гэта адбываецца вельмі хутка.

Магчымасці выкарыстання тэхналогіі дыпфэйк у дэзынфармацыі вялікія. Дзякуючы ёй можна выкарыстаць, як выступ сапраўднага актора, якому можна «прыклеіць» чужы твар. Можна таксама выкарыстаць сапраўдны запіс выказвання нейкай асобы, але памяняць рух ейных вуснаў і тое, што яна нібыта кажа:

- Каб падрыхтаваць сінтэтычны голас дадзенай асобы дастаткова проба некалькі секундаў ейнага сапраўднага выказвання – гэта ў выпадку метадаў, якія зводзяцца да канверсіі тэкст у гаворку. У больш рэалістычных выпадках, то бо тады, калі канверсія адбываецца ў рэжыме рэальнага часу – метад speech-to-speech (пераўтварэнне маўлення ў маўленне) неабходныя 5-6 хвілінаў арыгінальнай прамовы, каб вывучыць мадэлі і стварыць сінтэтычны голас.

На шчасце існуюць спосабы на вылучэнне і ідэнтыфікацыю дыпфэйкаў. Ёсць некалькі паказальных знакаў, напрыклад, дрэнная сінхранізацыя вуснаў, ненатуральныя рухі, мігценне вакол краю твару і дэфармацыя дробных дэталяў, такіх як валасы, зубы або адлюстраванне. Іншыя патэнцыйныя прыкметы дыпфэйка ўключаюць нізкаякасныя часткі таго ж відэа і нерэгулярнае мірганне вачыма, пералічвае экспертка:

- Важны адукацыйны аспект, паколькі зараз нас залівае хваля фэйкаў. Таму варта звяртаць увагу на гэтак званыя артэфакты, то бок памылкі і збоі ў такіх матэрыялах. Гэта, напрыклад, памылкі ў тэкстуры скуры, нераўнамернае асвятленне постаці, а таксама іншыя дадатковыя элементы. Напрыклад, адным з першых дыпфэйкаў, які з’явіўся падчас расійскай вайны супраць Украіны, было відэа, у якім прэзідэнт Зяленскі заклікаў грамадзян здавацца. Згаданы матэрыял быў нізкай якасці. Напрыклад, галава прэзідэнта была непрапарцыйна астатняй частцы цела і выконвала мала дэталёвыя рухі. Дзякуючы гэтаму можна было даволі лёгка сцвердзіць, што гэта дыпфэйк. Памылак варта шукаць таксама ў голасе – у яго тоне і тэмбры. Варта таксама звяртаць увагу на неўласцівы стыль маўлення. Сінтэтычныя метады ў значнай ступені ліквідуюць адметныя манеры маўлення чалавека. Людзі таксама часта кажуць канкрэтныя словы, скажам так, па-свойму. На гэта таксама варта звяртаць увагу. Існуюць таксама прафесійныя інструменты, якія дазваляюць больш дэталёва даследаваць аўдыявізуальныя матэрыялы – выяўляць схаваныя рысы, гэтак званыя fingerprints, якіх пакідаюць нейронавыя сеткі, выкарыстоўваныя для вытворчасці дыпфэйкаў. Метады аўтаматычнага выяўлення дыпфэйкаў дазваляюць аўтаматызаваць гэты працэс.

Тэхналогія дыпфэйкаў пастаянна развіваецца, як у аспекце іх выяўлення, так і іх вытворчасці. Ці пагражае нам сітуацыя, у якой мы будзем бездапаможнымі па гэтаму пытанню:

- Тэхналогія развіваецца вельмі хутка. Неўзабаве згаданыя матэрыялы могуць быць настолькі рэалістычнымі, што цяжка будзе сцвердзіць іх несапраўднасць. Хоць, з другога боку, мадэлі да іх выяўлення таксама развіваюцца і паляпшаюцца. Тут важная адукацыя грамадства і ўсведамленне згаданай з’явы. Варта таксама выкарыстоўваць метад двайной праверкі ці карыстацца паслугамі агенцтваў, якія займаюцца «fact-checking», то бок праверкай інфармацыі, у выпадку зместу, які выклікае нашыя сумневы.

- раіла доктар- інжынер Эвэліна Бартузі-Тракялевіч(Ewelina Bartuzi-Trokielewicz) з Навукова-акадэмічнай кампʼютарнай сеткі – Нацыянальнага навукова-даследчага інстытута, з якой размаўляў Пшэмыслаў Павелэк.

пп/аз

Штучны інтэлект без ваганняў запусціў бы ядзерную бомбу

15.02.2024 15:19
Кампанія Open AI – стваральнік ChatGPT і адна з самых вядомых кампаній у галіне штучнага інтэлекту – пачала супрацоўніцтва з Міністэрствам абароны ЗША.