Беларуская Служба

Deepfake – тэхналогія, якая палягчае фальшаванне тоеснасці

28.03.2021 12:34
Тэхналогія развіваецца і зараз магчымае не толькі фальшаванне здымкаў людзей, але і цэлых відэастужак.
Аўдыё
  • Тэхналогія deepfake, як большасць з'яваў мае свае вялікія плюсы, але стварае і пагрозы.
Здымак мае ілюстрацыйны характарShutterstock/Mihai Surdu

Кожны бачыў ужо пераробленыя ў фоташопе здымкі. Пасля гадоў ад увядзення гэтай тэхналогіі, людзі ведаюць як знайсці розніцы між рэальным здымкам, а фэйкавым фота. Тэхналогія, аднак, развіваецца і зараз магчымае не толькі фальшаванне здымкаў людзей, але і цэлых відэастужак. Гэта называецца deepfake. Такая практыка прывяла ўжо да некалькіх смешных, але і трагічных сітуацый.

На самым пачатку я б хацеў вас папрасіць паслухаць фрагмент песні:

Калі б вы слухалі проста наш эфір, у прынцыпе, не было б нічога незвычайнага. Мы ўжо прывыклі да таго, што людзі робяць пародыі на голас беларускага кіраўніка. Але, вам трэба паглядзець кліп гэтай песні, каб даведацца ў чым тут «прыкол». Гэта пародыя на песню Ягора Крыда «Сердцеедка», толькі са змененым тэкстам ды змененым персанажам у кліпе. І хаця ўсе астатнія ўдзельнікі вясковай вечарынкі застаюцца тымі ж, то Ягор Крыд замяніўся тварам з Аляксандрам Лукашэнкам. Твар былога беларускага прэзідэнта міргае, яго вусны рухаюцца ды ён сам таньчыць з вялікай натуральнасцю. Як гэта магчыма? Вось гэта і ёсць сутнасць deepfake. Пры чым, у гэтым кліпе тэхналогія выкарыстана яшчэ з адмысловай недакладнасцю, дзеля смеху ды павелічэння абстрактнасці. Падобны эфект выкарыстоўваўся пры стварэнні мема на песню «Gdzie jest biały węgorz» польскага артыста Цыпіса, які стаў найбольш папулярным польскім экспартным мэмам у інтэрнэце. Вы ўзгадаеце яго, пачуўшы першы радок песні: «Tylko jedno w głowie mam…».

Але жарты ў бок. Тэхналогія deepfake выкарыстоўвалася і ў менш пазітыўных сітуацыях. Калі коратка, deepfake – гэта вельмі добра распрацаваны алгарытм, які пастаянна вучыцца. Ён вывучае рухі чалавека, яго характэрныя рысы. Дзякуючы гэтаму ён дазваляе перанесці рухі аднаго чалавека на другога, «спалучаючы» падобныя пункты на кожным целе і твары. Стварае свайго тыпу маску, якая пераносіць усе рысы на твар арыгіналу. Калі алгарытм мае дачыненне з тысячамі відэа з удзелам аднаго чалавека, то накласці яго на іншы твар удаецца без ніякіх праблемаў, бо кожны магчымы рух быў засвоены deepfake. А якія людзі маюць тысячы відэа, на якіх яны прамаўляюць? Канешне, палітыкі.

Так, тры гады таму медыягрупа BuzzFeed стварыла ролік, у якім нібыта Барак Обама кажа рэчы, якіх ён бы ніколі не сказаў.

-Мы ўваходзім у эпоху, калі нашыя ворагі могуць ствараць матэрыял, у якім мы кажам тое, чаго мы б ніколі не сказалі. Так, напрыклад, могуць зрабіць нешта, дзе я скажу, што прэзідэнт Трамп – гэта поўны дурань. Я б так ніколі не сказаў, прынамсі ў афіцыйным звароце. Але нехта іншы мог бы, напрыклад, комік Джордан Піл.

Такім чынам Джордан Піл разам з BuzzFeed перасцерагаюць перад тым, каб не верыць ува ўсё, што ёсць у інтэрнэце. Нават, калі відэа выглядае вельмі рэалістычна, яно можа быць звычайнай падробкай. І калі казаць пра палітыкаў, іх відэа з тэхналогіяй deepfake папулярныя. Сваю фальшыўку мае і Уладзімір Пуцін, і каралева Лізавета і, як мы чулі напачатку, Аляксандр Лукашэнка.

І выпадку палітыкаў, раней ці пазней выявіцца, што відэа несапраўднае. Інакш сітуацыя выглядае са звычайнымі людзьмі, калі яны стануць ахвярай нейкага рэваншу, як, напрыклад, удзельніцы аднаго з амерыканскіх гуртаў чырлідынгу ў мінулым годзе:

-Паліцыя абвясціла, што ў ліпені 2020 года 50-гадовая Рафаела Інэла, без ведама дачкі, даслала фэйкавыя фота і відэа да трэнераў каманды. На іх былі бачныя тры 16-гадовыя дзяўчыны, якія ў адным бікіні пілі і курылі. Аказалася, што гэта былі ўдзельніцы былой каманды дачкі Рафаелі. Адной з дзяўчын была Мэді Хайм, якую выкінулі з каманды за тое, што на відэа яна курыла, што пярэчыць правілам каманды. Яна расказвала, што пасля рашэння пайшла ў машыну і пачала плакаць, ведаючы, што гэта не яна. Адначасова ніхто ў гэта не паверыў, бо былі відэадоказы. Паверыла маці і падала заяву ў паліцыю, а тая ў сваю чаргу знайшла аўтарку маніпуляцыі.

Зараз Рафаела Інэла можа правесці год за кратамі па трох абвінавачаннях у здзекаванні над малалетнімі. Яна аспрэчвае дрэнныя намеры пры стварэнні фэйкавых матэрыялаў, аднак, гэта недастатковая абарона. Яе абаронца ў судзе расказаў, што калі справа з’явілася ў СМІ, Рафаелі пачалі прыходзіць пагрозы смерці.

Тэхналогіяй deepfake сёння можа гуляць кожны. Існуе шмат прыкладанняў на камп’ютары і тэлефоны, якія ледзь не аўтаматычна замяняюць твар і рухі чалавека ў відэа. Да моманту, калі нашыя намеры будуць выключна камедыйнымі, усё добра. Варта, аднак, задумацца перад тым, як пачаць маніпуляваць голасам і тварам іншых людзей. Ці наш deepfake не пойдзе яму на шкоду. І ў выніку таксама нам.

Альберт Ежы Вяжбіцкі