Беларуская Служба

Крытычнае мысленне і праверка крыніц – найбольш эфектыўныя спосабы абароны ад фэйкаў – эксперт NASK

11.03.2026 17:52
Штучны інтэлект усё часцей выкарыстоўваецца для стварэння фальшывых аўдыявізуальных матэрыялаў, якія служаць дэзінфармацыяй.
Аўдыё
  • Штучны інтэлект усё часцей выкарыстоўваецца для стварэння фальшывых аўдыявізуальных матэрыялаў
   .
Здымак мае ілюстрацыйны характар. jerzy/pixabay.com/CC0 Public Domain

Штучны інтэлект усё часцей выкарыстоўваецца для стварэння фальшывых аўдыявізуальных матэрыялаў, прыкладам чаго з'яўляецца дэзынфармацыя адносна сітуацыі ў Іране.

Маніпуляваныя відэазапісы выбухаў і пажараў маюць на мэце падарваць давер да дзяржаўных установаў і павялічыць колькасць падпісчыкаў уплывовых блогераў.

Нягледзячы на прагрэс у тэхналогіях выяўлення фэйкавых навін, крытычнае мысленне і праверка крыніц застаюцца найбольш эфектыўнай формай абароны, — пераконваюць эксперты.

Якая мэта стварэння фальшывых запісаў, створаных штучным інтэлектам, у кантэксце вайны ў Іране? З гэтым пытаннем мы звяртаемся да аналітыка дадзеных з Навукова-акадэмічнай кампʼютэрнай сеткі — Нацыянальнага навукова-даследчага інстытута (NASK) Караліны Чэрняк-Ласевіч (Karolina Czerniak – Łosiewicz):

— Субʼекты, якія займаюцца дэзінфармацыяй, напрыклад, з Усходу, безумоўна, маюць свае ўласныя мэты, якіх яны хацелі б дасягнуць, ствараючы паніку або спрабуючы неяк панізіць рэпутацыю афіцыйных СМІ. Я думаю, што адной з найбольш распаўсюджаных мэтаў такіх дэзінфармацыйных кампаній можа быць проста падрыў даверу да асноўных СМІ і дзяржаўных інстытутаў, усяленне ў людзей пачуцця трывогі і стварэнне ўражання, што асноўныя СМІ не пра ўсё паведамляюць; што трэба шукаць іншых крыніц, каб атрымаць доступ да поўнай інфармацыі. Вядома, іншая мэта — гэта пашырэнне свайго ўплыву, свайго брэнда ў інтэрнэце, магчыма, стварэнне большага ажыятажу вакол сябе. Такі кантэнт часта павялічвае прагляды. Інфармацыя пра тое, што адбываецца нешта жудаснае, хоць і яна несапраўдная, аднак моцна прыцягвае нашу ўвагу. Гэта кантэнт, які павялічвае папулярнасць і ахоп у інтэрнэце.

Ці зʼяўляецца фальшывы кантэнт, створаны штучным інтэлектам, напрыклад, відэа і фота, больш небяспечным, чым традыцыйны фотамантаж?

— Фальшывы  кантэнт можа быць гэтак жа небяспечны. У выпадку з дэзінфармацыяй адносна канфлікту ў Іране мы сутыкнуліся з прыкладамі такіх аўдыявізуальных матэрыялаў, якія часта адлюстроўваюць пажар, які дарэчы штучна павялічаны для больш драматычнага эфекту. Паказваюцца нейкія разбурэнні, якіх насамрэч не было. Мне здаецца, што такі кантэнт, створаны штучным інтэлектам, гэта часта «перапрацоўка» — мінулыя падзеі, прадстаўленыя ў новым кантэксце. Напрыклад, відэа з папярэдніх ваенных канфліктаў могуць быць выкарыстаны зараз, пашыраючы дэзынфармацыю пра тое, што адбываюцца жудасныя падзеі.

Як мы, як аўдыторыя, можам абараніць сябе? Як мы можам адрозніць дэзінфармацыю ад сапраўдных фактаў?

— Калі гаворка ідзе пра кантэнт, створаны штучным інтэлектам, існуе мноства спосабаў, такіх як назіранне за тым, ці вобраз натуральны, напрыклад, наколькі натуральнымі выглядаюць рухі людзей, іхныя рукі ці рот. Добрая практыка, перш за ўсё, заключаецца ў тым, каб захаваць спакой і падтрымліваць крытычнае мысленне, бо матэрыял, які выклікае моцныя пачуцці, выклікае таксама вельмі моцную рэакцыю ў нас. Таксама вельмі важна сачыць за надзейнымі крыніцамі, гэта значыць, нельга верыць усяму, што бачым у сацсетках. Калі мы сутыкаемся з нейкай сумнеўнай інфармацыяй, то варта праверыць яе ў іншай крыніцы, напрыклад, у больш аўтарытэтных СМІ або проста ў СМІ, з якімі мы сутыкаліся раней. Калі мы бачым такую дэзінфармацыю ў інтэрнэце, то можам паведаміць пра яе на вэб-сайце www.zgłos-dezinformacje.nask.pl — мы прымаем такія паведамленні аб дэзінфармацыі, з якой сутыкаюцца інтэрнэт-карыстальнікі.

Ці тэхналогія выяўлення непраўдзівага кантэнту паспявае за развіццём штучнага інтэлекту?

— Мы ведаем, што гэтыя відэа, створаны пры дапамозе ШІ, пастаянна ўдасканальваюцца. Элементы, якія дазвалялі нам хутка адрозніваць непраўдзівы кантэнт ад рэальнага, пастаянна дапрацоўваюцца, бо людзі, якія ствараюць гэты кантэнт, ведаюць на чым засяродзіцца, каб увесці нас у зман. У сваю чаргу, тэхналогіі, якія ідэнтыфікуюць дэзінфармацыю таксама ўдасканальваюцца. Перш за ўсё, наша наймацнейшая зброя — гэта крытычнае мысленне і ўсведамленне таго, што хтосьці можа паспрабаваць выкарыстаць нашыя эмацыйныя рэакцыі, і старацца пазбягаць удзелу ў такой «гульні» наколькі гэта магчыма.

Пра пагрозы з боку штучнага інтэлекту, а таксама пра спосабы абароны ад дэзінфармацыі гаварыла аналітык з NASK Караліна Чэрняк-Ласевіч.

Пётр Жулноўскі/аз

Даследаванне: Кітайскія мадэлі штучнага інтэлекту сістэматычна цэнзуруюць палітычны кантэнт

24.02.2026 17:00
У параўнанні з заходнімі моўнымі мадэлямі, кітайскія чат-боты са штучным інтэлектам па-рознаму рэагавалі на далікатныя палітычныя пытанні аб Кітаі.