Апошнім часам урад Кітаю надае прыярытэт штучнаму інтэлекту. ШІ называецца ключавым элементам эканамічнага развіцця, тэхналагічнай мадэрнізацыі і глабальнай канкурэнцыі.
Кітайскі падыход характарызуецца спалучэннем цэнтралізаванага дзяржаўнага планавання і дынамічнага прыватнага сектара. Разам з тым, кітайскі ШІ развіваецца ў канкурэнцыі да Злучаных Штатаў і Захаду, дзе гучыць заклапочанасць у звязку з выкарыстаннем ШІ для цэнзуры, кантролю прыватнасці чалавека ды абмежавання правоў.
У чым асаблівасць кітайскага штучнага інтэлекту, што павінны ведаць пра кітайскі падыход да машыннага навучання ў Еўропе, дзе ёсць падводныя камяні. Гэтыя пытанні мы абмяркоўваем гэта з Кацперам Кнахоўскім з Універсітэта кардынала Вышынскага ў Варшаве і Аляксандрам Казакам з Інстытута паліталогіі Гданьскага ўніверсітэта.
— Пра кітайскі ШІ хацелася б ведаць больш, чым нам цяпер вядома. Усё, што нам вядома, гэта тое, што ўслед за амерыканцамі кітайцы таксама прапрацоўваюць мадэлі машыннага навучання і робяць гэта падобным чынам да нас. Аднак не трэба называць гэтую тэхналогію нейкай новай тэхналогіяй, бо штучны інтэлект, напрыклад, DeepSeek, мадэль кітайскай мовы, ускосна паходзіць ад сямейства так званых мадэляў NLP, або праграмавання натуральнай мовы, заснаваных на аналізе тэксту. Мы ведаем пра гэтыя алгарытмы ўжо шмат гадоў, выкарыстоўваем іх і ўжываем такія алгарытмы, як Text Mining праз розныя тыпы такенізацыі ды іншыя падобныя метады. Кітайская мадэль вылучаецца тым, што гэта новая тэхналогія ў Кітаі, але не ва ўсім свеце. Яшчэ мы таксама ведаем, што кітайская мадэль была падрыхтавана з большай фінансавай эфектыўнасцю, чым амерыканскі аналаг GPT-4. Аднак пазней мы даведаліся, што гэта быў маркетынгавы ход, бо ўвесь кошт запуску не склаў 6 мільёнаў долараў, а хутчэй сотнях тысяч ці нават мільярды долараў.
Дарэчы, на пачатку года, калі з'явіўся Deep Seek, галіна ШІ ў ЗША перажыла сапраўдны шок, быў вялізны ажыятаж у СМІ і шмат каментарыяў. Чаму?
— Нечаканай стала сама па сабе інфармацыя, што Кітай мае ШІ, бо з самага пачатку, калі выйшаў чат GPT чацвёртай версіі, казалі, што кошт складзе каля 78 мільёнаў долараў. Калі з'явілася аб'ява аб выхадзе Deep Seek на рынак і выключна маркетынгавая інфармацыя, у якой згадвалася, што само навучанне (хаця не ўдакладнялася, што гэта выключна навучанне па мадэлі LLM), каштавала 6 мільёнаў долараў, усе адразу падумалі, што ўсе тэхналогіі, звязаныя з інтэгральнымі схемамі, відэакартамі і працэсарамі, абсалютна бессэнсоўныя. То бок падмурак амерыканскай моцы практычна знішчаны. Пазней аказваецца, што тэхналогіі, заснаваныя на працэсарах NVIDIA патрэбныя нам усім.
Чаму ж тады кітайцы пайшлі на такі крок?
— Каб паказаць свету, што яны таксама могуць зрабіць ШІ. Яны не зусім этычна гэта прадставілі, бо схавалі вельмі важныя факты пра тое, што выпуск іх мадэлі каштуе не 6 мільёнаў долараў, а значна больш.
У звязку з маніпуляцыямі, у Еўропе ўзнікла пытанне адносна бяспекі, наколькі для Еўропе і ЗША бяспечна развіццё штучнага інтэлекту ў Кітаі, зазначае Аляксандр Казак.
— У цэлым усё залежыць ад таго, як тэхналогія будзе выкарыстоўвацца. Увага да кітайскага ШІ была звязана не толькі з колькасцю грошай, выдаткаваных на запуск DeepSeek, але і таму, што людзі вырашылі праверыць аб’ектыўнасць чата DeepSeek. Адно з самых папулярных пытанняў тычылася падзей на плошчы Цяньаньмэнь і ўсе хацелі даведацца.
Ці ШІ не дасць адказу?
— Высветлілася, што не даў. Гэта азначае, што ёсць пэўныя фільтры, якія правяраюць наратыў штучнага інтэлекту для карыстальніка. Гэты элемент навучання цяпер актыўна выкарыстоўваюць расіяне. Як правіла, мы можам увесці ў машыну любую інфармацыю, не цалкам правераную або не зусім праўдзівую, або нават дэзінфармацыю, і дзякуючы гэтаму распаўсюджваць дэзінфармацыю. Людзі, якія спрабуюць знайсці простыя адказы на складаныя пытанні, мы з нецярпеннем гатовы слухаць, што скажа штучны інтэлект. Пануе перакананне, што штучны інтэлект разумнейшы за сярэдняга чалавека і, нібыта, не будзе хлусіць. Аказваецца, што ў розных спасылках на анлайн-крыніцы, вэб-сайты або літаратуру — ШІ, не толькі кітайскі, распаўсюджвае у некаторай ступені пракрамлёўскую прапаганду, узятую з сайта Sputnik.
Што можа зрабіць звычайны карыстальнік у гэтай сітуацыі? Цяпер мы бачым, што, нягледзячы на тое, што гэта новая тэхналогія, яна ўсё яшчэ мае свой нацыянальны ці, скажам так, рэгіянальны акцэнт, здольная на фальсіфікацыю і хлусню? Правяраць, кажа Кацпер Кнахоўскі.
— Гэта не зусім новая тэхналогія, проста сёння мы эфектыўна выкарыстоўваем алгарытмы, якія былі створаны дзесяцігоддзі таму, і толькі цяпер мы знайшлі для іх рэалізацыю ў адпаведных тэхналогіях, якімі мы валодаем зараз. Тэхналогіі, якія былі ў нашых папярэднікаў дзясятак ці нават дзесяць гадоў таму, не маглі дазволіць навучаць такія вялікія моўныя мадэлі, таму што гэта былі проста моўныя мадэлі. Мы, вядома, усё яшчэ называем гэта штучным інтэлектам, але гэта ўсё яшчэ далёка ад штучнага інтэлекту, бо яшчэ няма генератыўнасці.
Аляксандр Казак зазначае, што варта памятаць, пра тое, хто выкарыстоўвае тэхналогію.
— Калі казаць пра Кітай, то любы кітайскі бізнес цесна звязаны з Камуністычнай партыяй Кітая. З ШІ важна кантраляваць падачу інфармацыі ў інфармацыйным патоку. Штучны інтэлект ўлічвае, што ёсць розныя галасы, розныя тэгі, але і колькасці па кожнай тэме. З гэтым можна працаваць, каб распаўсюджваць канкрэтную інфармацыю. Сам штучны інтэлект не можа праверыць, што ёсць праўдай, а дзе прапаганда. Таму гэта адначасова праблема для кагосьці, і большая перавага для некага іншага.
ШІ надалей патрабуе фільтраў і мадэравання з удзелам чалавека, дадае Кацпер Кнахоўскі.
— Менавіта для гэтага і трэба выкарыстоўваць фільтры. Толькі DeepSeek не напіша пра пратэсты на плошчы Цяньаньмэнь, не будзе пісаць пра існаванне такой краіны, як Кітайская Рэспубліка, больш вядомай як Тайвань, а GPT адфільтроўвае кантэнт гвалтоўнага характару, ці, напрыклад, педафілію. Фільтры павінны быць рэалізаваны людзьмі, разумеючы, што тэхналогіі, як бы дэманічна гэта ні гучала, можа быць проста выкарыстаны дрэннымі людзьмі ў дрэнных мэтах. Таму людзі павінны працягваць ажыццяўляць кантроль.
Эксперты зазначаюць, што як кожная тэхналогія: ШІ не пазбаўлена недахопаў і праблем. Людзям трэба вучыцца яе выкарыстоўваць і памятаць, што гэта толькі тэхналогія, немагчыма ёй на 100% давяраць.
Размаўляў Юры Ліхтаровіч