Беларуская Служба

Генератыўны штучны інтелект нясе з сабой пагрозы і шанцы

01.06.2023 16:38
Паводле спецыялістаў, Генератыўны штучны інтэлект будзе хутка развівацца і сёння цяжка прадугледзець наколькі ён можа быць для людзей небяспечны.
Аўдыё
  • Генератыўны штучны інтелект нясе з сабой пагрозы і шанцы; Драўляны Citroen 2CV
 .
Ілюстрацыйнае фота.shutterstock/Tada Images

Інавацыйны штучны інтэлект – папулярны чат GPT- можа напісаць праграму, здольную скрасці дадзеныя. Аднак ён не зможа зламаць сістэму бяспекі, якая выкарыстоўваецца фінансавымі кампаніямі, супакойваюць спецыялісты, якія ўдзельнічалі ў канферэнцыі Infoshare ў Гданьску.

Мацей Агуркевіч (Maciej Ogórkiewicz), спецыяліст па кібербяспецы, тлумачыць, што такое генератыўны штучны інтэлект:

- Генератыўны штучны інтэлект, вядомы як Generative AI, гэта шырокая галіна сучаснай тэхналогіі, якая з дапамогай алгарытмаў і інтэнсіўнай вучобы, здольная вырабляць рэалістычны кантэнт. Гэта можа быць тэкст на розных мовах, гук, вельмі рэалістычныя фатаграфіі і відэа шэрагі.

Штучны інтэлект ужо сёння выкарыстоўваецца кіберзлачынцамі для некалькіх метадаў, адзначае спецыяліст па кібербяспецы Пшэмыслаў Волек (Przemysław Wolek).

- Па-першае, кіберзлачынцы могуць выкарыстоўваць Генератыўны штучны інтэлект для падрыхтоўкі шкоднага праграмнага забеспячэння. Ужо цяпер можна загадаць чату GPT стварыць шкодны код. Праўда, чат GPT мае пэўныя механізмы, якія абараняюць ад падобных практык, аднак ёсць інструменты, якія дапамагаюць выкарыстаць чат GPT, каб напісаць шкодную праграму. Іншы метад, які выкарыстоўваецца хакерамі, гэта – падрыхтоўка кантэнту, то бок выяваў, мэйлаў, паведамленняў, што не адрозніваюцца ад тых, якія высылае кліентам банк.

Мацей Агуркевіч адзначае, што штучны інтэлект можа быць тэхналогіяй падвойнага выкарыстання.

- Можна яе выкарыстаць для крадзяжу грошай ці для кіберзлачынстваў, аднак Генератыўны штучны інтэлект можа дапамагаць спецыялістам абараняцца. Напрыклад, можа дапамагчы праграмістам стварыць бяспечны код, можа дапамагчы прааналізаваць вялікую колькасць дадзеных на аснове сфармуляванага запыту, так як бы мы запыталі ў чалавека. Мы можам аўтаматызаваць частку дзеянняў праз падрыхтоўку тэкстаў ці фрагменту дадзеных раней вывучанага алгарытму. Праграміст не будзе вымушаны выконваць нудныя дзеянні і накіруе высілкі на крэатыў ці выпрацоўку новых рашэнняў. Гэта падобна як у авіяцыі. Вялікія самалёты поўнасцю аўтаматызаваныя і большая частка палёту пасажырскага самалёта адбываецца ў аўтаматычным рэжыме, аднак у кабіне па ранейшаму прысутныя два пілоты.

Паводле спецыялістаў, Генератыўны штучны інтэлект будзе хутка развівацца і сёння цяжка прадугледзець наколькі ён можа быць для людзей небяспечны.

«Нам трэба назіраць за тым, як развіваецца Генератыўны штучны інтэлект, бо ён можа несці вялікія пагрозы. Чат GPT ці Генератыўны штучны інтэлект будзе выкарыстоўвацца таксама абаронцамі. Таму можна чакаць «войнаў» штучнага інтэлекту«, – адзначыў Пшэмыслаў Волек.

«Нам увесь час трэба ўсведамляць пагрозы і няспынна сачыць за бяспекай сістэмаў, за бяспекай людзей. Нам неабходна процідзейнічаць выкарыстанню Генератыўнага штучнага інтэлекту супраць людзей ці арганізацый. У гэтым выпадку вялікую ролю адыгрываюць афіцэры і эксперты па бяспецы, але таксама адукаванае, пільнае грамадства«, – зазначае Мацей Агуркевіч.

Пра небяспеку і шанцы, якія стварае Генератыўны штучны інтэлект, ішла гаворка на канферэнцыі Infoshare ў Гданьску.

яс/PAP

Больш на гэтую тэму: Навука і тэхніка