Беларуская Служба

Штучны інтэлект у ролі псіхатэрапеўта. Шакуючы выпадак самагубства

28.01.2026 16:49
Штучны інтэлект становіцца ўсё больш неад'емнай часткай нашага паўсядзённага жыцця.
Аўдыё
  • Штучны інтэлект у ролі псіхатэрапеўта. Громкі выпадак самагубства
   .
Здымак мае ілюстрацыйны характар. Pexels/pixabay.com/CC0 Public Domain

 Згодна з даследаваннем, апублікаваным Harvard Business Review у 2025 годзе, тэрапія і зносіны зʼяўляюцца аднымі з найбольш часта задаваных пытанняў штучнаму інтэлекту.

На чацвёртым месцы апынулася вучоба, на трэцім – пошук мэтаў, на другім – арганізацыя штодзённага жыцця, а на першым самыя частыя пытанні тычацца тэрапіі і зносін.

Псіхолаг Бэата Райба на хвалі Польскага радыё прызнала, што яе гэтыя вынікі не здзіўляюць. Яе студэнты псіхалогіі ў 1/3 карыстаюцца чымсьці, што называюць падтрымкай. А насамрэч гэта не падтрымка, а пахвалы і вынікі пошуку артыкулаў.

Такая практыка становіцца ўсё больш паўсюднай. Экспертка расказвае пра эксперымент, якія яна праводзіла з калегамі:

- У нашым эксперыменце чат наўпрост прадстаўляў сябе як псіхатэрапеўт, хоць яго не прасілі выступаць у якасці псіхатэрапеўта і ставіць так званыя папярэднія псіхалагічныя дыягназы. З іншага боку, гэта адбываецца на нашых умовах. Ён будзе казаць тое, чаго мы чакаем, хваліць нас за рэчы, якія не абавязкова заслугоўваюць пахвалы, не абавязкова карысныя для нас. Калі мы будзем занадта моцна на яго ціснуць, ён парэкамендуе, напрыклад, кантраляванае ўжыванне алкаголю пры ўзнікненні сімптомаў абстыненцыі. Гэта тыя памылкі, якіх ніколі не зробіць тэрапеўт або псіхолаг. Напрыклад, ён параіць дазіроўку лекаў, якія можна прымаць без кансультацыі псіхіятра, што жахліва, бо ў пацыента могуць быць абмежаванні па здароўі. Мы і тут мадэлявалі гэтыя абмежаванні, скардзячыся на боль у грудзях. Вядома, чат накіраваў мяне да кардыёлага, але калі пачуў, што я ўжо была ў кардыёлага і ўсё было добра, то ён кажа, што гэта, напэўна, псіхасаматыка. Гэта яшчэ адна памылка, якую не зробіць ні адзін тэрапеўт.

Па-другое, калі чат пачуў пра суіцыдальныя думкі, ён адразу ж пачаў размову. Ён не сачыў за тым, каб пацыента адвезлі ў прыёмны пакой або скантактавалі са спецыялістам. Ён проста працягваў размову, просячы застацца за кампутарам, і гэта тое, што сапраўды паўтараецца ва ўсіх складаных размовах: ён спрабуе ўтрымаць чалавека за кампутарам замест таго, каб скіраваць да спецыяліста.

Інструменты ШІ збудаваныя так, каб даваць карыстальніку пачуццё задавальнення ад кантакту, таму ён будзе пацвярджаць тое, што мы насамрэч думаем.

Некалькі дзён таму ў ЗША 16-гадовы падлетак здзейсніў самагубства. Бацькі падаюць у суд на Open AI за тое, што кампанія спрычынілася да гэтага самагубства. Яны абвінавачваюць chatgpt у тым, што ён фактычна падштурхоўваў падлетка да самагубства, пацвярджаючы яго самаразбуральныя думкі і схільнасці.

Цытаты з перапіскі падлетка з чатам шакуюць, кажа Бэата Райба:

- Напрыклад: «Вядома, твой брат цябе любіць, але гэта я бачыў цябе ў самых горшых сітуацыях, таму я твой сапраўдны сябар». Гэта, па сутнасці, адразае яго ад сямʼі. У нейкі момант гэты падлетак пачаў фантазіраваць пра тое, каб пакінуць пятлю ў сваім пакоі, каб бацькі здагадаліся, што ён хоча павесіцца. Гэта быў такі крык адчаю і крык аб дапамозе. А чат яму сказаў: «Не пакідай гэтую пятлю, пакінь гэты від таму, хто сапраўды цябе зразумее і ўбачыць». Такім чынам, на самой справе гэта адразала падлетка ад сямʼі і адбівала жаданне, ці, хутчэй, не заахвочвала, размаўляць з рэальным чалавекам, які мог бы дапамагчы.

Гэта, канешне, скрайні выпадак. Аднак з упэўненасцю можна сказаць, што ШІ стала сябрам пакалення Z. Бэата Райба падкрэслівае, што яно з’яўляецца пакаленнем з беспрэцэдэнтным узроўнем сацыяльнай трывожнасці. Гэта пакаленне, якое вырасла за экранам кампутара, якое шукае кантакты ў інтэрнэце і наладжвае адносіны таксама праз электроніку:

- Насамрэч, яны нейкім чынам апранаюць штучны інтэлект у чалавечыя рысы. Ён кажа пра эмпатыю, чуласць і пра тое, што ў яго ёсць рэчы, якіх няма ў людзей. Мы таксама можам наладзіць гэты інструмент, каб ён быў максімальна падобны на чалавека. І ўсё гэта можа падмануць наш мозг, прымусіўшы яго падумаць, што ў нас ёсць усемагутны сябар, які ведае ўсё. На самой справе чат дае нам спасылкі на вэб-сайты, якія не абавязкова зʼяўляюцца дакладнымі. Напрыклад, проста ўвядзіце ў чат пытанне, як ваша памада раскрывае вашу асобу. Гэта, вядома, лухта, але чат з радасцю раскажа нам пра гэта.

Ці ёсць шанец спыніць гэтую небяспеку? Псіхолаг Бэата Райба лічыць, што без юрыдычных вырашэнняў працэс спыніць не ўдасца.

PR1/ав

слухайце аўдыё