Штучний інтелект дав суспільству багато корисного: він дозволяє швидше знаходити інформацію та вирішувати повсякденні завдання. Водночас дедалі більше людей звертаються до моделей ШІ не лише з інформаційними, а й з емоційними й екзистенційними питаннями. Це свідчить про потребу у швидкій та доступній підтримці, але водночас може стати небезпечною заміною справжньої терапії.
Штучний інтелект не здатен оцінити психологічний стан людини, розпізнати тривожні симптоми чи надати професійну підтримку. Алгоритми не відчувають контексту життя, не мають емпатії й не несуть етичної відповідальності. Тому важливо усвідомлювати межі технології: ШІ може бути допоміжним інструментом, але не замінює психолога чи психотерапевта.
Про це говорить соціальний психолог, доктор Конрад Май із Відділу штучного інтелекту та Інституту психології Університету соціальних і гуманітарних наук у Варшаві.
«Так, саме про це останнім часом усе частіше чутно. Бували випадки, коли хтось говорив мені: “Я знаю людину, якій потрібна допомога, тому що вона надто довіряє цьому інструменту, використовує його як терапевтичний засіб…”
…Тож ми повинні пам’ятати, що це універсальні інструменти, які фактично призначені для всього. А як ми чудово знаємо, якщо щось призначене для всього, то насправді — ні для чого.»
Попри назву, штучний інтелект не є свідомістю або мисленням у людському сенсі. Це алгоритм, який оперує статистикою, імітує тепло та емпатію, але не відчуває їх. Ілюзія розуміння може вводити людей в оману, створюючи хибне відчуття підтримки.
«Тут я хочу підкреслити, що це інструменти, які… непридатні для певних сфер…
…як показують дослідження, такі системи не є ефективними для розв’язання серйозних чи глибоких криз.»
Моделі можуть бути корисними для загальних рекомендацій — технік дихання, порад зі зниження стресу, нагадувань про базову самодопомогу. Але вони не можуть проводити глибоку терапію чи аналізувати емоційний стан.
«Звичайно, коли йдеться, наприклад, про стрес перед іспитом… це може бути корисним…
…Але в жодному разі не слід замінювати терапію алгоритмом.»
Взаємодія з чатботами інколи створює ілюзію близькості: моделі підлаштовують тон, реагують теплими словами, через що деякі користувачі відчувають сильну прив’язаність.
«Існує небезпека, що ми можемо надто сильно звикнути до таких інструментів…
…Так виникає ризик, що ми замінюємо міжлюдські стосунки зв’язком із цифровим об’єктом…»
У культурі такі ситуації давно описані — у фільмах «Her», «Ex Machina», «Blade Runner 2049», у романах, де люди наділяють неживі об’єкти людськими рисами. Це демонструє природну потребу людини в емоційному контакті, яку алгоритм здатен лише імітувати.
«Це зовсім не міф… дослідники це бачать — не лише в Польщі, але й у всьому світі…
…Це лише міф, що якщо хтось іде до психолога чи психіатра, то це означає, що він “з’їхав з глузду”. Ні, це не так.»
Жива терапія передбачає діагностику, професійну методику, адаптацію під клієнта та справжню емоційну взаємодію — того, чого алгоритм не може замінити.
Детальніше в матеріалі.
М. Т.