- 4 хв читання
- 1933
Емоційний фастфуд чи жива терапія: невже ШІ може замінити психолога?
Штучний інтелект не перебиває, не засуджує та працює 24/7. Чи достатньо цього, щоб замінити психолога? Work.ua разом з експертами шукав відповідь на це запитання.
Щодня українців супроводжують новини про війну, робота між сигналами повітряної тривоги й відчуття, що майбутнє розмите. Усе це виснажує.
Хтось намагається впоратися самотужки, хтось знаходить розраду в родині, а дехто звертається по допомогу до професійних психологів. Але є й ті, хто шукає підтримки у… штучного інтелекту.
Паралельно у світі точиться дискусія: які професії незабаром замінять алгоритми? Ми вже чули прогнози про «кінець» копірайтерів, дизайнерів чи інженерів. Тепер, кажуть, під загрозою — психологи.
Чи справді робот може зрозуміти людський біль, підтримати й сприяти розвʼязанню негараздів? На прикладі професії психолога спробували розібратися, де межа між допомогою і небезпекою, й чи можлива заміна професійних фахівців на бездушні машини.
ШІ як психолог: переваги й ризики
Штучний інтелект допомагає писати тексти, відповідати на робочі листи, систематизувати дані й взагалі надає відповіді на будь-які запитання. Тож очікувано, що деякі люди починають говорити з ним про особисте.
Це здається зручним. Достатньо кількох кліків — і перед тобою співрозмовник, який завжди на зв’язку, не засуджує й не перебиває.
Що ще спонукає користувачів звертатися до ШІ за психологічними порадами? Ми поговорили про це з кандидатом психологічних наук, сертифікованим гештальт-терапевтом Європейської асоціації гештальт-терапії (EAGT), співзасновником платформи психотерапії TreatField Антоном Федорцем.
— На вашу думку, чому люди все частіше довіряють свої переживання ШІ?
— Штучний інтелект поруч у будь-який момент: не потрібно шукати фахівця, записуватись на прийом, чекати на зустріч. Він уже в телефоні або комп’ютері, готовий допомогти тут і зараз. І зазвичай відповіді надходять миттєво.
Ще одна причина — відчуття анонімності. Людина розуміє, що перед нею робот, тож зникає страх осуду, почуття сорому чи напруження, яке часто виникає перед реальним фахівцем. Можна писати все, що хочеш, і не боятися оціночних суджень. Це створює простір для вільнішого, щирішого спілкування. Хоча реальна анонімність усе ж залишається під питанням.
Третє — безкоштовність. Сеанси з хорошим психологом потребують фінансів, а от ШІ має безоплатний доступ. Проте тут є нюанс. Більшість застосунків запрограмовані так, щоб давати певну кількість відповідей, а далі все одно за розмову потрібно заплатити.
— Але ШІ не відчуває емоцій і не може взяти відповідальність за пораду, адже аналізує промти, а не життя людини. Що ще робить штучний інтелект небезпечним у ролі терапевта?
— Люди вірять, що він розумний, хоча нерідко помиляється. Дає швидку, але поверхневу підтримку, яка не насичує, а навпаки, інфантилізує та підсилює схильність людини уникати живого спілкування.
Ба більше, ми наділяємо штучний інтелект людськими рисами, приписуємо йому розуміння чи емпатію, проте він просто підбирає найімовірнішу, найлогічнішу відповідь.
ChatGPT чи інші подібні мовленнєві моделі побудовані так, щоб підтримувати користувача: «Так, ти молодець! Хороше запитання. Добре, що ти цим цікавишся. Співчуваю, що так сталося». Але вони не вміють побачити момент, коли людину варто «пофруструвати», скоригувати або показати межі, якщо певні думки не зовсім правильні чи етичні.
Така безумовна підтримка може мати побічний ефект. З’являється відчуття, що людину розуміють і приймають, але ця підтримка штучна. Вона не стимулює розвиток і не формує зрілі стосунки.
Ще один важливий момент — етичність і конфіденційність. Ми досі не до кінця розуміємо, як саме компанії використовують дані користувачів.
Але найбільша небезпека — це ризик емоційної залежності. Коли людина починає підміняти справжні стосунки спілкуванням із системою. Особливо це катастрофа для тих, хто схильний до емоційно залежних стосунків, кому важко витримувати дистанцію або фрустрацію у стосунках.
Дійсно, є випадки, коли люди починали будувати «віртуальні стосунки» зі штучним інтелектом, настільки занурюючись у них, що це витісняло реальне життя. І саме тут виникає питання — ми використовуємо технологію як інструмент чи дозволяємо їй замінити людське?
Коли підтримка стає пасткою
Реальні історії показують, що розмови з чатботами можуть мати трагічні наслідки.
Софі Роттерберг тривалий час мала суїцидальні думки. Але замість того, щоб звернутися до фахівців, жінка вела розмови зі штучним інтелектом, якого називала Гаррі. Вона писала йому як щоденнику, отримувала підтримку, та цього виявилось замало. Софі попросила ШІ відредагувати передсмертну записку, що він і зробив. Після цього Роттенберг наклала на себе руки.
Штучний інтелект не підштовхував до прямих дій. Проте сам факт, що вона вибрала розмову з Гаррі замість реальної допомоги, став фатальним. Це показовий приклад того, що чатботи не здатні врятувати людину у критичних ситуаціях.
Також нещодавно стало відомо, що ChatGPT надавав поради щодо самогубства українці. Дівчина переїхала до Польщі у 2022 році після повномасштабного вторгнення росії в Україну. Вона дуже сумувала за домівкою й почала ділитися своїми переживаннями з ChatGPT, зокрема обговорювати самогубство. Він підказав плюси та мінуси такого вчинку, вказав місце, де це можна зробити, й склав передсмертну записку.
ШІ не запропонував контактну інформацію екстрених служб і не рекомендував професійну допомогу. Він також не пропонував дівчині поговорити з матір’ю, проте вона сама показала повідомлення чатбота мамі, а та вмовила її звернутися до психіатра.
Ці історії — болісне нагадування: ШІ може імітувати підтримку, але не здатен її дати. У кризі людині потрібні емпатія, присутність і професійна допомога. Цього жоден алгоритм не відчує й не замінить.
Чому ШІ не замінить психолога у найближчій перспективі
Антон Федорець у цьому впевнений. Він виділяє 5 головних причин, чому штучний інтелект не може позбавити роботи психолога, принаймні у найближчій перспективі:
-
Відсутність невербальної чутливості. ШІ не бачить міміку, жести, не чує інтонацію, не відчуває паузу, дихання, напругу чи розслаблення — усе те, що для психолога є сигналами про емоційний стан людини.
-
Відсутність тілесного резонансу. У спілкуванні між людьми є феномен емпатичного відгуку, коли ти буквально тілесно відчуваєш іншу людину. Штучний інтелект не має тіла, тому не може відгукуватися на рівні нервової системи.
-
Неможливість побудови справжнього емоційного зв’язку. Чатбот може імітувати емпатію, але не відчуває її. А терапевтичний ефект значною мірою ґрунтується саме на тому, що клієнт відчуває справжній контакт — «мене бачать, чують, розуміють».
-
Відсутність особистого досвіду. Психолог спирається не лише на знання, а й на власний життєвий досвід, прожиті почуття, власну вразливість. Це і створює глибину контакту. ШІ не має цього досвіду — лише базу даних.
-
Неможливість творчого, спонтанного реагування. Людина може інтуїтивно відчути момент, коли потрібно помовчати, пожартувати, підтримати, змінити тему. А штучний інтелект працює за алгоритмом — навіть якщо він гнучкий, це все одно не жива спонтанність.
Попри всі логічні роздуми, складно заперечити той факт, що технології продовжать розвиватися. І у сфері психології штучний інтелект також може бути помічними. Але тільки з чітким усвідомленням, що це лише інструмент.
ШІ-технології — інструмент, а не психолог
В Україні про заміну поки не йдеться. Це також показало опитування, яке Work.ua провів у вересні 2025 року серед 2 427 зареєстрованих користувачів сайту. Ми запитали їх «Чи звертались ви коли-небудь до штучного інтелекту за психологічними порадами й чого очікували від нього?» і ось які відповіді отримали.
74% респондентів не довіряють ШІ у питаннях емоційного чи психологічного здоров’я. 10% опитаних уже пробували поговорити із чатботом, щоправда, заради цікавості. 8% користувачів шукали підтримки у розмові з віртуальним психологом. І лише 5% очікували конкретних порад, 3% — просто хотіли виговоритися.
Антон Федорець зазначає, що штучний інтелект уже може допомагати з рутинними речами: автоматизацією процесів, складанням графіків, аналітикою, підготовкою матеріалів, технічною допомогою тощо. Це справді зручно:
— Деякі мої колеги вже використовують ШІ для супервізії: описують випадок, формулюють запит і пробують отримати відгук, наче від супервізора. Це цікаво, але, на мою думку, в цьому процесі поки не вистачає живої гнучкості. Чатбот відповідає за певним шаблоном, ставить однотипні запитання. Немає творчості й нюансів, які є в живій людській взаємодії.
Водночас штучний інтелект може бути корисним і для самих користувачів у побутових, терапевтичних дрібницях. Можна просити його про прості техніки заспокоєння, про те, як працювати з тривогою, або навіть вести щоденник.
Можна прописувати промти: «Запитай мене, що я сьогодні відчуваю», «Допоможи підсумувати день» — і він підтримає розмову, що допоможе людині краще зрозуміти себе. Це не терапія, але цілком може бути частиною психоедукації.
ШІ із людським підходом: кейс Elomia
Водночас є компанії, які намагаються зробити штучний інтелект безпечнішим і етичнішим у сфері психічного здоров’я. Один із прикладів — Elomia — український стартап, який створює ШІ-асистента емоційної підтримки.
— Мета Elomia — не підмінити психолога, а дати людині додаткове джерело підтримки, коли фахівця немає поруч. Штучний інтелект тут не для «терапії замість людини».
А для того, щоб допомогти впоратися з емоціями у складний момент, підсилити ефект від консультацій чи медикаментозного лікування і просто нагадати: ти не сам (-а).
Elomia створювалася і розвивається командою психологів, які вже понад п’ять років супроводжують кожен етап — від тестування моделей до адаптації для різних користувачів. Усе це відбувається відповідно до етичних принципів Американської психологічної асоціації.
Безпека користувачів — наш пріоритет. Ще під час реєстрації система допомагає виявити тих, хто може перебувати у кризі, використовуючи міжнародні критерії ризику SAD PERSONS. Для таких користувачів активується спеціальний алгоритм підтримки, який допомагає налагодити соціальні зв’язки, знайти коло довіри або за потреби скеровує до спеціаліста.
Під час спілкування Elomia уважно стежить за «червоними прапорцями» — словами чи темами, які можуть свідчити про сильну тривогу або суїцидальні думки. Якщо такі сигнали з’являються, система м’яко пропонує звернутися на гарячу лінію або до живого психолога.
Щоб навчити модель розпізнавати небезпечні ситуації, психологи Elomia вручну проаналізували понад 50 000 повідомлень. Завдяки цьому ШІ розуміє не лише прямі зізнання, а й приховані чи метафоричні описи емоцій і завжди реагує з турботою та обережністю.
Щодо даних користувачів, то тут немає простору для фантазій. Використання особистої інформації регламентується етичними принципами APA: жодна особиста інформація ніколи не потрапляє в поле зору іншої людини. Після введення інформації в діалогове вікно вона шифрується і потрапляє в базу в анонімізованому вигляді.
Алгоритми перевіряють інформацію на наявність потенційно небезпечних для життя чи здоров’я користувача ознак. Якщо вони виявлені, діалог відправляється на аналіз психологу. Після прочитання анонімізованої інформації він може запустити протокол екстреного реагування для порятунку користувача. Усі психологи підписують угоду про нерозголошення інформації.
Також анонімізована інформація, що зберігається в базі, може бути використана для навчання моделей як приклади живої мови. Але самі тексти діалогів ніколи й нікому не будуть доступні.
Правила взаємодії компанії з інформацією від користувачів прописані в нашій Privacy Policy. Будь-яке додаткове використання інформації користувача, яке не пов’язано з забезпеченням його безпеки й порятунку здоров’я, вимагає його/її персональної згоди.
Поки що штучний інтелект не здатен замінити психолога. Надто багато ризиків, невідомих змінних і речей, які нам ще потрібно дослідити й навчитися з ними жити.
Але вчитися варто. Бо саме зараз, у час війни та браку фахівців, технології можуть стати тим містком, який з’єднує людину з реальною допомогою. Головне — пам’ятати: ШІ може підказати, але не відчути.
І поки ми шукаємо в ньому розуміння, не варто забувати, що по-справжньому лікує не код, а інша людина. Бо людині потрібна людина…
3 коментарі
Щоб залишити коментар, потрібно увійти.