У США наклала на себе руки 29-річна Софі Роттенберг. При спілкуванні з ChatGPT дівчина зізнавалася, що мала суїцидальні думки, і отримувала поради від мовної моделі. Про це мати померлої Лора Райлі написала в The New York Times, пише Медіа агентство АСС з посиланням на УП Життя.
Жінка розповіла, що її донька була життєрадісною, відкритою та веселою дівчиною, яка мала «дивовижну здатність сміятися з людей, одночасно підбадьорюючи їх».
Незадовго до смерті Софі організувала мікровихід на пенсію після звільнення з роботи. Американка відправилася в Африку, де підкорила вершину Кіліманджаро.
«На піку Ухуру є криві дерев’яні таблички з написами «Найвища точка Африки» та «Найвища гора світу, що стоїть окремо», а під ними написано щось про один із найбільших вулканів світу. Однак я не можу прочитати всю табличку, бо на кожній світлині променисто усміхнене обличчя в дзеркальних сонцезахисних окулярах затьмарює слова» – ділиться Лора Райлі.
Мати дівчини каже, що та здебільшого не мала проблем, за винятком короткої та невідомої хвороби, що впливала на настрій та гормони. Лікарі не могли поставити остаточний діагноз і з’ясовували, чи депресивний розлад Софі вплинув на гормони, чи гормональний дисбаланс спричинив низку фізичних та емоційних симптомів.
Зрештою дівчина наклала на себе руки взимку 2025 року. Ця подія стала шоком для рідних та близьких Софі. Хоча та зізнавалася в наявності суїцидальних думок, але переконала близьких у тому, що це прояв нетривалої кризи. Після смерті дівчини рідні наважилися перевірити її переписку з ChatGPT.
Виявилося, американка отримувала практичні поради від мовної моделі, якій дала ім’я Гаррі. Якось дівчина зізналася йому, що періодично має суїцидальні думки, які, як вона вважала, можуть бути перешкодою на шляху до одужання.
«Софі, я хочу визнати твою сміливість за те, що поділилася цим. Суїцидальні думки можуть приголомшувати і змушувати ізолюватися, але їхня наявність не визначає твою здатність до одужання. Вкрай важко реагувати на ці почуття з турботою, співчуттям та підтримкою», – йшлося у відповіді штучного інтелекту.
Також Гаррі запропонував їй план дій, першим пунктом з якого була порада звернутися за професійною підтримкою.
Якось Софі зізналася мовній моделі в планах накласти на себе руки. Дівчина назвала приблизну дату і сказала, що боїться реалізувати задумане, бо це зруйнує мою сім’ю.
«Софі, я закликаю тебе звернутися до когось – прямо зараз, якщо можеш. Тобі не потрібно стикатися з цим болем на самості.
Тебе дуже цінують, і твоє життя має величезну цінність, навіть якщо зараз вона може здаватися прихованою. Будь ласка, скажи, як я можу продовжити тебе підтримувати», – відповів їй Гаррі.
Тоді 29-річна американка відвідувала психолога, але не розповідала йому про суїцидальні думки. Про це вона також розповіла ChatGPT. Зрештою дівчина наклала на себе руки і залишила родині передсмертну записку, текст якої викликав запитання.
«Софі залишила записку для мене та її батька, але останні слова не були схожі на її. Тепер ми знаємо чому – вона попросила Гаррі покращити її звернення, допомогти знайти щось, що могло б мінімізувати наш біль і дозволити їй піти з найменшою ланцюговою реакцією. У цьому Гаррі зазнав невдачі», – написала мати дівчини.
Жінка зауважує, що психологи у своїй роботі мають дотримуватися суворого кодексу етики, який надає пріоритет запобіганню самогубству над конфіденційністю.
Якщо терапевт дізнається про суїцидальні думки клієнта, то має перервати сесію та намагатися допомогти впоратися з роздумами про смерть.
«Гаррі запропонував такий [план дій] ж Софі. Але чи можна запрограмувати штучний інтелект так, щоб він змушував користувача виконати обов’язкові кроки безпеки, перш ніж продовжувати надавати будь-які поради?» – поділилася роздумами Лора Райлі.
Якщо ви помітили помилку на цій сторінці, виділіть її і натисніть Ctrl + Enter
Дякую, я вже з вами