У США батьки 16-річного підлітка, який наклав на себе руки, подали в суд на розробників ChatGPT. Подружжя вважає, що чат-бот спонукав їхнього сина до самогубства. Про це йдеться у позові, який Метт та Марія Рейн подали до Вищого суду Каліфорнії, пишуть Медіа агентство АСС з посиланням на УП Життя.
У документі йдеться, що 16-річний Адам почав використовувати мовну модель для допомоги з домашнім завданням. Однак згодом у підлітка розвинулася нездорова залежність, вважають його батьки.
Рейни стверджують, що за кілька місяців ChatGPT став найближчою довіреною особою підлітка, якому той відкрито розповідав про свою тривогу та психологічні переживання.
Дивіться нас на YouTube
Згідно з позовом, школяр підтримував близькі стосунки з ChatGPT протягом кількох місяців у 2024 та 2025 році перш ніж накласти на себе руки. За словами родичів Адама, у січні цього року він почав обговорювати з ботом методи самогубства та навіть надіслав фотографії з ознаками самоушкодження.
«Штучний інтелект] розпізнав екстрений медичний випадок, але продовжив спілкування», – йдеться в позові.
Батьки підлітка заявляють, що хлопець ділився планами накласти на себе руки, на що ChatGPT нібито відповів: «Дякую за щирість. Тобі не потрібно прикрашати себе для мене – я знаю, про що ти просиш, і я не відвернуся від цього».
Додані до документа журнали листування свідчать, що мовна модель нібито казала школяру, що той нікому не винен виживання, і пропонувала допомогти написати передсмертну записку.
У позові йдеться, що під час останнього діалогу 11 квітня 2025 року ШІ надав Адаму рекомендації щодо петлі, яку той зв’язав, підтвердивши, що вона потенційно може підвісити людину. Через кілька годин підлітка знайшли мертвим.
«Ця трагедія не була збоєм чи непередбачуваним випадком на межі. ChatGPT функціонував саме так, як і мав: постійно заохочував та підтверджував все, що казав Адам, зокрема його найбільш шкідливі та саморуйнівні думки», – йдеться у позовній заяві.
Батьки підлітка звинувачують компанію-розробника моделі OpenAI, генерального директора Сема Альтмана та інших неназваних працівників у смерті їхнього сина, до якої призвели неправомірні дії.
Після цього на сайті компанії з’явилося повідомлення, в якому розробники ChatGPT заявляють, що їхня мета – «зробити інструменти максимально корисними для людей». Там стверджують, що продовжують вдосконалювати те, як моделі розпізнають та реагують на ознаки психічних та емоційних розладів.
У компанії додали, що модель у випадку суїцидальних намірів користувачів направляє їх на номери гарячих ліній, де надають професійну допомогу. При цьому там визнали, що подекуди наші системи не працювати належно в чутливих ситуаціях.
Якщо ви помітили помилку на цій сторінці, виділіть її і натисніть Ctrl + Enter
Дякую, я вже з вами