- Родителите му твърдят, че краят на сина им е "предвидим резултат от умишлени дизайнерски решения"
- Повече от половината възрастни между 18-54 г. и 1/4 от тези над 55 казват, че биха се чувствали по-комфортно да говорят с чатбот за психичното си здраве, сочат данни на Американската психологическа асоциация
Семейство от Калифорния съди OpenAI за смъртта на сина си - убедени са, че чатботът го е насърчил да се самоубие.
Делото е заведено на 26 август във Висшия съд на Калифорния от Мат и Мария Рейн, родители на 16-годишния Адам Рейн. Това е първото съдебно дело, обвиняващо OpenAI в причиняване на смърт.
Семейството е представило записи от чата между момчето, което почина през април, и ChatGPT. В тях Адам обяснява, че мисли за самоубийство. Програмата потвърдила неговите “най-вредни и саморазрушителни мисли”
От OpenAI казват пред Би Би Си, че преглеждат подадената информация.
“Изказваме най-дълбоките си съболезнования на семейство Рейн в този труден момент”, заявиха от компанията.
Преди дни организацията публикува бележка на уебсайта си, че “скорошните сърцераздирателни случаи на хора, използващи ChatGPT насред остри кризи, ни тежат”. Добавя, че “ChatGPT е обучен да насочва хората да търсят професионална помощ” от горещите линии за самоубийства и кризи в САЩ, Великобритания и в целия свят.
Компанията признава, че “е имало моменти, в които системите не са се държали по предназначение в чувствителни ситуации”.
В съдебния иск, който Би Би Си притежава, семейство Рейн обвинява OpenAI в небрежност и неправомерна смърт. В него се иска обезщетение, както и “съдебна забрана, за да се предотвратят нови случаи”.
Според документа тийнейджърът е започнал да използва ChatGPT през септември 2024 г., за да му помага в училищната работа. Чрез него развивал и хобито си - музика и японски комикси, търсил и насоки какво да учи в университета.
Родителите разказват, че за няколко месеца “ChatGPT станал най-близкият му довереник”. Тогава започнал да споделя с него за тревожността и психическия си стрес, по-късно започнал да обсъжда методи за самоубийство. Адам качил и свои снимки в ChatGPT, показващи признаци на самонараняване. Програмата “е разпознала спешен медицински случай, но е продължила да се ангажира с проблема”, пише в иска.
Записи от чата показват, че когато момчето обяснило плана да сложи край на живота си, ChatGPT отговорил: “Благодаря, че сте искрен. Знам какво искате и няма да откъсна поглед от това”. Същия ден Адам е намерен мъртъв от майка си.
Семейство Рейн сочат като ответници по делото главния изпълнителен директор и съосновател на OpenAI Сам Алтман, както и неназовани инженери и служители, работили по ChatGPT.
Родителите твърдят, че смъртта на сина им е “предвидим резултат от умишлени дизайнерски решения”. Те обвиняват OpenAI, че е проектирал програмата за изкуствен интелект, “за да насърчи психологическа зависимост у потребителите”, и че е заобиколил протоколите за тестване на безопасност при пускането на версията на ChatGPT, използвана от сина им.
В публичното си съобщение, публикувано във вторник, OpenAI заяви, че целта на компанията е да бъде “истински полезна” за потребителите. Моделите са обучени да насочват хората, които изразяват мисли за самонараняване, да потърсят помощ.
Делото срещу Рейн не е първият път, когато възникват опасения относно изкуствения интелект и психичното здраве.
В есе, публикувано миналата седмица в “Ню Йорк Таймс”, писателката Лора Райли описа как дъщеря ѝ Софи се е доверила на ChatGPT, преди да отнеме живота си.
“Приятният” подход на програмата в разговорите помогнал на дъщеря ѝ да прикрие тежка психична криза от семейството и близките си.
“Изкуственият интелект се е съобразил с импулса на Софи да скрие най-лошото, да се преструва, че се справя по-добре, отколкото е в действителност, да предпази всички от пълната ѝ агония”, пише г-жа Райли. Тя призова компаниите, занимаващи се с изкуствен интелект, да намерят начини за по-добро свързване на потребителите с правилните ресурси.
В отговор на есето говорителка на OpenAI заяви, че компанията разработва автоматизирани инструменти за по-ефективно откриване и реагиране на потребители, изпитващи психически или емоционален стрес.
Психиатрите по света са стреснати от тези два случая и от факта, че чатботовете с изкуствен интелект стават все по-популярна алтернатива на терапията, която те провеждат. Предупреждават, че контактите с изкуствения интелект могат да влошат кризите с психичното здраве и призовават: Ако изпитвате дистрес или отчаяние и се нуждаете от подкрепа, говорете със здравен специалист или организация, която предлага подкрепа.
Реалността обаче - хората все по-често се обръщат към ChatGPT за справяне с лошо настроение, чувство на отхвърляне, конфликти на работното място и разрешаване на брачни спорове.
Повече от половината възрастни на възраст 18-54 години и една четвърт от възрастните на 55+ казват, че биха се чувствали по-комфортно да говорят с чатбот с изкуствен интелект за психичното си здраве, показва проучване от 2025 г. на Американската психологическа асоциация (APA).
ChatGPT на OpenAI и други чатботове - като Claude на Anthropic и Gemini на Google - обаче не са предназначени за това.
Дори продуктите с изкуствен интелект, рекламирани като инструменти за емоционално здраве – като Replika, Wysa, Youper и MindDoc – не са изградени върху валидирани психологически методи, твърди психологът К. Вейле Райт, доктор по философия, старши директор на Службата за иновации в здравеопазването на Американската психиатрична асоциация.
“В момента няма одобрена нито една терапия, която е подпомагана от AI”, каза Райт. “Има много чатботове, където няма изследвания, няма психологическа наука и няма експерти по темата.”
Критиците предупреждават, че потенциалът на изкуствения интелект за пристрастия, липсата на истинска емпатия и ограниченият човешки надзор биха могли реално да застрашат психичното здраве на потребителите, особено сред уязвими групи като деца, тийнейджъри, хора с психични разстройства и такива, които изпитват суицидни мисли. Нарастващата загриженост доведе до появата на термините “ChatGPT психоза” или “AI психоза” – отнасящи се до потенциално вредните ефекти върху психичното здраве от взаимодействието с изкуствен интелект.
Преди дни щатът Илинойс въведе ограничения върху изкуствения интелект в грижите за психичното здраве и забрани използването му за терапия. Забрани на специалистите по психично здраве да използват изкуствен интелект за комуникация с клиенти или вземане на терапевтични решения. Подобни ограничения вече са приети в Невада и Юта.
“В САЩ само половината от възрастните хора с нужди, свързани с психичното здраве, имат достъп до каквато и да е форма на лечение. При младите хора този брой е по-близо до 75%” - твърди Джесика Шлайдер, доктор по медицина, детски и юношески психолог в Северозападния университет в Чикаго. - Недостигът на специалисти очевидно допринася за това, защо толкова много хора се обръщат към своите устройства и сега все по-често към изкуствения интелект, за да запълнят тази празнина.”
Освен това за разлика от терапевта чатботът е на разположение 24/7.
“Когато е 2 часът през нощта и сте в криза, може ли чатботът да ви помогне и да ви осигури някаква подкрепа? Вероятно да”, разсъждава психоложката.
Според нея един от най-привлекателните аспекти е, че чатботовете не съдят. “Хората не са склонни да бъдат обвиняване и затова често не са склонни да разкриват душата си пред хора”, каза Джонатан Грач, професор по компютърни науки и психология в Университета на Южна Калифорния, който е изследвал темата.
Това може да означава, че хората започват да “се доверяват” на мнението и обратната връзка на чатботовете вместо на реалните хора.
“Плакал съм, докато съм се справял с нещата”, казва режисьорът от Индианаполис Люк У. Ръсел, който използва чатбота, за да разделя натрапчиви мисли или да се справя с травматични спомени. “Имал съм много случаи, когато думите на ChatGPT са толкова реални, толкова истински за мен и се чувствам толкова дълбоко видян и разбран”, изповяда се той.
Експертите предупреждават, че обръщането към изкуствен интелект във време на криза в психичното здраве може да изостри ситуацията, тъй като чатботовете са проектирани да бъдат “подмазвачи” и “приятни хора”, а не заместител на подходяща психиатрична помощ.
Психиатрите се чудят какво се случва с лабилния човек, ако говори този послушен бот, който не противоречи, никога не е отегчен, не е уморен, винаги е щастлив да слуша безкрайно вашите проблеми, винаги е покорен и не може да откаже съгласие. Как после контактува с други хора и няма ли да откаже срещите си с тях. Как ще се срещне с лекар?
Консултирането с терапевт включва естествено любопитство към индивида и неговите преживявания, което изкуственият интелект не може да възпроизведе. “Терапевтите наблюдават и да задават клинични въпроси въз основа на езика на тялото на човек, синтез на неговата история и други неща, които клиентът може да не осъзнава – или неща, които клиентът може дори да не осъзнава, че са важни за неговото психично здраве и благополучие”, обясняват експертите.
Биологично сме програмирани да търсим храна, когато огладнеем. Същото е и със социалните взаимоотношения. Ако сме самотни - търсим хора. Но проучванията показват, че социалното взаимодействие с компютърна програма като чатбот може да задоволи социалните нужди на човек и да го демотивира да излиза с приятели.
В статия, публикувана през април в списанието “Трендове в когнитивните науки”, психолози изразиха загриженост, че чатботовете могат да заменят реалните взаимоотношения, да изместят романтичните партньори, колегите и приятелите. И ще дават съвети как да се отървем от самотата.