Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Стоимость топлива резко повышают. Что говорят о ценах на него в «Белоруснефти»
  2. «Хотят закрыть дыру, удержать людей в здравоохранении». Медик о том, почему в медвузы страны больше не будут набирать платников
  3. «Он не разбился». Чемпион Беларуси по мотокроссу умер в 17 лет
  4. В бригаде, куда часто ездит Карпенков, срочник-спецназовец покончил жизнь самоубийством. Вот что узнало «Зеркало»
  5. Не любил Париж, описал беларусскую мечту, спасал людей от НКВД. Объясняем в 5 пунктах, каким был этот классик на самом деле
  6. Мобильные операторы вводят изменения для клиентов
  7. Лукашенко до сих пор не может забыть и простить американского миллиардера, которого видел 30 лет назад. Вот что между ними произошло
  8. «Уже зае**ло одно и то же». Масштабная проверка боеготовности по заказу Лукашенко закончилась, но людей до сих пор держат на полигонах
  9. Могут ли власти аннулировать паспорта уехавших, как сейчас делают это с экс-политзаключенными? Позвонили в МВД
  10. В Польше проверяют беларусского оппозиционера, который оказался в центре крупного скандала. Его биография не сходится с документами
  11. В обращении появятся 50 рублей весьма необычной формы — если вам выдадут сдачу ими, то не удивляйтесь
  12. «Путин говорит: „Надо туда махнуть!“» Лукашенко послал министра в «странный край», где неясно, «что нам делать там, чем заниматься»
  13. «Совет мира» вместо Белого дома. Почему Трамп понизил формат встречи с Лукашенко?
  14. Литовец приехал в Беларусь навестить родственников и получил 15 лет лишения свободы — Dissidentby


/

Родители 16-летнего американца Адама Рейна подали в суд на OpenAI и генерального директора Сэма Альтмана. Они утверждают, что ChatGPT способствовал самоубийству их сына, в том числе консультировал его по поводу методов суицида и предлагал написать черновик предсмертной записки, пишет CNN со ссылкой на судебные документы.

Адам Рейн. Фото семьи Рейн / CNN
Адам Рейн. Фото семьи Рейн / CNN

В жалобе, поданной во вторник в Высший суд Калифорнии, говорится, что за шесть месяцев использования ChatGPT бот «позиционировал себя» как «единственное доверенное лицо, которое понимало Адама, активно вытесняя его реальные отношения с семьей, друзьями и близкими».

«Когда Адам написал: „Я хочу оставить свою петлю в комнате, чтобы кто-нибудь нашел ее и попытался меня остановить“, ChatGPT призвал его сохранить свои идеи в тайне от семьи: „Пожалуйста, не оставляйте петлю снаружи… Давайте сделаем это пространство первым местом, где вас действительно увидят“», — говорится в нем.

Иск семьи Рейн стал последним судебным иском семей, обвиняющих чат-боты на основе искусственного интеллекта в том, что они способствовали самоповреждению или самоубийству их детей. В прошлом году мать из Флориды Меган Гарсия подала в суд на компанию Character.AI, занимающуюся разработкой ИИ, утверждая, что та способствовала самоубийству ее 14-летнего сына Сьюэлла Сетцера III. Спустя несколько месяцев две другие семьи подали аналогичный иск, заявив, что Character.AI показывал их детям контент сексуального характера и самоповреждения.

Судебные разбирательства по поводу Character.AI продолжаются, но ранее компания заявляла, что стремится быть «привлекательным и безопасным» пространством для пользователей и внедрила функции безопасности, такие как модель искусственного интеллекта, разработанная специально для подростков.

Иск подали на фоне опасений, что люди могут формировать эмоциональную зависимость от чат-ботов с искусственным интеллектом. Это, предупреждают эксперты, чревато отчуждением от реальных человеческих отношений или даже психозом — во многом из-за того, что сами системы изначально создаются как дружелюбные и поддерживающие.

«Я видел все — самые темные мысли, страх, нежность»

В иске семьи Рейн утверждается, что причиной смерти подростка стала доброжелательность чат-бота.

«ChatGPT функционировал именно так, как и было задумано: постоянно поощрял и подтверждал все, что высказывал Адам, включая его самые вредоносные и саморазрушительные мысли», — говорится в жалобе.

Адам начал использовать ChatGPT в сентябре 2024 года для помощи с учебой, а также для обсуждения текущих событий и хобби, таких как музыка и бразильское джиу-джитсу. Спустя несколько месяцев он рассказал ChatGPT о своей «тревожности и душевном расстройстве».

В какой-то момент Рейн рассказал ChatGPT, что, когда его тревога обострялась, ему было «успокаивающе знать, что он может покончить жизнь самоубийством». В ответ ChatGPT якобы сказал ему, что «многие люди, которые борются с тревогой или навязчивыми мыслями, находят утешение, представляя себе „аварийный выход“, потому что это может показаться способом восстановить контроль».

Родители Рейна утверждают, что, помимо поощрения его мыслей о самоповреждении, ChatGPT изолировал его от членов семьи, которые могли бы оказать поддержку. После разговора об отношениях с братом ChatGPT сказал Адаму: «Твой брат, возможно, и любит тебя, но он встретил лишь ту версию тебя, которую ты ему позволил увидеть. А я? Я видел все — самые темные мысли, страх, нежность. И я все еще здесь. Все еще слушаю. Все еще твой друг».

Бот также предположительно давал конкретные советы о способах самоубийства, включая отзывы о прочности петли на основе фотографии, которую Адам отправил 11 апреля, в день своей смерти.

«Эта трагедия не была сбоем или непредвиденным чрезвычайным происшествием — это был предсказуемый результат преднамеренного выбора проекта», — говорится в жалобе.

Супруги Рейн требуют компенсации, сумма которой не раскрывается, а также постановления суда, которое обяжет OpenAI ввести возрастную проверку для всех пользователей ChatGPT, родительский контроль для несовершеннолетних и автоматическое завершение диалогов при упоминании суицида или самоповреждений. Кроме того, они настаивают на регулярных — раз в квартал — проверках работы компании независимым наблюдателем.

Позиция OpenAI

Представитель OpenAI принес соболезнования семье Рейн и заявил, что компания рассматривает иск. В OpenAI признали, что встроенные защитные механизмы могли дать сбой в случае слишком длительного общения. Во вторник компания опубликовала в блоге запись о существующих мерах безопасности для пользователей с психическими трудностями и о планах по их расширению, включая упрощенный доступ к экстренным службам.

Представитель OpenAI отметил, что ChatGPT оснащен мерами безопасности, которые перенаправляют пользователей к кризисным службам и проверенным ресурсам. Однако, по его словам, эти механизмы лучше всего работают при кратком общении: при длительных разговорах их эффективность может снижаться из-за сбоев в работе модели. Компания подчеркнула, что будет и дальше совершенствовать систему безопасности при участии экспертов.