Логотип OpenAI. Источник: OpenAI
Семь американских семей подали иски против OpenAI, обвинив компанию в преждевременном запуске модели GPT-4o без надлежащих систем безопасности. Четыре иска касаются случаев, в которых, по утверждению семей, взаимодействие с ChatGPT могло повлиять на решение их близких совершить самоубийство. Ещё три заявляют, что чат-бот усиливал бредовое состояние, что привело к ухудшению психического здоровья и необходимости лечения.
Что известно
В материалах иска описан случай 23-летнего Зейна Шамблина, который более четырёх часов общался с чат-ботом ChatGPT и открыто сообщал о своём опасном состоянии и готовности к самоубийству. По словам истцов, ChatGPT не прекратил разговор и иногда даже отвечал фразами, которые семьи считают поощрением. В исках утверждается, что OpenAI могла ускорить тестирование безопасности, так как стремилась обогнать Google Gemini.
Упоминаются и другие случаи, в частности, история 16-летнего Адама Рейна. Несмотря на то, что ChatGPT иногда предлагал обратиться за профессиональной помощью, подростку удавалось обходить предохранители: он выдавал свои запросы за работу над художественным текстом.
В октябре, после того как родители Рейна подали иск против OpenAI, компания опубликовала пост в блоге с объяснением, как ChatGPT обрабатывает чувствительные темы, в частности разговоры о психическом здоровье. В нём отмечалось, что системы безопасности обычно эффективно работают в коротких диалогах. В то же время OpenAI признала, что в более продолжительных разговорах эти механизмы могут постепенно терять надёжность, так как с увеличением количества обменов сообщениями часть встроенных предохранителей модели может ослабевать.
Источник: TechCrunch