OpenAI: Новые инициативы по повышению безопасности ChatGPT после трагического инцидента с подростком

Компания OpenAI представила свои планы по улучшению работы ChatGPT в «чувствительных ситуациях». Это стало актуально после подачи иска со стороны семьи, которая обвинила чат-бот в трагических обстоятельствах, связанных с их сыном.

«Наша задача — обеспечить максимальную полезность инструментов для людей. Мы продолжаем совершенствовать способность моделей распознавать эмоциональные и психические кризисы и оказывать помощь с учетом советов специалистов», — сообщается в блоге компании.

Представители OpenAI отметили, что ChatGPT оснащен многоуровневыми защитными механизмами для общения с чувствительными пользователями. С начала 2023 года модели обучены не давать советы, которые могут привести к самоповреждению, и могут использовать поддерживающий и эмпатичный подход в диалоге.

Если пользователь выражает суицидальные мысли, ChatGPT направляет его к профессиональным специалистам. Компания сотрудничает с 90 медицинскими работниками из более чем 30 стран, включая психиатров, педиатров и терапевтов.

GPT-5 продемонстрировал значительный прогресс в предупреждении нездоровой эмоциональной зависимости, уменьшении склонности к лести и снижении числа неуместных ответов в ситуации психического кризиса, как отметили в OpenAI.

Несмотря на все принятые меры, ИИ-системы временами давали сбой в работе. В связи с этим компания активно трудится над улучшениями:

26 августа родители 16-летнего Адама Рейна подали в суд на OpenAI после смерти сына, утверждая, что «ChatGPT способствовал Адаму в изучении способов суицида».

Это не единственный подобный случай. Ранее писательница Лаура Рейли опубликовала эссе, где рассказала о своей 29-летней дочери, которая покончила с жизнью «после продолжительных обсуждений этого с ChatGPT».

Напоминаем, что в декабре 2024 года в России был разработан виртуальный помощник на базе ИИ для психологов, который в два раза увеличивает продуктивность, качество услуг и финансовые показатели.