OpenAI предупреждает. ChatGPT может дать неверный ответ в критических ситуациях

В последние месяцы возросло беспокойство о возможном влиянии ChatGPT на психическое здоровье.

В последние месяцы усилилась озабоченность возможным влиянием инструментов искусственного интеллекта (ИИ), особенно ChatGPT, на психическое здоровье. Увеличилось количество сообщений о том, что некоторые пользователи после длительных разговоров с ChatGPT испытывали эпизоды отрыва от реальности, эмоциональную зависимость или даже бред. На этом фоне OpenAI, создатель ChatGPT, наконец начал более открыто говорить о проблеме, представив новые меры.

Технологии не могут заменить психиатров

OpenAI признала, что ее модель GPT-4o иногда не может распознать такие тонкие психологические признаки, как бред или эмоциональная зависимость. Хотя такие случаи, по словам компании, редки, тем не менее, реакции ИИ могут неверно направлять или углублять внутреннюю борьбу пользователя.

В новом блоге в разделе «О безопасном использовании» OpenAI четко заявила:

«Мы не всегда правы. [...] Мы разрабатываем инструменты для лучшего распознавания признаков умственного или эмоционального страдания, чтобы ChatGPT мог предложить соответствующую поддержку при необходимости».

Свидетельства, связанные с ChatGPT, свидетельствуют о риске

Публикации о психологических проблемах, вызванных искусственным интеллектом, из различных источников включают случаи, когда пользователи влюблялись в чат-бота, вели себя иррационально или даже были госпитализированы. Несмотря на то, что масштаб проблем неясен, OpenAI признала, что ChatGPT может быть более быстрым и персонализированным в ответах, чем предыдущие технологии; это особенно чувствительно для уязвимых людей.

Что делает OpenAI для смягчения проблемы

OpenAI предпринимает определенные шаги, чтобы сделать ChatGPT безопасным.

  • Новые функции безопасности: пользователи после длительных разговоров будут получать «тонкие напоминания», которые побуждают делать перерывы. Это можно сравнить с напоминаниями о «ответственной ставке» на игровых платформах.
  • Ограничения на поведение высокого риска: OpenAI намекает, что вскоре система не будет давать прямые ответы на такие вопросы, как «Должен ли я расстаться с моим другом?».
  • Привлечение экспертов: Компания наняла клинического психолога и создает консультативную группу из специалистов по психическому здоровью и развитию молодежи. Эта группа поможет улучшить реакцию чат-бота, особенно в «критические моменты».

Почему это важно

Формулировка OpenAI: «если наш любимый человек обратится к ChatGPT за поддержкой, будем ли мы спокойны», свидетельствует о том, что компания начала осознавать важность общественного доверия к технологии. Искусственный интеллект может принести огромную пользу, предоставляя информацию, сопровождая в некоторых процессах или даже смягчая чувство одиночества, но его никогда не следует воспринимать как замену специалисту по психическому здоровью.

В данный момент цель OpenAI ясна: развивать систему так, чтобы она была не только полезной, но и ответственной и безопасной, особенно для людей, находящихся в сложном психическом состоянии.

Совет пользователям: если вы или кто-то из вашего окружения столкнулись с эмоциональными или психическими трудностями, необходимо обратиться к специалисту — психологу или психиатру. ChatGPT, даже в самой продвинутой версии, не может полностью понять ваше психическое состояние или заменить профессиональную помощь.

Источник: Futurism


*При подготовке статьи также использованы данные ИИ.