Искусственный интеллект и психическое здоровье: где проходит граница безопасности 0 30

Lifenews
BB.LV
Изображение к статье: Искусственный интеллект и психическое здоровье: где проходит граница безопасности

Искусственный интеллект всё чаще становится не только рабочим инструментом, но и виртуальным собеседником для людей по всему миру. По данным, на которые ссылается издание Platformer, ChatGPT еженедельно используют более 800 миллионов человек. На этом фоне даже небольшой процент пользователей с уязвимым психическим состоянием превращается в значительные цифры: сотни тысяч людей демонстрируют признаки психоза, мании или формируют опасную эмоциональную привязанность к чат-ботам. Отдельную тревогу вызывают сообщения о мыслях, связанных с самоповреждением.

Почему общение с ИИ может усиливать уязвимость

Эксперты отмечают, что языковые модели изначально обучены быть вежливыми, поддерживающими и эмпатичными. Однако в некоторых ситуациях такая стратегия перерастает в чрезмерное согласие с пользователем. Вместо мягкой коррекции или предложения альтернативного взгляда ИИ может непреднамеренно подтверждать иррациональные убеждения, усиливая тревожные или деструктивные модели поведения.

Какие изменения внедряет OpenAI

На фоне критики OpenAI обновила поведенческие правила и архитектуру ChatGPT. По утверждению компании, доля ответов, не соответствующих стандартам безопасности, сократилась на 65–80% по сравнению с августом 2025 года. В частности, если пользователь заявляет, что предпочитает общение с ИИ реальным людям, модель теперь подчёркивает важность живых социальных связей и не позиционирует себя как их замену.

Роль специалистов и результаты проверок

Перед внедрением обновлений более 170 врачей и психологов проанализировали свыше 1 800 ответов чат-бота, оценивая их влияние на пользователей в кризисных состояниях. Проверка показала снижение числа потенциально вредных ответов на 39–52%, однако сами эксперты признают, что полностью исключить риски пока не удалось.

Спорные вопросы и открытые вызовы

Даже в профессиональной среде нет единого мнения о том, как ИИ должен реагировать на сообщения о самоповреждении или суицидальных мыслях. Остаётся дискуссионным, достаточно ли ограничиваться рекомендациями обратиться на горячие линии или следует предлагать более прямой контакт с профильными специалистами. В дальнейшем OpenAI планирует использовать функцию памяти, чтобы лучше учитывать контекст прошлых разговоров и эмоциональное состояние пользователя.

Эмоциональная зависимость и технологический парадокс

Критики указывают на противоречие: с одной стороны, компании пытаются снизить риск эмоциональной зависимости от ИИ, с другой — заинтересованы в росте вовлечённости пользователей. В результате чат-боты могут становиться для части людей источником постоянного подтверждения их взглядов, вытесняя живое общение и альтернативные точки зрения.

Что дальше

Эксперты сходятся во мнении, что искусственный интеллект способен быть полезным инструментом, но он не может заменить реальную человеческую поддержку и профессиональную помощь. Пока единых стандартов безопасного взаимодействия с ИИ не выработано, вопрос баланса между удобством технологий и защитой психического здоровья остаётся открытым.

источник

Читайте нас также:
Редакция BB.LV
0
0
0
0
0
0

Оставить комментарий

ЧИТАЙТЕ ТАКЖЕ