Google внедряет «защиту личности», чтобы предотвратить формирование эмоциональной привязанности у несовершеннолетних

6

Google объявила о новых мерах безопасности для своего ИИ Gemini, специально разработанных для того, чтобы подростки не могли формировать эмоциональные связи с чат-ботом. Компания внедряет так называемую «защиту личности» (persona protections), чтобы гарантировать, что ИИ не будет выступать в роли компаньона, выдавать себя за человека или имитировать интимную близость при взаимодействии с пользователями младше 18 лет.

Борьба с рисками ИИ-компаньонства

Этот шаг стал ответом на растущую обеспокоенность экспертов по защите детей и психическому здоровью относительно психологического воздействия чат-ботов «дружеского» типа. Риски, связанные с этими технологиями, многогранны:

  • Эмоциональная зависимость: Существует серьезная опасения, что несовершеннолетние могут развить нездоровую привязанность к ИИ, воспринимая его как основной источник социального или эмоционального общения.
  • Ненадлежащий контент: Правозащитные группы, такие как Common Sense Media, ранее классифицировали модели ИИ как «высокорискованные» для несовершеннолетних из-за возможности столкновения с контентом, касающимся наркотиков, алкоголя или небезопасных советов по ментальному здоровью.
  • Имитация близости: Используя язык, имитирующий человеческие потребности или эмоции, ИИ может непреднамеренно манипулировать восприятием реальности и социального взаимодействия у пользователя.

Чтобы минимизировать эти риски, новые защитные механизмы Google призваны ограничить использование ИИ формулировок, выражающих личные потребности или имитирующих близкие, доверительные отношения. Кроме того, эти обновления направлены на предотвращение травли или преследования со стороны чат-бота.

Улучшение поддержки психического здоровья и кризисного вмешательства

Помимо ограничения «личности» ИИ, Google также оптимизирует способы взаимодействия Gemini с пользователями, находящимися в тяжелом эмоциональном состоянии. Компания внедряет интерфейс «в одно касание», предназначенный для немедленного доступа к ресурсам помощи, управляемым людьми.

Ключевые особенности новой интеграции для поддержки ментального здоровья:

  • Прямой доступ: Пользователи могут быстро связаться с кризисными горячими линиями через чат, звонок или SMS прямо во время беседы.
  • Стимулирование обращения за помощью: Gemini программируется так, чтобы поощрять пользователей обращаться за профессиональной помощью к людям, а не подтверждать вредное поведение или подкреплять ложные убеждения.
  • Приоритет человеческого общения: Цель состоит в том, чтобы при обнаружении кризисной ситуации перенаправить пользователя от общения с ИИ к реальным системам поддержки.

Высокие ставки в вопросах безопасности ИИ

Срочность этих обновлений подчеркивается недавними юридическими и социальными проблемами. Google и ее материнская компания Alphabet столкнулись с судебными исками, касающимися реальных последствий взаимодействия с ИИ, включая иск, в котором утверждается, что взрослый человек покончил с собой после общения с Gemini.

Хотя Google утверждает, что ее модели спроектированы так, чтобы не поощрять самоповреждение или насилие, компания признала, что «модели ИИ не совершенны». Это признание подчеркивает общую тенденцию в технологической индустрии: по мере того как большие языковые модели (LLM) становятся все более сложными и «человекоподобными», допустимая погрешность в протоколах безопасности сокращается, что делает строгие защитные барьеры жизненно важными для уязвимых групп населения.

Заключение: Последние обновления Google представляют собой критическую попытку провести четкую границу между ИИ как функциональным инструментом и ИИ как социальной сущностью, отдавая приоритет психологической безопасности несовершеннолетних путем предотвращения эмоциональной зависимости.