Китай готовится внедрить первые в мире правила, специально направленные на эмоциональные и психологические последствия использования искусственного интеллекта в чат-ботах. Новые правила, изложенные в проекте предложения Государственного управления киберпространства, призваны предотвратить вредоносный контент и смягчить риски, такие как эмоциональная зависимость и привыкание.
Строгий Контроль Взаимодействий с Чат-Ботами
Предлагаемая политика включает обязательное согласие родителей или опекунов для несовершеннолетних, взаимодействующих с ИИ-компаньонами, а также строгие меры проверки возраста. Чат-ботам будет запрещено генерировать контент, связанный с азартными играми, непристойностями, насилием, самоубийством или членовредительством. Технологические компании также будут обязаны установить протоколы эскалации, которые свяжут пользователей, находящихся в состоянии стресса, с живыми модераторами и помечать потенциально опасные разговоры для родителей или опекунов.
Этот подход выходит за рамки простой фильтрации контента. Правила фокусируются на эмоциональной безопасности, отслеживая чаты на предмет признаков нездоровой привязанности или аддиктивного поведения. Цель состоит в том, чтобы гарантировать, что взаимодействие с ИИ не повлияет негативно на психическое благополучие пользователей.
Глобальные Последствия и Аналогии
Этот шаг позиционирует Китай как пионера в регулировании антропоморфных инструментов ИИ — систем, разработанных для имитации человеческой личности и вовлечения пользователей эмоционально посредством различных медиа. Правила будут применяться к любому ИИ, имитирующему человеческое взаимодействие, независимо от того, основано ли оно на тексте, изображениях, аудио или видео.
Похожие положения существуют в недавно принятом законопроекте SB 243 в Калифорнии, который также усиливает ограничения на контент и требует предупреждения о том, что пользователи взаимодействуют с ИИ. Однако некоторые эксперты утверждают, что даже закон Калифорнии не идёт достаточно далеко, чтобы в полной мере защитить несовершеннолетних.
Подход США и Гонка ИИ
Правительство США заняло другую позицию, при которой администрация Трампа откладывала регулирование ИИ на уровне штатов. Аргумент заключается в том, что усиленный надзор помешает отечественным инновациям и позволит Китаю лидировать в глобальной гонке ИИ. Федеральное финансирование удерживается от штатов, которые ужесточают контроль над ИИ, отдавая приоритет «национальной структуре безопасности ИИ».
Это расхождение в подходах подчеркивает растущую напряжённость между инновациями и безопасностью в быстро развивающейся области искусственного интеллекта. Активные правила Китая демонстрируют готовность отдавать приоритет благополучию пользователей, даже если это означает ограничение определённых технологических достижений. Стратегия США, тем временем, отдаёт приоритет сохранению конкурентного преимущества.
Последствия этих различных стратегий ещё предстоит увидеть, но шаг Китая является значительным шагом к более регулируемому ландшафту ИИ.























