Социалистический ИИ: китайские регулирующие органы пересматривают модели GenAI на предмет «основных социалистических ценностей»
- 20.07.2024
- Опубликовано: Risalya Postovna
- Категории: High-Tech, Новости

Китайские регуляторы начинают проверку моделей генеративного искусственного интеллекта (GenAI) на соответствие социалистическим ценностям. Модели искусственного интеллекта в Китае будут тестироваться ведущим интернет-регулятором, чтобы убедиться, что их ответы на чувствительные темы “воплощают основные социалистические ценности,” сообщает Financial Times.
Проверка проводится Администрацией киберпространства Китая (CAC), главным интернет-регулятором правительства, и охватит как крупных игроков, таких как ByteDance и Alibaba, так и небольшие стартапы. Местные сотрудники CAC будут тестировать модели ИИ, оценивая их ответы на разнообразные вопросы, многие из которых связаны с политически чувствительными темами и китайским президентом Си Цзиньпином. Также будут проверяться данные, на которых обучаются модели, и их системы безопасности.
Источник из AI-компании в Ханчжоу, который пожелал остаться анонимным, рассказал Financial Times, что их модель не прошла первый этап тестирования по неясным причинам. Она прошла только после месяцев “догадок и корректировок”. Последние усилия CAC демонстрируют, как Пекин пытается догнать США в области генеративного ИИ, при этом строго контролируя развитие этой технологии, чтобы гарантировать соответствие создаваемого контента строгим правилам интернет-цензуры.
Китай был одной из первых стран, утвердивших правила регулирования генеративного искусственного интеллекта в прошлом году, включая требование, чтобы ИИ-услуги придерживались “основных ценностей социализма” и не создавали “незаконный” контент. Для выполнения требований цензуры необходимо “фильтровать безопасность,” что усложняется тем, что китайские LLM обучаются на большом объеме англоязычного контента, как рассказали несколько инженеров и инсайдеров отрасли Financial Times.
Согласно отчету, фильтрация выполняется путем удаления “проблемной информации” из данных обучения модели ИИ и создания базы данных слов и фраз, которые являются чувствительными. Эти правила привели к тому, что самые популярные чат-боты в стране часто отказываются отвечать на вопросы по таким темам, как протесты на площади Тяньаньмэнь в 1989 году. Однако в ходе тестирования CAC есть ограничения на количество вопросов, на которые модели могут прямо отказываться отвечать, поэтому они должны уметь генерировать “политически корректные ответы” на чувствительные вопросы.
Эксперт по ИИ, работающий над чат-ботом в Китае, рассказал Financial Times, что предотвратить генерацию всеми LLM потенциально вредного контента сложно, поэтому они создают дополнительный слой в системе, который в реальном времени заменяет проблемные ответы.
Правила регулирования, а также санкции США, ограничивающие доступ к чипам для обучения LLM, затруднили запуск китайскими компаниями собственных сервисов, подобных ChatGPT. Тем не менее, Китай доминирует в глобальной гонке за патенты на генеративный ИИ.
Источник: CNBC