Новые рекомендации по регулированию сферы генеративных ИИ-технологий были предложены в Китае. По информации издания Cointelegraph, основное внимание уделяется контролю над данными для обучения ИИ.
Инициатива исходит от Национального комитета по стандартизации в области информационной безопасности, в состав которого входят представители крупных государственных учреждений, включая регулирующие интернет-пространство органы.
Предлагается установить проверку на соответствие безопасности информационного материала, который используется в открытых ИИ-моделях. Особое внимание уделяется исключению из обучающих наборов данных содержания, которое может быть классифицировано как нелегальное или вредоносное.
Материалы, способствующие распространению идеологий терроризма, насилия, подрывающие социалистические ценности, дискредитирующие репутацию государства или угрожающие национальному единству, будут строго запрещены.
Также акцентируется необходимость получения согласия от людей на использование их личных данных, в том числе биометрических, для целей обучения ИИ.
Рекомендации предусматривают детальные меры по предотвращению нарушений в области интеллектуальной собственности.
Правила были разработаны после того, как китайским IT-гигантам, например Baidu, было разрешено публичное использование чат-ботов.
Ранее, в апреле, регуляторы уже требовали от компаний проведения оценок безопасности своих ИИ-продуктов перед выходом на рынок.
Июльские указания от CAC были менее строгими, чем первоначальный проект предписаний.
Отдельно стоит упомянуть, что с января в Китае действует закон, запрещающий производство дипфейков без согласия изображенных лиц или в ущерб государственным интересам.