Согласно документу, предлагается ввести классификацию систем ИИ по уровню потенциального риска – от неприемлемого до минимального. В частности, инициатива предполагает запрет на разработку и эксплуатацию в РФ систем ИИ с неприемлемым уровнем риска, который может угрожать безопасности личности, общества и государства, нарушать основные права и свободы человека.
Для систем с высоким уровнем риска предлагается ввести обязательную государственную регистрацию и сертификацию, а системы с ограниченным уровнем риска могут регулироваться системой внутреннего контроля качества, а также добровольной сертификацией.
Авторы инициативы отметили, что маркировка ИИ должна быть "явной, недвусмысленной и легко идентифицируемой". В документе также закрепляется понятие искусственного интеллекта, систем и технологий ИИ.
Как отметил изданию зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов, единого законопроекта, который будет регулировать всю систему ИИ, ждать в этом году не стоит. Он добавил, что в ближайшие месяцы появится несколько инициатив, которые будут "точечно регулировать отраслевые запросы, вводить пилотные зоны или пилотные режимы".
В Минцифры изданию отметили, что документ пока не поступал к ним на рассмотрение, но они готовы его рассмотреть в случае поступления.
Ранее в Госдуме предложили ввести обязательную маркировку контента, созданного с использованием технологий искусственного интеллекта (ИИ). Это должно стать первым этапом в законодательном регулировании этой области.