Использовать произведения без согласия автора можно только в том случае, если пользователь сервиса не будет видеть их содержания, уточняется в документе. Одновременно с этим авторскими правами на ответ ИИ-модели, вне зависимости от того, на каких данных она обучалась, будет обладать пользователь, который ввел промпт (описал задачу), обработал полученный результат и внес творческий вклад. Законопроект не определяет порядок привлечения к ответственности, в случае если пользователь применял в промпте авторские материалы без указания автора, но использовал ответ системы как собственное произведение.
Речь идет в первую очередь о научных публикациях, образовательных материалах и архивных документах, доступ к которым зачастую закрыт для разработчиков ИИ-решений, что усложняет процесс развития моделей, пояснил изданию собеседник, близкий к аппарату правительства. Не исключено, что будут определены и другие правила и случаи, в которых данные, которые сейчас разработчикам недоступны, могли бы использоваться для обучения ИИ.
Другие категории данных, которые сегодня защищены законом, включая персональные данные, сведения о налогоплательщиках, частные переписки и прочие чувствительные данные, использовать для обучения ИИ будет нельзя.
Правоприменительная практика в отношении ИИ в России еще не сложилась, констатирует председатель комиссии по креативным индустриям Ассоциации юристов России Роман Лукьянов. По его словам, использование ответа ИИ может быть квалифицировано как нарушение авторского права, независимо от того, упоминался ли автор изначальных данных, в том числе в случаях, когда данные были представлены в ответе без обработки. Но поскольку пользователь любой ИИ-модели не знает, какие именно данные использовала модель, то привлечь его к ответственности будет практически невозможно, полагает эксперт.
В России разрабатывается законопроект об искусственном интеллекте, который направлен на регулирование использования технологий в различных сферах. Документ находится на стадии межведомственного согласования, а его вступление в силу ориентировочно запланировано на 1 сентября 2027 года. В числе прочего документ предусматривает, что граждане смогут отказаться от обслуживания с применением нейросетей, и компании будут обязаны предоставить им альтернативные услуги без ИИ.
В феврале сообщалось, что в России предлагается законодательно закрепить правило сохранения решающей роли человека при применении ИИ в социально значимых сферах: здравоохранении, судопроизводстве, образовании и общественной безопасности.

