Об этом сообщает газета "Известия" со ссылкой на зампреда комитета ГД по информполитике Андрея Свинцова.
Депутат отметил, что большинство компаний, предоставляющих услуги искусственного интеллекта (ИИ), в пользовательских соглашениях указывают, что все права на результаты деятельности принадлежат компании. Это создает риски для авторов, использующих ИИ в своей работе, таких как написание текстов, создание логотипов, музыки, сценариев и другого контента."Авторы могут оказаться в ситуации, когда все права на созданный ими контент переходят к иностранной компании. Поэтому мы считаем необходимым урегулировать этот вопрос на законодательном уровне", – заявил Свинцов.Отсутствие правовых норм в этой области создает юридическую неопределенность для авторов, подтвердила основатель Совета блогеров Валерия Рытвина. Она призвала внести системные изменения в законодательство, чтобы решить вопросы авторства, ответственности и прав на созданный контент.Депутаты также планируют обсудить с IT-экспертами методы разработки и закрепления в правовой сфере ключевых определений, таких как "нейросеть" и "дипфейк". Без этого будет сложно обеспечить правовую защиту граждан и бизнеса.Ранее Министерство цифрового развития, связи и массовых коммуникаций России предложило ввести обязательную маркировку контента, созданного с помощью нейронных сетей. Эксперты считают, что это поможет бороться с дипфейками и защищать граждан от дезинформации.Эксперты утверждают, что в России не наблюдается тенденция замены сотрудников на искусственный интеллект. Они считают, что такие новшества могут быть внедрены в некоторых крупных городах России, но в целом не будут широко распространены.Спрос на специалистов по искусственному интеллекту вырос в России в три раза.