Инициативу поддержали в Госдуме, что может привести к изменениям в Уголовном кодексе РФ, специально дополнив его новыми статьями.
Предложенные поправки касаются различных видов преступлений, включая клевету, мошенничество, кражу, вымогательство и другие. Таким образом, использование дипфейков для клеветы, имитирующей потерпевшего, может повлечь за собой штраф до 1,5 миллиона рублей или лишение свободы до 2 лет. А за мошенничество с применением дипфейков предусмотрен штраф до 400 тысяч рублей или лишение свободы до 6 лет.Это законодательное нововведение направлено на борьбу с возросшим числом случаев использования дипфейков для совершения преступлений и защиту прав граждан от манипуляций и дезинформации. Важно обеспечить эффективный механизм пресечения таких действий и наказания их исполнителей, чтобы общество могло чувствовать себя более защищенным и безопасным.В современном отраслевом законодательстве России возникают проблемы с использованием технологий подмены личности, что может привести к некорректной правоприменительной практике. Поэтому в правительстве страны рекомендовали провести доработку соответствующих документов. Эксперты, опрошенные газетой, отмечают, что дипфейки становятся все более популярными в России и используются не только в развлекательных целях, но и для мошенничества.Считается, что наказание за такие действия, как мошенничество, клевета или кража, должно быть серьезным, включая штрафы до 1,5 миллиона рублей и тюремный срок. Однако при принятии решения о мере пресечения необходимо учитывать не только характер преступления, но и сумму, на которую были совершены противоправные действия. Важно обеспечить справедливость и эффективность правосудия в условиях развития новых технологий и угроз цифровой безопасности.В связи с внедрением новой нормы о маркировке контента, созданного с использованием нейросетей, возникает вопрос о том, как доказать использование дипфейк-технологий. Эксперты отмечают, что это может стать сложной задачей из-за быстрого развития технологий и возможности скрыть следы искусственного интеллекта. Кроме того, стоит учитывать, что большинство злоумышленников, создающих контент с помощью нейросетей, находятся за рубежом, что усложняет преследование их уголовной ответственности.В мае текущего года в Госдуме началась работа над законопроектом о маркировке контента, созданного с применением нейросетей. Предполагается, что маркировка будет осуществляться с использованием графических или водяных знаков, которые должны быть ненавязчивыми, но в то же время легко заметными для потребителя. Это позволит повысить прозрачность и доверие к информации, созданной с помощью искусственного интеллекта.Таким образом, вопросы связанные с идентификацией и маркировкой контента, созданного с использованием нейросетей, становятся все более актуальными в контексте борьбы с дезинформацией и фальсификацией информации в цифровой среде.В свете растущей угрозы деструктивного контента, созданного искусственным интеллектом, в Государственной Думе поднялся вопрос о необходимости расширения полномочий Роскомнадзора. Ведомство, считают депутаты, должно активнее вмешиваться в процесс выявления и блокировки подобного контента, чтобы защитить общество от его негативного воздействия."Техно": как распознать дипфейки и защитить себя от мошенниковВ связи с ростом использования искусственного интеллекта для создания дезинформации и манипуляции сознанием, важно быть осведомленным о методах распознавания дипфейков и защиты от мошенничества в онлайн среде.Читайте такжеПомимо технических средств защиты, важно развивать критическое мышление и умение анализировать информацию, чтобы не стать жертвой манипуляций и фейковых новостей. Вместе с тем, необходимо обеспечить Роскомнадзору необходимые ресурсы и полномочия для борьбы с деструктивным контентом, который может нанести серьезный ущерб обществу.