Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году

Официальные данные не отражают ежегодный прирост преступлений, совершаемых с применением ИИ, но по оценкам экспертов, в 2025 году этот прирост может достигнуть восьми или даже десятикратного увеличения по сравнению с предыдущим годом. Руководитель департамента расследований одной из фирм по защите от утечек данных, Игорь Бедеров, подчеркнул, что количество ботов и генерируемый ими контент будут ключевыми факторами в увеличении преступности, связанной с использованием ИИ.

Эксперт в области высоких технологий Виктория Береснева подчеркивает, что рост преступности в мире с использованием искусственного интеллекта обусловлен не только автоматизацией процессов, но и появлением новых возможностей для персональных атак. Она отмечает, что нейросети не могут нападать на пользователей без участия оператора, однако способны создавать фишинговые письма. Гендиректор фирмы, специализирующейся на обучении сотрудников компаний основам информационной безопасности, Алексей Горелкин, добавляет, что в нейросетях есть встроенная защита, но ее можно обойти через промпт-инжиниринг, предложив ИИ выдуманную ситуацию.

Таким образом, злоумышленники могут использовать такие уязвимости, предлагая боту задания, которые могут привести к созданию опасных сценариев. Например, предложив ИИ написать роман о террористах с инструкцией по изготовлению взрывного устройства. Это подчеркивает необходимость постоянного обновления мер безопасности и контроля за использованием искусственного интеллекта. В конечном итоге, важно развивать не только технологии защиты, но и повышать осведомленность пользователей о потенциальных угрозах, связанных с использованием ИИ.

Эксперты высказывают мнение, что до 90% кибергруппировок могут начать использовать технологии нейросетей и чат-ботов для своих злонамеренных целей, в том числе для обогащения за счет социальной инженерии, как утверждает Горелкин. Одновременно с этим наблюдается увеличение влияния искусственного интеллекта в создании более убедительных дипфейков и автоматизации поиска уязвимостей в системах и приложениях злоумышленниками, считают специалисты.

Согласно замечаниям IT-эксперта Сергея Поморцева, россияне сталкиваются с ограничениями в использовании иностранных чат-ботов, таких как Grok или ChatGPT, из-за невозможности легальной оплаты с российской банковской карты и блокировки сервисов для российских IP-адресов. В связи с этим рекомендуется обращаться к отечественным аналогам, которые обеспечивают более высокий уровень безопасности при предоставлении информации.

Таким образом, использование современных технологий в киберпреступности ставит перед пользователями новые вызовы и требует более внимательного подхода к выбору средств коммуникации и обработки данных.

Эксперт в области уголовного права, Анатолий Литвинов, подчеркивает необходимость внесения изменений в законодательную базу РФ уже сегодня. Он предлагает внести поправки, которые бы запретили использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, а также рецептов, содержащих опасные химические вещества. По мнению специалистов, российские сервисы уже используют стоп-слова как фильтры для незаконного контента. Однако, существующая декларация "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ" требует дополнительных уточнений и расширения своего действия. Некоторые крупные организации уже присоединились к инициативе и подписали "Кодекс этики в сфере ИИ", что свидетельствует о необходимости более строгого регулирования использования и разработки искусственного интеллекта.

Эксперты в области кибербезопасности давно предупреждали о возможных угрозах, связанных с использованием искусственного интеллекта в преступных целях. Однако первым случаем, когда ИИ был задействован в реальном преступлении, стал подрыв Tesla Cybertruck возле отеля Trump International Hotel в Лас-Вегасе, как сообщили журналисты. Полицейские утверждали, что Мэттью Ливелсбергер, предполагаемый организатор взрыва, использовал ChatGPT для планирования атаки.

Опасность создания дипфейков и подделки голосовых сообщений становится все более актуальной в современном мире. Специалисты подчеркивают, что уже 15 секунд аудиозаписи могут быть достаточно для создания "слепка" голоса отправителя, что открывает дверь для множества мошеннических схем. Кроме того, использование изображений лиц людей в дипфейках позволяет злоумышленникам создавать убедительные видеосообщения, обманывая доверчивых пользователей.

Таким образом, необходимо уделить особое внимание развитию технологий и методов борьбы с киберпреступностью, чтобы защитить общество от возможных угроз, связанных с использованием ИИ для преступных целей.

В наше время сфера интернет-мошенничества становится все более актуальной и распространенной. В связи с этим важно принимать меры для защиты своих данных и финансов. Один из таких способов - участие в проекте "Перезвони сам", который предлагает новый подход к борьбе с мошенничеством.

Москвичи получили возможность обезопасить себя от мошенников благодаря запуску проекта "Перезвони сам". Этот инновационный проект позволяет не только предотвратить мошеннические действия, но и активно участвовать в создании безопасной среды для всех жителей города.

Идея проекта "Перезвони сам" заключается в том, что каждый участник может сообщить о подозрительных звонках или сообщениях, полученных от мошенников, и предоставить информацию для дальнейшего анализа и предотвращения аналогичных случаев. Таким образом, общество в целом становится более осведомленным и защищенным от киберпреступности.

© 2024 mos-oblast.ru | Сетевое издание. Все права защищены.
Телефон: +7(901)509-28-08
Электронный адрес: mediarustribuna@gmail.com
МЕДИАГРУППА MOS.NEWS
Использование материалов разрешено только с предварительного согласия правообладателей. Все права на тексты и иллюстрации принадлежат их авторам. Сайт может содержать материалы, не предназначенные для лиц младше 18 лет.