По информации радио Sputnik мошенники усовершенствовали схемы обмана, научились с помощью искусственного интеллекта воровать голоса людей.
Исполнительный директор Ассоциации лабораторий развития искусственного интеллекта Вячеслав Береснев отметил, что мошенники активно взяли в работу направление по совершенствованию инструмента подделки голоса. В последние пару лет не нужно быть технически подкованным специалистом, чтобы подделать голос с помощью программ на базе технологий искусственного интеллекта, достаточно иметь небольшой фрагмент записи голоса человека:
— Если речь о популярном человеке, то он выступает на радио и телевидении, ведет стримы в интернете, его голос записать совсем несложно. Если речь о не медийном человеке, то найти круг его общения и записать голос тоже не составит труда, допустим, пройдя мимо, либо спарсить с аккаунта через голосовые сообщения, которые человек отправил в ВК. Можно взломать телеграмм и сохранить голосовые сообщения оттуда.
По мнению эксперта, в зоне риска находятся финансово обеспеченные люди, их голоса, голоса их друзей и родственников могут стать предметом интереса мошенников:
— Кажется, что деньги можно спрятать, однако в современных реалиях это практически невозможно. По многим критериям можно понять, какой у вас доход и как вы живёте.
Эксперт отметил, что сама по себе технология не нова и достаточно проста в освоении:
— Избежать такого рода мошенничества довольно сложно. Если вам звонит родственник и просит денег, положите трубку и перезвоните ему по тому номеру, который у вас записан, либо задайте звонящему вопрос, ответ на который может знать только ваш родственник.
Вячеслав уверен, что в эпоху цифровых двойников нельзя быть уверенным в том, что позвонивший собеседник действительно тот, за кого себя выдает:
— К примеру, вам по видео связи позвонила мама и попросила перевести деньги, вполне возможно, что это были мошенники, поскольку сгенерировать ее голос и аватар, который будет с вами разговаривать, при этом, понимая общий контекст происходящего, отвечать на вопросы — это не так сложно, как кажется.
Эксперт считает, что на данный момент технология еще не растиражирована и, скорее всего, рядовых граждан посягательства мошенников пока не коснутся:
— Но в будущем технология станет более доступной. В некоторых штатах США и в Китае за дипфейки уже сейчас введена уголовная статья.
По мнению эксперта, в текущих реалиях сложно понять, живой человек звонил или нет, шансов не попасть на уловки мошенников становится меньше:
— Сейчас ценность offline-общения, как никогда, возрастает. Предлагаю всем соблюдать цифровую гигиену, никому не сообщать логины и пароли, никому не переводить деньги, не убедившись, что их попросил настоящий человек. А лучше договориться о встрече и передать деньги лично.
Эксперт считает необходимым мошенничество с использованием технологий искусственного интеллекта выделить в отдельную статью Уголовного кодекса с более жестким наказанием, ограничить создание дипфейков, прописав в законе перечень задач, для решения которых они могут быть созданы:
— Кроме того, необходимо ввести принудительную маркировку аудио и видеоконтента, созданного с использованием искусственного интеллекта. Также необходимо постоянно информировать население о новых видах мошенничества.