Специально разработанный телеграм-бот позволяет проверять текстовые и голосовые сообщения на наличие признаков мошенничества. Сам сервис работает с использованием ИИ. Взаимодействие с будущими пользователями телеграм-бота "Стопфейк" – не только полезный опыт, но и хорошая возможность качественно обучить искусственный интеллект, определить узкие места и создать план по будущему развитию продукта. Об этом Агентству "Москва" сообщил гендиректор компании по машинному обучению Дмитрий Марков.
Телеграм-бот "Стопфейк" становится не только инструментом борьбы с дезинформацией, но и объектом исследований для улучшения технологий искусственного интеллекта. Важно понимать, что каждое взаимодействие пользователя с ботом помогает улучшить его функциональность и эффективность. Гендиректор компании по машинному обучению подчеркнул, что такие проекты способствуют не только развитию продукта, но и повышению уровня кибербезопасности в целом.Использование технологий искусственного интеллекта в сфере кибербезопасности открывает новые перспективы для защиты информации и личных данных. Такие инновационные сервисы, как телеграм-бот "Стопфейк", демонстрируют важность внедрения ИИ в повседневные задачи и обеспечение безопасности в онлайн-пространстве.Эксперт подчеркивает, что для достижения максимальной полезности сервиса с искусственным интеллектом необходимо провести длительное обучение на обширном объеме данных. Он отмечает, что важно использовать реальные данные, так как именно это позволяет достичь высокого качества результатов. Например, для обучения нейронной сети в сервисах видеоаналитики используются реальные скриншоты объектов, с которыми система будет в дальнейшем взаимодействовать.Следует учитывать, что большинство специалистов по искусственному интеллекту считают, что подготовка данных для обучения является одной из самых сложных и трудоемких задач при разработке таких решений. Это подчеркивает важность тщательной и длительной работы над сбором и обработкой данных для обучения искусственного интеллекта. Как отмечает эксперт, этот этап является ключевым для достижения высокой эффективности и точности работы системы на практике.Эксперты утверждают, что проведение открытого пользовательского тестирования является эффективным методом для улучшения работы искусственного интеллекта и привлечения обычных граждан к этому процессу. Пользователи могут предоставить нейросетям актуальные данные, которые помогут им стать более точными и полезными.Важно отметить, что разработчики внимательно изучают результаты работы бота и анализируют обратную связь, полученную от участников тестирования. Это позволяет им учесть пожелания пользователей и сделать необходимые улучшения в функционале до завершения открытого тестирования.Согласно информации из МВД России, использование двухфакторной аутентификации является надежным способом защиты телеграм-аккаунта от мошенников. При наличии этой функции даже в случае доступа злоумышленников к номеру телефона и коду подтверждения, учетная запись останется в безопасности.Открытое тестирование продлится до 27 февраля, после чего специалисты проведут доработки функционала с учетом обратной связи от пользователей. Ожидается, что проект станет полноценно работоспособным уже весной, что принесет пользу как разработчикам, так и пользователям.Читайте также: Кроме того, ведомство предложило ограничить возможность приема звонков в мессенджере от незнакомцев и предложило внедрить механизм, позволяющий блокировать нежелательные запросы на добавление в группы.В связи с увеличением случаев нежелательных звонков и спама в мессенджерах, ведомство выдвинуло идею о создании специального фильтра, который позволил бы пользователям устанавливать правила для принятия входящих звонков и запросов на добавление в группы.Предложение ограничить возможность добавления аккаунта в различные группы и разрешить звонки только от знакомых контактов вызвало разносторонние мнения среди пользователей мессенджеров. Некоторые поддержали идею защиты от нежелательной коммуникации, в то время как другие высказали опасения относительно потери свободы в общении в сети.