В связи с этим в России рассматривается возможность введения обязательной маркировки курсовых и дипломных работ, выполненных с использованием ИИ. С инициативой выступил ректор Российского технологического университета МИРЭА Станислав Кудж, о чем сообщает RT.
Кудж направил своё предложение главе Росстандарта Антону Шалаеву, подчеркнув, что ИИ не следует воспринимать как угрозу для системы образования. Напротив, он является мощным союзником и ключевым элементом новой образовательной парадигмы, способствующей развитию и совершенствованию учебного процесса. По мнению ректора, вместо введения запретов необходимо создать чёткие и современные правила, которые обеспечат ответственное и прозрачное использование технологий искусственного интеллекта.Введение обязательной маркировки позволит повысить уровень доверия к академическим работам и предотвратить недобросовестное использование ИИ, сохраняя при этом инновационный потенциал образования. Таким образом, законодательное закрепление этих норм станет важным шагом к гармоничному внедрению новых технологий в учебный процесс и обеспечению честности и прозрачности в академической среде.В условиях стремительного развития цифровых технологий и широкого внедрения искусственного интеллекта в научную деятельность вопрос прозрачности и этичности использования таких инструментов становится особенно актуальным. Ректор РТУ МИРЭА выступил с инициативой обновления национального стандарта оформления научных работ – ГОСТ 7.32-2001 «Система стандартов по информации, библиотечному и издательскому делу. Отчет о научно-исследовательской работе. Структура и правила оформления». Эта инициатива направлена на повышение качества и достоверности научных публикаций в эпоху цифровизации.В частности, предлагается внести в стандарт новое положение, которое обяжет авторов указывать применение искусственного интеллекта при проведении исследований. При этом необходимо будет уточнять конкретный сервис или алгоритм, использованный в работе, что должно отражаться либо в разделе, посвящённом методам исследования, либо в отдельном подразделе, посвящённом цифровым инструментам. Такой подход позволит обеспечить прозрачность научного процесса и повысить доверие к полученным результатам.Введение подобных изменений в ГОСТ 7.32-2001 станет важным шагом к адаптации национальных стандартов к современным реалиям научной деятельности и повысит ответственность исследователей за использование новых технологий. Это также создаст предпосылки для более тщательного анализа влияния искусственного интеллекта на качество и оригинальность научных трудов, что в конечном итоге способствует развитию отечественной науки и интеграции её в мировое научное сообщество.В современном мире цифровые технологии стремительно развиваются, и вместе с ними растет необходимость в формировании у студентов навыков безопасного и осознанного использования искусственного интеллекта. Кудж убеждён, что внедрение нового подхода в образовательный процесс позволит не только повысить цифровую грамотность учащихся, но и воспитать культуру ответственного обращения с ИИ. Такой подход способствует развитию критического мышления, поскольку студенты будут не просто копировать информацию, а анализировать её, проверять достоверность и перерабатывать, что значительно углубляет понимание материала.Ранее группа экспертов выступила с инициативой запрета на создание систем искусственного интеллекта, которые несут повышенный или неприемлемый риск для безопасности. В рамках этой инициативы предлагается ввести классификацию ИИ по уровням потенциальной опасности: неприемлемый, высокий, ограниченный и минимальный риск. Авторы подчеркивают, что нейросети с высоким уровнем риска могут представлять угрозу не только для отдельных людей и общества в целом, но и для национальной безопасности, а также способны нарушать фундаментальные права и свободы человека.Таким образом, комплексный подход к регулированию и обучению работе с ИИ позволит не только обезопасить пользователей и общество, но и подготовить новое поколение специалистов, способных критически оценивать технологии и принимать взвешенные решения в быстро меняющемся цифровом мире. В конечном итоге, это создаст прочную основу для гармоничного сосуществования человека и искусственного интеллекта, способствуя устойчивому развитию общества и технологий.В современном цифровом мире взаимодействие с искусственным интеллектом становится все более распространённым и значимым аспектом нашей жизни. В России недавно была выдвинута инициатива о введении обязательной маркировки общения с нейросетями, что может существенно повлиять на прозрачность и ответственность в сфере цифровых коммуникаций. Такая мера призвана помочь пользователям чётко понимать, когда они взаимодействуют с искусственным интеллектом, а не с человеком, что особенно важно в условиях растущего использования нейросетей в различных сферах — от образования и журналистики до бизнеса и развлечений.Предложение о маркировке общения с нейросетями направлено на повышение доверия к цифровому контенту и предотвращение возможных манипуляций и дезинформации. Введение специальных меток или уведомлений позволит пользователям осознанно воспринимать информацию и принимать более обоснованные решения. Кроме того, это создаст дополнительные стимулы для разработчиков и компаний соблюдать этические стандарты при создании и внедрении искусственного интеллекта.В конечном итоге, такая инициатива может стать важным шагом на пути к более прозрачному и безопасному цифровому пространству, где технологии служат на благо общества, а пользователи обладают необходимыми инструментами для критического восприятия информации. Внедрение маркировки общения с нейросетями — это не только вопрос регулирования, но и часть более широкой дискуссии о роли искусственного интеллекта в нашей жизни и будущем.