В Роскомнадзоре планируют внедрять искусственный интеллект в свою работу – сегодня в ведомстве уже строят модели и проводит обучение нейросетей. Тем не менее, пока нейросети не способны выявлять все типы запрещенной информации в сети.
Роскомнадзор изучает возможности внедрения технологий на основе искусственного интеллекта в свою работу – в том числе строит модели и проводит обучение нейросетей.
«Работа ведется в рамках центров компетенций и научно-технических советов, созданных при подведомственном предприятии ФГУП «ГРЧЦ». Научно-технические советы объединяют для решения прикладных задач российских экспертов, имеющих практический опыт применения технологий искусственного интеллекта», - сообщили в пресс-службе ведомства.Как отметили в РКН, сегодня более 100 млн наших граждан ежедневно выходят в Интернет, где общаются, пользуются сервисами и получают информацию. При этом потоки поступающей информации неуклонно увеличиваются, растёт количество запрещённого и деструктивного контента, развиваются и усложняются технологии генерации и доставки информации. «Вместе с этим подобные технологии становятся доступнее большему количеству обычных пользователей. В этих условиях должен быть обеспечен быстрый и точный мониторинг с мощностью, соответствующей растущим потокам информации. Эффективно решить эту задачу можно, комбинируя различные технологии, в том числе решения на основе искусственного интеллекта», - подчеркнули в пресс-службе регулятора.
При этом заменить человека в работе по выявлению деструктивного контента ИИ не сможет, как и в остальных сферах, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. Его задача – стать помощником и помочь снизить рутинную нагрузку на специалистов. «В законодательстве определено порядка 30 основных типов запрещенной информации, но нейросети пока научились выявлять далеко не все из них. Как отмечают в Роскомнадзоре, в ряде случаев лингвистические модели сохраняют своё преимущество, работают точнее и быстрее. Кроме того, принятие решений относительно выявленного системами деструктивного контента в любом случае принимают сотрудники ведомства. На мой взгляд, такое положение дел должно сохраняться и далее, даже если системы с использованием ИИ докажут свою абсолютную эффективность. Ограничение доступа к противоправному и запрещенному контенту направлено на защиту наших граждан, а в этом ответственном и важном вопросе финальное решение всегда должно быть за квалифицированным специалистом», - отметил депутат.
Заинтересованность различных ведомств в новых технологиях, например в генеративных ИИ, закономерна и понятна, считает Немкин. «Миллионы людей уже используют новые цифровые возможности в рабочих и личных целях – это сокращает количество требуемых ресурсов, снижает время на поиск информации. Внедрение искусственного интеллекта и адаптация законодательства под новые технологии — это часть большой цифровой трансформации, которая реализуется в стране как на федеральном, так и на региональном уровнях. Сегодня Россия входит в число немногих стран, где есть собственные технологии генеративного искусственного интеллекта и большие языковые модели. За последние четыре года российский ИТ-рынок в среднем рос более чем в 2 раза быстрее мирового. Нет сомнений, что в перспективе ближайших лет генеративные модели станут обыденностью и ими будут пользоваться повсеместно, однако нам стоит продолжать работу в отношении формирования регулирования это сферы. Она должна быть сбалансированной. Контролировать развитие искусственного интеллекта, безусловно, нужно, однако препятствовать развитию новых технологий новые меры точно не должны. Скорее наоборот – они должны стимулировать их в нужном русле», - заключил парламентарий.
]]>
Свежие комментарии