К такому выводу пришли участники круглого стола «Развитие искусственного интеллекта в России: угрозы и возможности», который провела думская фракция КПРФ в Доме Союзов. Ведущие эксперты в области искусственного интеллекта, цифровизации экономики и государственного управления обсудили ключевые вопросы запуска и масштабирования этих технологий в России, в том числе законодательное регулирование, этичность ИИ, гражданское и оборонное использование беспилотников и дронов, влияние нейросетей на систему образования, а также на проведение Единого дня голосования 10 сентября и выборов президента в 2024 году. ИТ-эксперты напомнили, что особенно важным в условиях неизбежного расширения использования искусственного интеллекта становится сохранение контроля человека над ним.

Первый заместитель председателя комитета Госдумы РФ по бюджету и налогам Михаил Щапов сообщил, что внедрение различных видов искусственного интеллекта в России, по мнению экспертов, может привести в течение ближайших десятилетий к существенной трансформации рынка труда в стране — исчезнет до 20 миллионов рабочих мест. «Развитие технологий ИИ изменит экономическую, технологическую и политическую модели устройства российского общества, а для законодателей важно, как это отразится на жизни граждан и как сделать эти изменения для них более комфортными и безболезненными», — сказал парламентарий.

Замглавы комитета Госдумы РФ по бюджету и налогам также отметил, что, если еще совсем недавно технологии искусственного интеллекта носили теоретический характер и интересовали только узкий круг специалистов, то сегодня искусственный интеллект плотно вошел в жизнь почти каждого человека — и не всегда эти технологии используются во благо. Член комитета Госдумы РФ по информационной политике, информационным технологиям и связи Антон Немкин согласен с тем, что сегодня искусственный интеллект становится неотъемлемой частью нашей жизни. По его словам, в Китае уже создан искусственный интеллект с объемом памяти, близким к человеческому, и его можно обучить управлять автономным транспортным средством или выполнять сложные научные исследования.

«Школьники и студенты все чаще используют чат-бот ChatGPT для решения домашних заданий, написания дипломов, диссертаций и лекций. Китайский писатель, лауреат нобелевской премии по литературе Мо Янь воспользовался ChatGPT для написания своей речи для одного из выступлений. Тот же ChatGPT интегрирован в Minecraft – игру, в которую играет огромное количество людей в России и во всем мире. В нашей стране созданы сберовские GigaChat и Kandinsky 2.1, платформа глубинного обучения Neurohive компании Sberbank AI Lab и многие другие системы, решающие самые разные задачи — от выпуска автономного грузовика или роботизированных систем для нефтяной промышленности до внедрения искусственного интеллекта на основе яндексовской Алисы, который даже в тестовом формате обработал более миллиона запросов в первый же день, и многих других», — сказал Немкин.

«Технологии ИИ будут развиваться вне зависимости от наших желаний, поэтому необходимо не просто реагировать на последствия его развития, а пытаться спрогнозировать и найти решения, которые позволят, с одной стороны, минимизировать негативные эффекты, с другой – воспользоваться позитивными результатами и возможностями и получить конкурентные преимущества. Мошенничество, обесчеловечивание государственных структур, манипулирование общественным мнением, дипфейки, которые используются в политической борьбе, – орудие, не уступающее по значению ядерному. Поэтому сегодня нас интересуют угрозы и риски, а также решения, при помощи которых мы можем их предупредить или нивелировать», — подчеркнул Щапов.

Внедрение искусственного интеллекта создает риски, спрогнозировать которые пока что в полной мере невозможно, а его использование затрагивает и социальные и гуманитарные сферы, приводя к появлению новых этических вопросов, поддержал его Антон Немкин.

«Это уже признают все государства и ведущие компании и эксперты. Так, например, на днях стало известно, что Apple по соображениям безопасности запретила своим сотрудникам использовать ChatGPT («Чат-Джипити») и другие нейросети на рабочих местах. И эти – довольно жесткие, на первый взгляд, — решения вполне обоснованы. При этом нужно понимать, что, если для бизнеса проблемы с искусственным интеллектом несут по большей части коммерческие и репутационные риски, то масштабы и вероятности реализации фундаментальных угроз для государства и государственных органов, особенно с учетом их имеющихся обязательств и информации, агрегируемой сотрудниками, колоссальны. Так, нейросети, например, способны провоцировать распространение недостоверной информации и утечки конфиденциальных сведений. Кроме того, пока за каждой разработкой еще стоит человек. И далеко не все из тех, кто создает и использует новые системы, действуют в благих целях. Ведь преступный мир тоже оценил возможности, которые дают ему современные технологии», — подчеркнул Немкин.

Одна из важнейших проблем, на которую обратил особое внимание Щапов, — это обесчеловечивание государственных процедур. «Замена живых людей на сервисы, использующие нейросети, приводит к тому, что граждане все чаще сталкиваются с бездушной машиной, которая не в состоянии проявить к ним эмпатию», — прокомментировал парламентарий. По его словам, многие получают формальные ответы от чат-ботов и цифровых служб поддержки, которые не дают разобрать вопрос по существу и не переключают на оператора.

Заместитель министра цифрового развития, связи и массовых коммуникаций Российской Федерации Григорий Борисенко предложил опираться на цифры и сообщил, что за последние несколько лет представлено множество моделей ИИ, которые используют лучшие математические и технологические решения, обладающие значительным количеством параметров. Так, например, ChatGPT насчитывает от 200 млн до 1 трлн параметров, и в целом за последние годы параметры крупнейших моделей в целом выросли в 80 раз.

«В контексте сравнения с человеком они все еще являются достаточно упрощенными, но показывают отличные результаты. Мы говорим о модели, переднего края, которые создаются большими группами людей и задействуют значительные технологические мощности. Такие модели создаются и остаются локализованными в крупных госкорпорациях: это обусловлено тем, что постоянно растет стоимость как специалистов, так и технологий. То есть сегодня они не имеют массового характера, а находятся под надежным контролем крупных игроков», — подчеркнул Григорий Борисенко.

«Единая Россия» работает сейчас над законопроектом, который гарантирует гражданам безопасную цифровую среду, рассказал Немкин. Его задача – актуализировать действующие нормы и определить ответственность, исключить случаи, когда продукты на основе искусственного интеллекта служат мошенникам, отмечает депутат.

«В нашей работе мы исходим из правила, что ответственность за последствия использования искусственного интеллекта и решения, принятые с его помощью, несет человек. Поэтому среди основных задач в обеспечении безопасности при использовании искусственного интеллекта в государственных органах следует выделить, прежде всего, необходимость внедрения системного и комплексного подхода. Следовательно, нам необходимы жесткое следование и развитие принципов использования искусственного интеллекта, определенных в указе президента, четкое определение сфер, способов и — что самое важное — границ использования искусственного интеллекта, установление ограничений и запретов на его применение государственными служащими в целях, не утвержденных регулированием, — уверен Антон Немкин. Паламентарий также добавил, что необходимо проработать и вопрос установления соответствия нейросетей правилам, нормам и требованиям для их безопасного использования.