Общество: Депутат Немкин: Технология ИИ слишком мощная, чтобы полагаться только на законы
Внедрение искусственного интеллекта (ИИ) становится одной из главных тенденций уходящего года. Так, по данным сервиса «Медиалогия», слово «ИИ» стало лидером по упоминаемости в 2025 году – более 22 млн сообщений в социальных сетях.
Но рост упоминаемости – только следствие того, насколько активно ИИ внедряется и в системы государственного управления, и в бизнес-процессы, и в быт рядовых граждан. Для многих искусственный интеллект стал явлением ежедневной действительности, несущим и возможности, и угрозы. Неудивительно, что уже звучат слова о необходимости регулирования ИИ на уровне государства.
В чем главные опасности и преимущества искусственного интеллекта? Какие именно возможности он дает и бизнесу, и обывателям? В какой мере требуется государственное вмешательство в этот процесс? Как выглядит российский потенциал во внедрении ИИ по сравнению конкурентами? На эти и другие вопросы газете ВЗГЛЯД ответил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
ВЗГЛЯД: Антон Игоревич, как объяснить стремительное распространение искусственного интеллекта в нашей повседневной жизни?
Антон Немкин: Масштаб проникновения ИИ сегодня действительно сопоставим с появлением смартфонов – только гораздо быстрее. За десять месяцев 2025 года совокупный трафик на ИИ-сервисы вырос почти в шесть раз, число пользователей – на 110%.
Рост объясняется тем, что генеративные модели наконец стали простыми и доступными. Интерфейсы понятные, качество ответов выросло, и человек получает решение задач – от подбора спортивного питания до финансового планирования – за секунды.
Антон Немкин. Фото: nemkin.ai
ВЗГЛЯД: Для чего ИИ сегодня используется в России на уровне государства?
А. Н.: В целом сегодня во всех регионах России на разных уровнях внедряется ИИ. Пока в Европе в основном используют американские и китайские языковые модели, Россия уже располагает двумя собственными разработками – YandexGPT и GigaChat, которые показывают высокие результаты. Так, GigaChat 2 MAX от Сбера была признана сильнейшей нейросетью для русского языка в 2024 году по бенчмарку MERA (предназначен для оценки современных русскоязычных языковых моделей – прим. ВЗГЛЯД).
Наш главный приоритет – развитие отечественных ИИ-моделей и внедрение российских ИИ-решений, что обеспечивает технологическую независимость страны. Российские ИИ уже применяются в системе мониторинга и управления национальными проектами, помогая прогнозировать риски и предотвращать срыв сроков выполнения мероприятий. Также уже идет внедрение ИИ в систему электронного документооборота аппарата правительства для более эффективной работы с документами, а также активно используем его в федеральных и региональных органах власти: ИИ помогает управлять транспортными потоками, прогнозировать лесные пожары, мониторить состояние городской среды, дорог и объектов ЖКХ.
ВЗГЛЯД: А в жизни обычных граждан ИИ полезен?
А. Н.: Главный плюс ИИ – резкий рост эффективности. По опросам, 40% россиян уже отмечают повышение своей продуктивности. У 6% ИИ экономит более пяти часов в неделю, у 12% – от двух до пяти часов. Это существенный эффект.
Второй плюс – демократизация экспертных услуг. 48% россиян уже используют ИИ, а среди молодежи 18-24 лет показатель достигает 79%. Малый бизнес тоже перестраивается: каждый второй предприниматель применяет нейросети для контента, аналитики, поиска информации.
ВЗГЛЯД: При этом есть масса публикаций об угрозах и опасностях со стороны искусственного интеллекта.
А. Н.: Да, угрозы есть. Начиная от дипфейков, которые невозможно отличить от реальности, и заканчивая рисками утечки чувствительных данных. Мы получили мощнейшую технологию в руки миллиардов людей, но без цифровой гигиены и без навыков безопасного обращения она становится и огромным генератором рисков.
ИИ уже используется и во вред – от подделки фото еды с плесенью на маркетплейсах до правдоподобных фото с места ДТП, которых не было. Это не только бытовая шалость, но и серьезный вызов для регуляторов и платформ, которым приходится защищаться от фейковых визуальных доказательств, жалоб и манипуляций.
Поэтому ИИ – одновременно источник мощнейшего технологического рывка и новая зона общественной тревоги.
Мы впервые столкнулись с парадоксальной ситуацией: массовым использованием очень сырой технологии. Люди взаимодействуют не с готовым продуктом, а с инструментом, механизмом – и во многом используют его неправильно, подвергая рискам свои данные.
Не все сервисы обеспечивают анонимность. Где-то контекст не сохраняется, а где-то, наоборот, накапливается, формируя фактически цифровой портрет пользователя. Угроза в том, что люди этого не осознают.
ВЗГЛЯД: Считаете эти угрозы существенными?
А. Н.: Мы вступаем в новый тип рисков. ИИ меняет природу угроз. Если раньше атаки были штучными, то теперь становятся массовыми и автоматизированными. Генерация фишинговых писем, подбор уязвимостей, автоматизация взломов – все это уже реальность.
Индустрия отвечает: появляются новые направления, такие как ИИ-безопасность. Например, «Сбертех» представил платформу, фильтрующую запросы, защищающую от утечек и предотвращающую внедрение вредоносного кода.
Но главная угроза сейчас – отсутствие цифровой грамотности и осторожности. Люди массово загружают в ИИ документы с конфиденциальной информацией. Модели могут формировать массив данных о человеке, который затем сложно контролировать. Проблема в том, что пользователи не понимают, что их данные формируют долговременный цифровой след, который однажды может сыграть с ними злую шутку.
ВЗГЛЯД: Значит ли это, что нужны специальные законы для регулирования использования ИИ?
А. Н.: Дискуссия идет активная. Россия выбрала адекватный путь: мы не повторяем путь ЕС, где слишком жесткое регулирование фактически вытолкнуло разработчиков за пределы Европы.
Наша логика – точечная настройка, а не тотальный контроль. Регулируем не сам ИИ, а сценарии его применения.
Например, рекомендательные алгоритмы – это конкретный инструмент, который может продвигать полезный контент, а может создавать пузыри информации и манипулировать взглядами. Соответственно, регулирование должно касаться сферы применения, а не сути алгоритмов. Сегодня обсуждаются корректные определения ИИ, ответственность за вред, механизмы маркировки сгенерированного контента и др.
Пока что существуют лишь фрагментарные, точечные элементы регулирования. Но мы продолжаем работать над разумными нормами, направленными на защиту граждан.
Основная идея: четко определить, где ИИ полезен и нужен – в промышленности, обороне, возможно, в медицине (но с ограничениями, чтобы не деградировали компетенции врачей). Мы должны дать технологиям пространство для развития, но при этом ясно очертить границы, где ИИ может положительно влиять на жизнь людей, а где его применение недопустимо. Это позволит сохранить цифровой суверенитет страны и защитить граждан от потенциальных рисков.
ВЗГЛЯД: Как оцениваете надежды бизнеса на внедрение искусственного интеллекта для оптимизации затрат?
А. Н.: Во-первых, по отчету McKinsey за 2025 год, 88% компаний заявляют, что внедрили ИИ, но на деле только 7% полноценно завершили этот процесс. Это означает, что применение поверхностное: гипотезы есть, но бизнес-процессы не перестроены. Причина – низкая промпт-насмотренность. Люди не умеют ставить задачи моделям, не понимают их ограничений и возможностей. Как следствие – ИИ используется на 10-20% своего потенциала.
Во-вторых, ИИ доступен, но это недешевая технология. Сегодня это огромная нагрузка на инфраструктуру. Неслучайно акционеры OpenAI ищут около 100 млрд долларов только для поддержания ИИ-мощностей. Значительная часть этого расходуется на развлекательное использование, за которое никто не платит, но которое «съедает» вычислительные ресурсы.
ВЗГЛЯД: В России недавно прошла конференция по внедрению ИИ – AI Journey. Что лидеры рынка говорят о проблемах внедрения систем искусственного интеллекта?
А. Н.: На AI Journey обсуждалось три главных барьера: кадры, безопасность и экономика. Первое – дефицит квалифицированных специалистов. Крупные корпорации сегодня фактически сами создают себе инженеров, потому что классическая система образования не успевает. Более того, дефицит не только в разработчиках, но и в обычных пользователях: руководители и сотрудники часто просто не понимают, как применять ИИ. Отсюда и эффект McKinsey: есть внедрение, но нет результата.
Второй барьер – работа с данными и требования безопасности. Многим компаниям нельзя использовать внешние облачные решения: риски утечек слишком высоки. Поэтому появляются модели с изолированными контурами – как у Сбера, где рабочая и личная среда ИИ разделены.
Третий барьер – экономический. ИИ-проекты стоят дорого и окупаются не всегда. Поэтому многие выбирают гибридную стратегию: жесткие метрики для стабильных направлений и подход «запустить, даже если эффект мал» – для инноваций. Другие идут по партнерской модели: например, «СИБУР» активно работает со стартапами, масштабируя не свои разработки, а лучшие внешние решения.
Рынок растет: в 2025 году он достигнет 520 млрд рублей против 433 млрд годом ранее. Но рост мог бы быть вдвое выше при достаточном уровне компетенций.
ВЗГЛЯД: Как государство, по вашей оценке, будет в итоге регулировать внедрение ИИ?
А.Н.: Нас ждет гибридная модель. Во-первых, точечные законы: маркировка ИИ-контента, ответственность за создание и распространение дипфейков, правила защиты данных, требования к прозрачности алгоритмов в критических сферах.
Во-вторых, саморегулирование: корпоративные стандарты, отраслевые кодексы, внутренние регламенты компаний. Сегодня 31% компаний используют ИИ для разработки, 28% – для создания контента. И каждая компания уже формирует собственные правила безопасности. В-третьих, инфраструктурные меры: сертификация моделей, защищенные дата-центры, выверенные датасеты, отраслевые платформы.
И есть еще четвертый элемент, о котором мало говорят: нам нужно регулировать культуру использования ИИ. Обучение, просвещение, цифровая грамотность – от школ и вузов до бизнеса и госслужащих.
Без этого любая модель регулирования будет неполной: технология слишком мощная, чтобы полагаться только на законы. ИИ – это мотор экономики XXI века. И наша задача – чтобы этот мотор работал безопасно, эффективно и на благо развития, а не создавал новые угрозы.
ВЗГЛЯД: Есть ли у России шанс стать одним из мировых лидеров в индустрии ИИ?
А.Н.: Да, есть. Россия уже в семерке стран, обладающих собственными национальными LLM (Large Language Model, большая языковая модель). Формируется новый «ядерный клуб» XXI века, где ИИ-модели – это инструмент влияния, сравнимый с технологиями прошлого столетия.
Но устойчивое лидерство потребует создания оригинальных архитектур, а не просто переобучения иностранных моделей. Национальные модели должны использоваться в чувствительных сферах – от госуслуг до медицины и образования. Для этого нужны вычислительные мощности, качественные датасеты, защищенные среды и главное – кадры.
Компании уже вкладываются в образование: «СИБУР» – через Центральный университет, Т-Банк – через корпоративные школы, Сбер – через отраслевые курсы. В ближайшие 3-5 лет именно наличие подготовленных инженеров и аналитиков определит, кто войдет в мировой топ. При системной поддержке мы точно будем среди лидеров.
Теги: искусственный интеллект