Аналитический материал по итогам ЦИПР-2025:
отрасли, архитектуры решений,
готовность и вызовы
LLM в России:
от экспериментов
к внедрению
Еще год назад компании обсуждали искусственный интеллект с интересом и осторожностью. Сегодня — думают не о том, нужен ли ИИ, а о том, где он уже приносит пользу, как его внедрять безопасно и с какой архитектурой. Языковые модели перестали быть экспериментом — и стали частью ИТ-стратегий.
Что такое языковая модель?
Языковая модель (Language Model, LM) — это тип искусственного интеллекта, обученного понимать и генерировать текст на естественном языке. Модель «читает» большие объемы текстов, находит закономерности и учится предсказывать, что будет дальше в предложении. Это позволяет ей вести диалоги, писать тексты, отвечать на вопросы, переводить, программировать и выполнять другие когнитивные задачи.

Языковые модели классифицируются по размеру, вычислительным требованиям и области применения.
Принято выделять:
1. Большие языковые модели Large Language Models (LLMs)
  • Размер: от миллиардов до сотен миллиардов параметров.
  • Размещаются в облаке или на дата-центрах.
  • Универсальны: умеют рассуждать, писать код, работать с контекстом.
  • Примеры: GPT-4, Claude, Gemini, GigaChat, YaLM 2.
2. Средние языковые модели Medium Language Models (MLMs)
  • Размер: от 2 до 15 миллиардов параметров.
  • Можно развернуть на сервере в периметре компании.
  • Оптимальны для RAG-систем, внутреннего поиска, автоматизации документооборота.
  • Примеры: LLaMA 2–13B, Mistral 7B, OpenChat, Baichuan 13B.
3. Малые языковые модели Small Language Models (SLMs)
  • Размер: от 50 миллионов до 2 миллиардов параметров.
  • Легко запускаются на ноутбуках, edge-устройствах, встраиваемых системах.
  • Используются в чат-ботах, справочных системах, голосовых помощниках.
  • Примеры: Phi-2, TinyLLaMA, DistilBERT, Gemma 2B.
Создаём комплексные ИИ-решения под задачи вашего бизнеса — с развёртыванием внутри контура компании
Раздел 1. Сначала — себе: практики внедрения LLM в ИТ-компаниях
Прежде чем предлагать клиентам решения, ИТ-компании тестируют технологии на себе. Участники интервью рассказали, как LLM стали частью их процессов — от генерации кода до маркетинга и поддержки.
LLM внедряются не как эксперимент, а как рабочий инструмент. Чаще всего LLM применяют для разработки (44%), документооборота (35%), генерации контента (29%) и аналитики (22%). Почти все отмечают: ИИ помогает экономить ресурсы, заменяя рутину и ускоряя работу команд.
LLM в разработке

Почти каждая вторая компания отметила, что применяет LLM на этапе кодирования, написания тестов, архитектурного проектирования или подготовки технической документации. Часто ИИ помогает ускорить генерацию прототипов, сократить ручной труд в тестировании и даже адаптировать код под разные технологии. Большинство решений работают в локальных средах или через корпоративные платформы.
Внутренние процессы: поддержка, документооборот и организация команд

LLM активно применяются в задачах поддержки и внутренних процессов. Компании-участники отметили, что внедрили ИИ в документооборот, поддержку, организацию взаимодействий внутри команд или обработку типовых запросов. Чаще всего это:
  • автоматизация документооборота и составление КП;
  • генерация черновиков, саммаризация и транскрибация встреч;
  • помощь в навигации по внутренней базе знаний и формирование внутренних ассистентов;
  • создание цифровых помощников и даже «ИИ-сотрудников» для участия в командной работе.

Тренд очевиден: компании все чаще используют ИИ не только в ИТ-процессах, но и в рутинных операционных задачах.

LLM в контенте и маркетинге

Направление входит в топ-3 сценариев применения:
  • создание маркетинговых текстов, концепций, презентаций
  • генерация визуального контента
  • анализ рисков и подготовка исследований

ИИ помогает быстрее разрабатывать концепции, проводить анализ, тестировать гипотезы — и это направление демонстрирует быстрый рост.

LLM в знаниях, поиске и инфраструктуре

Четверть компаний отметили использование LLM для обработки внутренних данных, поиска, интеллектуального доступа к знаниям. Это новое, но быстро развивающееся направление. Наиболее типичные применения:
  • интеллектуальный поиск по базам знаний;
  • генерация технической документации;
  • семантический анализ.
Пока такие решения запускаются точечно, но именно здесь компании видят потенциал для стратегических ИИ-инициатив. Это один из самых перспективных сценариев — и в то же время один из самых сложных. Он требует точной настройки и защищенной инфраструктуры. Однако компании уже формируют свои подходы и инфраструктуру.

ИТ-компании оказались в авангарде внедрения LLM. Большинство компаний-участников применяют ИИ в нескольких сценариях сразу, превращая его из вспомогательного инструмента в рабочую среду.

Разработка и тестирование стали теми направлениями, где LLM принесли ощутимый эффект. Все больше компаний внедряют LLM-платформы, создают ИИ-ассистентов и запускают сквозные сценарии, встроенные в ежедневную работу.

Подходы разные — от on-premise до облака, от опенсорсных моделей до собственных решений. Но вектор один: ИИ становится нормой. «Сапожники с сапогами» — и именно от ИТ-компаний теперь ждут ответов и ориентиров те, кто только начинает путь.
А теперь — к тем, кто еще недавно обращался к ним за советом и решениями.
Раздел 2. От пилотов к практике: как LLM проникают в отрасли
Если в ИТ-секторе языковые модели стали частью ежедневной рутины, то в других отраслях этот путь только начинается. Бизнес стремится внедрять ИИ — но зачастую не понимает, как это сделать правильно и в каких задачах он действительно даст ценность. У компаний нет дефицита интереса — есть дефицит понимания.
Тем не менее, запрос растет стремительно. Компании из финтеха, промышленности, медицины, образования, госсектора и ритейла готовы к внедрению LLM не просто ради экспериментов, а ради решения конкретных задач.
Отрасли и задачи: где LLM уже работают

По итогам интервью с экспертами можно выделить несколько отраслей, где внедрение LLM-технологий идет наиболее активно. Лидируют финансовый сектор и ритейл — их упоминали почти все участники интервью. Больше всего внедрений LLM происходит в финансовом секторе (33,3%) и ритейле/e-commerce (25,0%). Также упоминались следующие отрасли: промышленность, медицина, образование, телеком, логистика, госсектор, маркетплейсы, ИТ/инфраструктура. Однако их упоминания встречались реже и в совокупности эти отрасли составляют 41,7%.

Это объясняется зрелостью процессов, масштабом данных и типовыми задачами, где LLM-решения могут быстро показать ценность.
Финансовый сектор

По результатам опроса, участники выделяли финансовый сектор как наиболее активный в ИИ-инициативах. Здесь LLM используют для:
  • ускорения разработки и адаптации ПО под импортозамещение
  • проверки KYC-документов, автоматизации документооборота
  • автоматизации обработки обращений и клиентской поддержки
  • интеллектуального поиска по внутренним данным
  • внедрения AI-ассистентов рутинных операций в маркетинге, HR и др.
Ритейл и e-commerce

Ритейл и e-commerce активно исследуют возможности LLM для персонализации, автоматизации поддержки и повышения эффективности внутренних процессов. Среди ключевых сценариев:
  • генерация описаний товаров
  • интеллектуальные витрины
  • чат-боты для поддержки клиентов
  • автоматизация заказов и документооборота
  • парсинг входящих обращений
  • рекомендации и персонализированные предложения
Ритейл оказался одной из тех отраслей, где LLM быстро нашли практическое применение. Компании стремятся использовать ИИ для быстрой автоматизации без кардинальной перестройки процессов, экономя ресурсы и ускоряя обслуживание клиентов. Массовый характер задач в торговле делает отрасль особенно восприимчивой к масштабируемым LLM-решениям.

Если рассматривать популярные кейсы по отраслям, картина получается следующая.

  • Финансовый сектор: интеллектуальный поиск по базе знаний, генерация документов, чат-боты, автоматизация технической поддержки, проверка документов, ИИ-ассистенты в HR и маркетинге.
  • Ритейл и e-commerce: парсинг обращений, генерация товарных описаний, персонализированные витрины, автоматизация документооборота и обработки заказов с помощью ИИ-ассистентов.
  • Промышленность: генерация техдокументации и автоматизация внутренних процессов с помощью ИИ-ассистентов.
  • Медицина и образование: поиск по нормативной документации, автоматизация рутинной документации с помощью ИИ-ассистентов.
  • ИТ и инфраструктура: ИИ-ассистенты для системного анализа, анализа логов, генерации рекомендаций.
LLM находят применение как в клиентских сервисах, так и во внутренних процессах, ускоряя рутинные задачи и снижая нагрузку на специалистов.

Практически каждая компания работает сразу с несколькими отраслями, а кейсы во многом типовые: цифровые ассистенты, генерация документов, интеллектуальный поиск, автоматизация поддержки. Это говорит о том, что технологии LLM уже начали масштабироваться за пределы пилотов — и проникать в рутину крупнейших отраслей.
Архитектуры решений: облако, on-prem, гибрид

По результатам интервью, распределение архитектурных предпочтений выглядит так:
  • 58% участников называют облачные решения основным или предпочтительным выбором заказчика;
  • 92% участников внедряют on-premises-развертывания, особенно для проектов с конфиденциальными или критически важными данными;
  • 50% участников используют гибридные сценарии, совмещая локальную защиту с мощностями облачных моделей.
Эти цифры подтверждают тренд на дифференцированный подход. Большинство участников интервью признают: универсального ответа нет. Архитектура подбирается исходя из условий — где-то уместно облачное API, где-то жизненно важно локальное развертывание. В результате все больше проектов переходят на гибридные схемы, где облачные модели используются для менее чувствительных задач, а on-premise — для критичных компонентов.
Баланс между безопасностью, экономикой и зрелостью

Выбор архитектуры — не только про технологии. Это еще и про зрелость бизнеса, экономические возможности и готовность управлять рисками. Компании с высоким уровнем зрелости все чаще применяют нейрошлюзы, маскирование и собственные security-фильтры, чтобы использовать преимущества облачных LLM без компромиссов по безопасности. С другой стороны, для крупных игроков и госкомпаний on-prem по-прежнему остается единственно возможным вариантом.
Отрасль также диктует архитектуру: если проект связан с финансами, медициной, госсектором — решение почти всегда разворачивается в закрытом контуре. Для ритейла, образования, стартапов или задач с открытыми данными — чаще применяются облачные или гибридные архитектуры.

Регуляторика становится отдельным фактором влияния. Практически все участники подчеркивают важность соблюдения 152-ФЗ, особенно при работе с персональными данными. Это предопределяет выбор архитектуры вне зависимости от бюджета или зрелости команды.

Архитектура LLM-решения — отражение зрелости бизнеса и его отношения к данным. Гибридные подходы становятся нормой, позволяя масштабировать ИИ без компромиссов по безопасности. Регуляторика, стоимость инфраструктуры, качество моделей — все это формирует ландшафт архитектурных решений.
Раздел 3. Барьеры и вызовы на пути внедрения
ИИ — это не просто новая технология, а вызов привычному укладу работы и мышления внутри компаний. И на этом пути бизнес сталкивается с множеством барьеров. Мы задали компаниям прямой вопрос: с какими трудностями они сталкиваются при внедрении LLM?
Ответы показали, что проблемы носят не столько технический, сколько системный и культурный характер. Они касаются недостатка зрелости, инфраструктуры, доверия, регуляторики и даже когнитивного сопротивления внутри команд.
Ниже — ключевые сложности, с которыми сталкиваются компании.
Недоверие к ИИ и сопротивление внутри команд

ИИ воспринимается как угроза — и не всегда на уровне руководства. Страх перед «искусственным коллегой», отсутствие привычки работать с новыми интерфейсами, боязнь потерять значимость — все это замедляет внедрение.

Отсутствие зрелой экспертизы у заказчиков

Часто компании не могут сформулировать задачу или не понимают, зачем им ИИ. Отсутствуют методологии, структуры, зрелые ожидания. Задачи «на автоматизацию всего» не ведут к результату.

Недостаток инфраструктуры и высокая стоимость

Локальные решения требуют серверов с GPU, компетенций и времени. Многие компании не готовы к таким вложениям. Облачные решения — дешевле, но вызывают опасения.

Проблемы с данными и интеграцией

Многие компании не готовы предоставить качественные датасеты, не умеют формулировать запросы или боятся утечек. Это снижает точность и пользу ИИ.

Галлюцинации и нестабильность технологий

LLM продолжают «фантазировать» и давать ошибки, особенно в сложных и критичных задачах. Постоянная гонка новых моделей делает рынок нестабильным.

Барьеры регуляторики и неясные риски

Многие компании опасаются штрафов и рисков из-за отсутствия понятных правил. Особенно это касается иностранных моделей и облаков.

Важно отметить: большая часть этих проблем не связана напрямую с качеством самих моделей. Они возникают из-за того, что ИИ по-прежнему воспринимается как нечто магическое, а не инструмент. На практике же внедрение требует четкой цели, подходящей архитектуры, зрелой команды и пошагового взаимодействия с пользователями.

Именно это непонимание и отсутствие целеполагания становятся основой нового явления, о котором говорят многие участники рынка: вайб-кодинг (от англ. vibe coding) — имитации цифровой трансформации без реального эффекта. Почему компании идут этим путем, в чем кроется риск и как отличить шоу от системной автоматизации — разберем в следующем разделе.
Раздел 4. Где заканчивается автоматизация и начинается имитация: феномен вайб-кодинга
По мере распространения LLM и других ИИ-инструментов в разработке, появляется новый вызов — не только технологический, но и этический. На первый взгляд, генерация кода и автоматизация задач ускоряют процессы. Но все чаще эксперты фиксируют иную сторону этого тренда: когда реальные компетенции подменяются заготовками нейросети.

В этом разделе мы исследуем границы между осознанным применением ИИ и имитацией квалификации, которую такие инструменты могут маскировать. Где проходит эта граница? Кто и зачем ей следует — или ее пересекает?
Что такое вайб-кодинг — и почему об этом говорят

Термин вайб-кодинг появился как ироничное обозначение практики, при которой разработчик «создает» код, не понимая сути задачи. Часто — с помощью LLM, без проверки, без логики, без архитектуры. Это стало особенно заметно на фоне стремительного внедрения генеративного ИИ.

ИИ как инструмент или как подмена?

Многие эксперты подчеркивают: дело не в технологии, а в умении ей пользоваться. Вайб-кодинг — не следствие появления LLM, а результат незрелого подхода к ее применению. Там, где ИИ должен быть усилителем компетенций, он превращается в их имитацию.
Профессиональная автоматизация: опыт и методология

Когда ИИ встраивается в продуманный процесс, это дает качественный скачок. Осмысленная автоматизация позволяет ускорить проработку требований, создавать MVP за считанные дни, выносить гипотезы на тестирование. Это не заменяет экспертизу, а усиливает.

Риски вайб-кодинга: ошибки и потеря контроля

Без понимания архитектуры, контекста и тестирования — генерация кода может привести к нестабильности, утечкам и репутационным рискам. Вайб-кодинг создает ложное ощущение простоты — и занижает требования к квалификации.

От экзоскелета до дирижера: новые роли разработчика

ИИ меняет парадигму: разработчик становится архитектором, оператором и проверяющим. Есть и сравнения ИИ с экзоскелетом: он ускоряет рост, но требует контроля. Поэтому профессионализм сегодня — это не только знание кода, но и умение взаимодействовать с ИИ как с ассистентом.
Феномен вайб-кодинга возникает там, где стремление к автоматизации подменяет собой системный подход. Это не следствие самой технологии, а отражение уровня зрелости команд и процессов. Вайб-кодинг не случайность — это симптом, который показывает, насколько компания готова внедрять ИИ не по моде, а с осознанным целеполаганием.

Профессиональная автоматизация — не генерация ради результата, а усиление компетенций через контроль, архитектуру, стандарты и верификацию. Это процесс, в котором ИИ становится частью команды, а не ее заменой.

Именно способность выстраивать такие процессы и отличает зрелые компании от тех, кто пока только экспериментирует. Это подводит нас к последнему и, пожалуй, самому важному вопросу: насколько российский рынок сегодня готов к масштабному внедрению LLM? Какие компании можно назвать зрелыми? И что мешает выйти за рамки пилотов?
Читайте продолжение статьи на Tadviser
Нужны конкретные кейсы?
Читайте их на сайте.

У вас есть запрос на разработку?
Свяжитесь с нами по почте request@codeinside.ru и мы поможем вам реализовать проект.
Штаб-квартира:
г. Пенза, Суворова 66, 6 этаж
Обсудить разработку:
Остальные вопросы:
CodeInside
© Все права защищены