← Назад к программе курса
День 2 · Лекция 2

Формулирование задачи и выбор LLM

Как правильно поставить задачу нейросети и выбрать подходящую модель
Елизавета Ермакова, Senior Product Manager LLM, МТС AI 17 февраля 2026 27 минут Курс: «Быстрый старт в ИИ за 4 дня»
О чём эта лекция. Елизавета Ермакова — эксперт с опытом в ИИ с 2018 года, участник редактирования первой версии стратегии ИИ РФ, старший менеджер продукта МТС AI — рассказывает о первом из трёх уроков модуля. Урок охватывает два ключевых навыка: как правильно формулировать задачу для LLM через аналогию делегирования сотруднику и как выбирать подходящую модель по трём параметрам. Второй и третий уроки модуля посвящены продвинутым техникам промтинга и сложным цепочкам задач.

Концепция 1: LLM как сотрудник — метафора делегирования

Ермакова предлагает ключевую метафору для работы с языковыми моделями: LLM — это ваш сотрудник-исполнитель. Он может выдавать ошибки (стохастичность), не всегда управляем, но с правильной постановкой задачи даёт нужный результат. Главная особенность: LLM — это сотрудник-хамелеон, которому можно приписать любую роль и сделать суперспециалистом для конкретной задачи.

🎯
Цель и задача
Что нужно? Какой образ результата?
📋
Критерии качества
Что примете, а что отправите на переделку?
🤖
Выбор модели
Компетенция, надёжность, стоимость
Контроль и приёмка
Обратная связь, корректировки, результат
Аналогия на примере. Будто вы заказываете кейтеринг или вызываете клининг: вы чётко знаете, что должен сделать подрядчик, какой этап хотите получить, какие требования к качеству. Та же логика — с LLM. В первом уроке: цель + выбор модели. В следующих уроках: контроль и корректировка.

Концепция 2: Структура промта — 6 компонентов

Ермакова представляет «рыбу» — шаблон промта, который помогает чётко сформулировать задачу модели. Каждый элемент выполняет свою роль:

Анатомия промта
Роль
Кем выступает LLM в этой задаче? Сотрудник-хамелеон примет любую роль — юриста, аналитика, копирайтера. Чем точнее роль, тем качественнее ответ. Предыдущий урок уже подробно разбирал этот блок.
Задача
Что конкретно нужно сделать? Чёткая формулировка главного действия: проанализировать, написать, перевести, извлечь, сформулировать.
Инструкция
Пошаговые инструкции для «джуна»: какие шаги предпринять, в каком порядке действовать, что учесть на каждом этапе выполнения.
Контекст
Дополнительные сведения вокруг задачи: для кого материал (совет директоров, клиенты), какова ситуация, какие ограничения или допущения нужно учесть.
Данные
Входные материалы: тексты для переработки, шаблоны, базы знаний, примеры. Могут быть маленькими (один абзац) или огромными (несколько файлов, целые базы знаний в коммерческой эксплуатации).
Выходные критерии
Образ результата: формат файла, объём текста, количество слов, стилистика, структура. Например: «заполни шаблон из входных данных», «не более 500 слов», «деловой стиль».
Практически важно: блоки Данные и Выходные критерии напрямую влияют на выбор модели — они определяют, сколько текста вы хотите в неё положить и что получить на выходе. Это ключевые параметры для следующего шага — выбора LLM.

Концепция 3: Типы задач и сложность

Понимание типа задачи определяет, насколько «умная» модель вам нужна. Ермакова выделяет три класса:

Анализ текста

Генерация текста

Трансформация текста

Правило сложности: реальные задачи часто комбинируют все три типа. Чем больше такого сочетания — анализ + генерация + трансформация — тем умнее и надёжнее должна быть модель. Это напрямую влияет на требования к числу параметров.

К моменту выбора модели у вас должно быть чёткое понимание трёх вещей: объём входного текста, объём выходного текста и уровень сложности (комбинация типов задач).

Концепция 4: Критерии выбора LLM — три параметра

Имея на руках сформулированную задачу, можно приступать к выбору модели. Ермакова выделяет три ключевых параметра:

128K+
Контекстное окно
Измеряется в тысячах токенов (4K, 8K, 32K, 128K). Чем больше — тем больше текста принимает и выдаёт модель. 4K токенов ≈ 5,5 страниц текста А4 (1 токен = 2,5 символа в МТС AI)
70B+
Параметры модели
Количество параметров в миллиардах. Больше параметров = умнее модель (в среднем по рынку). Влияет на качество анализа и генерации, а также на стоимость использования
⚙️
Специфика задачи
Мультиязыковая поддержка, поиск в интернете (факт-чекинг), работа с корпоративными данными, отраслевая специализация (юриспруденция, инженерия и т.д.)
Принцип баланса: не берите самую умную (и дорогую) модель для простых задач. Оцените: нужно ли вам много контекста? Сложная ли комбинация задач? Нужна ли мультиязычность? Отталкивайтесь от минимально достаточного уровня компетенции — как при найме сотрудника: не нанимаете профессора для задачи джуна.

Сравнительная таблица моделей

На лекции Ермакова показывает, как сравнивать модели по ключевым параметрам. Ниже — обзор основных игроков, упомянутых в курсе:

Модель Разработчик Тип Контекст Доступность Особенности
ChatGPT (GPT-4o) OpenAI Зарубежная 128K токенов Бесплатный + платный Высокое качество, широкие возможности, доступен через AlpinaGPT и ТГ-боты
GigaChat Сбербанк Российская До 32K токенов Бесплатный + платный Проприетарная модель, хорошо работает с русским языком, есть бесплатный доступ
KT Pro (МТС AI) МТС AI Российская Уточняется Проприетарная модель на базе open-source, сильно доработанная, встроена в ассистенты МТС
T-Pro Т-Банк Российская Уточняется Закрытая модель, встроена в ассистент Т-Банка, в лидерборде MERA
YandexGPT Яндекс Российская Уточняется Бесплатный + платный Собственная проприетарная модель Яндекса, интегрирована в Алису и сервисы Яндекса
Claude (Anthropic) Anthropic Зарубежная 200K токенов Бесплатный + платный Очень большое контекстное окно, доступен через AlpinaGPT
Gemini Google Зарубежная До 2M токенов Бесплатный + платный Рекордное контекстное окно, мультимодальный, доступен через AlpinaGPT
Mistral Mistral AI Open-source Разные Открытый Open-source, используется разработчиками, доступен для локального развёртывания
Проприетарная vs Open-source. Проприетарные модели (GigaChat, YandexGPT, KT Pro) разрабатываются компанией самостоятельно — вы не контролируете изменения, но получаете стабильное качество. Open-source модели (Mistral и другие) — открытые, можно контролировать версии, развернуть локально, важнее для бизнеса с требованиями безопасности.

Бенчмарк MERA — как сравнивать качество

Что такое MERA?

MERA (Multimodal Evaluation for Russian-speaking Applications) — главный российский бенчмарк для сравнения LLM-моделей. Создан экспертами индустрии в рамках Альянса по искусственному интеллекту. Включает как российские, так и зарубежные и open-source модели.

Задачи для сравнения Большой класс задач: анализ, генерация, трансформация, работа с острыми темами (политика, гендер и т.д.)
Фильтр по параметрам Можно выбрать: тип задачи, количество параметров, наличие веб-интерфейса, домен знаний
Домены знаний Инженерия, политика, безопасность, география, химия, юриспруденция — выбирайте под свои задачи
Экспорт таблицы Результаты можно выгрузить в таблицу — для аргументации закупки корпоративного решения

Как использовать MERA на практике

Для личного использования

Для корпоративных закупок

Perplexity как инструмент для сравнения моделей

Ермакова демонстрирует практический способ быстро собрать актуальную сравнительную таблицу моделей — через Perplexity, которая умеет ходить в интернет и проверять информацию в реальном времени.

Почему это важно: таблицы моделей устаревают быстро — все компании постоянно обновляют свои продукты. Perplexity позволяет за 5–7 запросов собрать актуальную сравнительную таблицу с источниками. Модель при этом делает основную работу, а вы лишь корректируете результат.
1
Зарегистрируйтесь в Perplexity — сервис доступен для российских пользователей, есть бесплатная версия с базовым функционалом.
2
Запросите таблицу характеристик нужных моделей: «Составь таблицу сравнения ChatGPT, GigaChat, KT Pro, YandexGPT по параметрам: количество параметров, контекстное окно, тип, доступность, стоимость».
3
Проверьте источники — Perplexity даёт ссылки на страницы, из которых берёт данные. Обязательно верифицируйте ключевые цифры.
4
Итерируйте запросами — добавьте пропущенные модели, попросите добавить оценку по MERA, уточните характеристики. 5–7 запросов дают рабочий результат.
5
Вручную скорректируйте итоговую таблицу — модель иногда ошибается в деталях, особенно по российским моделям. Основную работу она сделала, финальная проверка — за вами.

Шапка сравнительной таблицы, которую предлагает Ермакова: Модель | Количество параметров | Размер контекстного окна | Тип (проприетарная/open-source) | Доступность (API / личное использование / корпоративное) | Платность | Качество по MERA (топ-3, топ-10).

Безопасность данных при работе с LLM

Ермакова отдельно акцентирует внимание на вопросах конфиденциальности — это один из ключевых критериев выбора модели в корпоративной среде.

Корпоративные данные под NDA

Внутренние документы, финансовые данные, стратегии — нельзя отправлять в публичные модели (ChatGPT и др.). Данные могут стать частью обучающей выборки и попасть к другим пользователям. В индустрии уже были судебные прецеденты.

Персональные данные клиентов

Даже если вы работаете на себя — убедитесь, что в отправляемых данных нет персональных данных клиентов или что у вас есть все необходимые согласия на их обработку. Ответственность лежит на вас.

Решение: корпоративное развёртывание

Для компаний с требованиями по безопасности — закупить модель «контр-кампании» (on-premise). Данные не выходят наружу, модель работает только для вас. MERA поможет аргументировать выбор вендора.

Агрегаторы с контролем доступа

AlpinaGPT и аналогичные сервисы предоставляют контролируемый доступ к мощным моделям. Для личного использования — безопаснее публичных интерфейсов, не требуют технической интеграции.

AlpinaGPT как агрегатор моделей

A

AlpinaGPT — единая точка доступа к множеству LLM

Ермакова упоминает AlpinaGPT как пример класса решений-агрегаторов. В нём собраны ChatGPT, Claude, Gemini и другие зарубежные модели — без необходимости искать VPN, иностранные карты или отдельные подписки. Модели просто доступны «в одном окне». Такие решения можно включать в сравнительные таблицы при выборе инструментов для команды — они упрощают доступ и позволяют сравнивать модели напрямую в одном интерфейсе.

Ключевые выводы лекции

Что дальше в модуле

Урок 1 (этот)

Урок 2 (следующий)

Урок 3