Лекция 1 — Понимание больших языковых моделей
← → / Пробел для навигации | Кирилл Калинин | SIIL

Лекция 1

Понимание больших языковых моделей

От основ до архитектуры трансформера — и план создания модели с нуля

📝 Заметки

Добро пожаловать на первую лекцию нашего курса. Сегодня мы разберём, что такое большие языковые модели — от базовых определений до архитектуры трансформера и плана по созданию собственной LLM с нуля. Эта глава закладывает фундамент для всего курса: без понимания «зачем» и «как устроено» невозможно двигаться к реализации. Мы будем использовать PyTorch для практической части в последующих лекциях.

00

Эта лекция охватывает

  • Общие объяснения фундаментальных концепций, лежащих в основе больших языковых моделей (LLM)
  • Понимание архитектуры трансформера, на которой основаны LLM
  • План создания LLM с нуля
📝 Заметки

Сегодняшняя лекция состоит из трех блоков: что такое LLM, как они работают, и как мы будем строить свою модель. Обратите внимание на оглавление — оно поможет ориентироваться в материале. Мы движемся от общих концепций к конкретной архитектуре, а затем к плану реализации. Важно подчеркнуть: мы не просто изучаем теорию — к концу курса у нас будет работающая модель. Этот слайд стоит использовать как «карту» лекции, к которой можно возвращаться.

00

ТЕРМИНОЛОГИЯ / GLOSSARY

Русский English
Большая языковая модель (БЯМ)Large Language Model (LLM)
Обработка естественного языка (ОЕЯ)Natural Language Processing (NLP)
Искусственный интеллект (ИИ)Artificial Intelligence (AI)
Машинное обучение (МО)Machine Learning (ML)
Глубокое обучениеDeep Learning
Архитектура трансформераTransformer Architecture
Механизм самовниманияSelf-Attention Mechanism
ПредобучениеPretraining
ДообучениеFine-tuning
Предсказание следующего словаNext-Word Prediction
Кодировщик / ДекодировщикEncoder / Decoder
Обучение без примеров (Zero-shot)Zero-Shot Learning
Обучение с малым числом примеров (Few-shot)Few-Shot Learning
Эмерджентное поведениеEmergent Behavior
Базовая (фундаментальная) модельFoundation Model
Авторегрессионная модельAutoregressive Model
Генеративный ИИGenerative AI
ТокенToken
📝 Заметки

Этот слайд — справочная таблица ключевых терминов с переводами русский ↔ английский. Зачем он нужен? В области машинного обучения большинство первоисточников — на английском, и важно знать оба варианта терминов. Обратите внимание на пары, которые могут вызвать путаницу: «дообучение» и «предобучение», «кодировщик» и «декодировщик». Не нужно заучивать всё сразу — термины закрепятся по мере изучения материала.

Что такое LLM?

📝 Заметки

Начинаем с фундаментального вопроса. Прежде чем строить что-либо, нужно понять, с чем мы работаем. В этом разделе мы дадим определение LLM и покажем их место среди других технологий искусственного интеллекта.

01

Большая языковая модель

Нейронная сеть, предназначенная для понимания, генерации и ответа на текст, подобный человеческому — обученная на огромных объёмах текстовых данных.

  • «Большая» относится как к размеру модели (миллиарды параметров), так и к объёму обучающих данных
  • Основная задача обучения: предсказание следующего слова — удивительно простая, но поразительно эффективная
  • Построена на архитектуре трансформера с механизмом самовнимания
📝 Заметки

Ключевое определение: LLM — это нейронная сеть, обученная на огромных объёмах текстовых данных. Разберем три пункта последовательно. Важный нюанс, который стоит подчеркнуть: когда мы говорим, что модель «понимает» текст, мы имеем в виду, что она способна обрабатывать и генерировать связный текст. Это не человеческое сознание и не настоящее понимание в философском смысле — это статистическая обработка паттернов языка. Слово «большая» относится как к размеру модели (миллиарды параметров), так и к объёму обучающих данных (сотни гигабайт текста). Именно масштаб отличает LLM от более ранних языковых моделей.

01

Место LLM в иерархии

Искусственный интеллект
Системы с интеллектом, подобным человеческому
Машинное обучение
Алгоритмы, автоматически извлекающие правила из данных
Глубокое обучение
Нейронные сети с множеством слоёв
Большие языковые модели

LLM — это разновидность генеративного ИИ — глубоких нейронных сетей, создающих новый контент (текст, изображения, медиа)

📝 Заметки

На этом слайде — визуальная диаграмма вложенности: Искусственный интеллект → Машинное обучение → Глубокое обучение → LLM. ИИ — самое широкое понятие, включающее любые системы, имитирующие интеллект. Машинное обучение — подмножество ИИ, где системы учатся на данных. Глубокое обучение использует многослойные нейронные сети. LLM — специализированные модели глубокого обучения для работы с языком. Важно заметить, что LLM — это не отдельная технология, а эволюционное развитие десятилетий исследований в области ИИ. Каждый следующий уровень строится на предыдущем.

01

Глубокое обучение vs Традиционное МО

Традиционное МО

  • Требует ручного извлечения признаков экспертами
  • Например, фильтр спама: подсчёт триггерных слов, восклицательных знаков, слов в верхнем регистре
  • Подходит для узких, чётко определённых задач

Глубокое обучение

  • Без ручного извлечения признаков — модель обучается автоматически
  • Использует многослойные нейронные сети для моделирования сложных закономерностей
  • Превосходно справляется с нюансами, контекстом, генерацией
📝 Заметки

Посмотрим на ключевое различие между традиционным машинным обучением и глубоким. Традиционное требует ручного извлечения признаков. Посмотрим конкретный пример: для задачи обнаружения спама в традиционном машинном обучении (МО) инженер вручную определяет признаки — количество триггерных слов, восклицательных знаков, процент заглавных букв. В глубоком обучении, модель сама находит значимые признаки в данных. Это принципиально меняет подход: вместо «я говорю модели, на что смотреть» мы переходим к «модель сама определяет, что важно». Это подводит нас к пониманию того, почему LLM так мощны — они обнаруживают паттерны, которые человек мог бы не заметить.

Применение LLM

📝 Заметки

Теперь, когда мы поняли, что такое LLM, давайте посмотрим, для чего они используются на практике. Этот раздел покажет широту возможностей и поможет понять, почему эта технология вызывает такой интерес.

02

Что могут делать LLM?

🌐

Перевод
Машинный перевод между языками

✍️

Генерация текста
Художественные тексты, статьи, код

💬

Чат-боты
ChatGPT, Gemini, виртуальные ассистенты

📊

Анализ тональности
Понимание мнений и тона

📋

Суммаризация
Сжатие объёмных текстов

🔬

Извлечение знаний
Медицина, право, специализированные области

LLM незаменимы для автоматизации практически любых задач, связанных с анализом и генерацией текста.

📝 Заметки

Тут показаны лишь шесть ключевых применений, среди которых мы видим: машинный перевод (перевод между языками), генерация текста (создание нового контента), чат-боты (диалоговые системы), анализ тональности (определение эмоциональной окраски), суммаризация (сжатие длинных текстов), поиск знаний (извлечение информации). Обратите внимание: все эти задачи раньше требовали отдельных специализированных моделей, а теперь одна LLM может решать их все. Это и есть «универсальность», которая делает LLM революционными. Наверняка, все вы уже используете языковые модели в повседневной жизни — ChatGPT, переводчики, и тд.

02

Зачем создавать свою LLM?

  • Понять механику и ограничения модели изнутри
  • Получить знания для предобучения или дообучения на данных конкретной предметной области
  • Конфиденциальность данных — не передавать чувствительные данные сторонним провайдерам
  • Развёртывание на устройствах — компактные LLM на ноутбуках и телефонах
  • Полная автономия — контроль обновлений и модификаций по мере необходимости

Специализированные LLM (например, BloombergGPT для финансов) могут превосходить универсальные LLM в конкретных задачах.

📝 Заметки

Пять аргументов, и каждый важен. Первый — понимание механики: нельзя эффективно использовать инструмент, не понимая, как он работает. Второй — доменная специализация: пример BloombergGPT показывает, что модель, обученная на финансовых данных, превосходит общие модели в финансовых задачах. Третий — приватность данных: некоторые данные нельзя отправлять во внешние API. Четвёртый — работа на устройстве: мобильные и встроенные системы требуют компактных моделей. Ну и Пятый — автономность: независимость от внешних сервисов и их ценовой политики. Подчеркнем: наш курс — именно про это. Мы не просто пользователи API, мы строим модель с нуля.

Этапы создания и использования LLM

📝 Заметки

Переходим к процессу. Это подводит нас к пониманию того, как именно создаются те модели, о которых мы только что говорили. Два ключевых этапа — предобучение и дообучение — составляют основу всего процесса.

03

Двухэтапный процесс обучения

📚
Сырой текст
Интернет, книги, Wikipedia
ПРЕДОБУЧЕНИЕ
Самообучение без учителя:
предсказание следующего слова
Базовая модель
Генерация текста, few-shot
ДООБУЧЕНИЕ
Размеченные данные
Целевая модель
Классификатор, ассистент и т.д.
  • Предобучение использует самообучение без учителя — ручная разметка не нужна
  • Дообучение адаптирует модель с помощью меньшего размеченного набора данных
📝 Заметки

На слайде — визуальный поток: сырой текст → предобучение → базовая модель → дообучение → целевая модель. Пройдемся по каждому этапу слева направо. Предобучение — это самый ресурсоёмкий этап: модель «читает» огромные объёмы текста и учится предсказывать следующее слово. Результат — базовая модель, которая «знает язык», но не умеет выполнять конкретные задачи. Дообучение адаптирует эту базу под конкретные нужды. Важная аналогия: предобучение — это как общее образование, а дообучение — специализация. Врач сначала изучает биологию вообще, а потом специализируется в кардиологии. Обратите внимание: предобучение — это самообучение с учителем (self-supervised learning), модель сама генерирует свои метки из структуры данных.

03

Два типа дообучения

Дообучение на инструкциях

Обучение на парах инструкция–ответ

Вход: "Переведи на немецкий: Привет"
Метка: "Hallo"

→ Персональные ассистенты, чат-боты

Дообучение для классификации

Обучение на парах текст–метка

Вход: "Вы выиграли бесплатный iPhone!"
Метка: "спам"

→ Фильтры спама, анализ тональности

📝 Заметки

Инструктивное и классификационное — два разных подхода к дообучению. Инструктивное дообучение учит модель следовать инструкциям: «переведи текст», «напиши код», «объясни концепцию». Именно так создаются чат модели, например ChatGPT. Классификационное дообучение учит модель категоризировать: определять тональность (позитивная/негативная), классифицировать документы, выявлять спам. Важно понять разницу: инструктивное дообучение делает модель «универсальным помощником», а классификационное — «специалистом по сортировке». В нашем курсе мы рассмотрим оба подхода. Выбор зависит от конечной задачи.

Архитектура трансформера

📝 Заметки

Теперь погружаемся в техническую часть. Трансформер — это архитектура нейронной сети, которая лежит в основе всех современных LLM. Без понимания трансформера невозможно понять, как работают GPT, BERT и другие модели.

04

Attention Is All You Need

Vaswani et al., 2017 — архитектура, лежащая в основе большинства современных LLM

⬅ Кодировщик

  • Обрабатывает входной текст
  • Кодирует в числовые представления (векторы)
  • Захватывает контекстную информацию

Декодировщик ➡

  • Принимает закодированные векторы
  • Генерирует выходной текст по одному слову
  • Использует механизм самовнимания

Изначально разработан для машинного перевода (английский → немецкий/французский)

📝 Заметки

Историческая точка отсчёта — статья Vaswani и его коллег из Гугл в 2017 году. Название говорит само за себя: «Внимание — это всё, что вам нужно». Эта работа предложила механизм внимания как замену рекуррентным сетям и произвела революцию в NLP. Оригинальная архитектура состоит из двух частей: кодировщик (encoder) преобразует входной текст во внутреннее представление, декодировщик (decoder) генерирует выходной текст на основе этого представления. Важная деталь: оригинальный трансформер имел по 6 слоёв в кодировщике и декодировщике — сравните с 96 слоями в GPT-3. Масштабирование этой архитектуры и привело к созданию современных LLM.

04

Механизм самовнимания

Самовнимание позволяет модели оценивать важность различных слов относительно друг друга в последовательности.

  • Улавливает дальние зависимости и контекстные связи
  • Обеспечивает связную, контекстуально релевантную генерацию
  • Ключевая инновация, делающая трансформеры столь эффективными
📝 Заметки

Самовнимание (self-attention) — сердце трансформера. Разберем определение и три ключевых пункта. Суть механизма: при обработке каждого слова модель «смотрит» на все остальные слова в предложении и определяет, какие из них наиболее важны для понимания текущего слова. Например, в предложении «Кот сидел на коврике, потому что он устал» — модель должна понять, что «он» относится к «кот», а не к «коврику». Самовнимание позволяет устанавливать такие связи. Это принципиально отличается от рекуррентных сетей, которые обрабатывают слова последовательно и «забывают» начало длинных предложений. Трансформер видит весь контекст одновременно.

04

Два подхода: BERT vs GPT

BERT Кодировщик

  • Предсказание замаскированных слов
  • "Это __ пример того, __ я могу"
  • Заполняет пропущенные слова

→ Классификация текста, анализ тональности, категоризация документов

GPT Декодировщик

  • Генерация следующего слова
  • "Это является примером того, как кратко я" → могу
  • Генерирует по одному слову за раз

→ Перевод, суммаризация, художественные тексты, генерация кода

📝 Заметки

Критически важное сравнение. BERT использует кодировщик — он «читает» текст в обоих направлениях и хорош для задач понимания (классификация, поиск ответов). GPT использует декодировщик — он «пишет» текст слева направо и хорош для генерации. Аналогия: BERT — это читатель, который понимает текст. GPT — это писатель, который создаёт текст. BERT видит слово и его окружение с обеих сторон. GPT видит только предшествующий контекст и предсказывает, что будет дальше. В нашем курсе мы будем строить модель на основе архитектуры GPT — декодировщик, которая доминируем во всех лучших LLM архитектурах.

04

Zero-Shot и Few-Shot обучение

Zero-Shot

"Переведи на немецкий: завтрак =>"
"Frühstück"

Обобщает на задачи без каких-либо предварительных примеров

Few-Shot

"кзоёл => козёл, бтоинок => ботинок, тлефон =>"
"телефон"

Обучается на минимальном количестве примеров во входных данных

Модели GPT могут выполнять задачи, для которых не были явно обучены — благодаря масштабному предобучению.

📝 Заметки

Zero-shot и few-shot learning — это способности, которые появляются у достаточно больших моделей. Zero-shot: модель выполняет задачу без единого примера — просто по инструкции. Few-shot: модель получает несколько примеров прямо в промпте и обобщает паттерн. Почему это важно? Потому что это означает, что большие модели не нужно дообучать для каждой новой задачи — достаточно правильно сформулировать запрос. Это демонстрирует, что при достаточном масштабе предобучения модель приобретает способности, которые не были явно заложены. Это подводит нас к концепции эмерджентного поведения, о которой мы поговорим позже.

Использование больших наборов данных

📝 Заметки

Данные — топливо для LLM. В этом разделе мы посмотрим, какие объёмы данных нужны для обучения модели масштаба GPT-3, и сколько это стоит. Цифры впечатляют.

05

Набор данных предобучения GPT-3

Набор данных Описание Токены Доля
CommonCrawl Данные веб-краулинга 410B 60%
WebText2 Данные веб-краулинга 19B 22%
Books1 Интернет-корпус книг 12B 8%
Books2 Интернет-корпус книг 55B 8%
Wikipedia Высококачественный текст 3B 3%

Всего: ~499B доступных токенов · Модель обучена на 300B токенов · Только CommonCrawl ≈ 570 ГБ

📝 Заметки

На слайде — таблица с данными предобучения GPT-3. Обратите внимание на ключевые цифры: общий объём — 499 миллиардов токенов, а только CommonCrawl (данные, собранные из интернета) — около 570 ГБ текста. Важный нюанс: GPT-3 была обучена на 300 миллиардах из 499 доступных токенов — то есть не все данные были использованы одинаково. Некоторые источники (книги, Википедия) «просматривались» многократно, потому что считались более качественными. Это показывает, что не только количество, но и качество данных играет роль. Состав обучающей выборки напрямую влияет на поведение и «знания» модели.

05
$4.6M

Примерная стоимость облачных вычислений для предобучения GPT-3

  • Масштаб и разнообразие данных обеспечивают широкую производительность на различных задачах
  • Предобученные модели можно дообучить на меньших наборах данных, снижая затраты
  • Многие предобученные LLM доступны как открытый исходный код
📝 Заметки

Одна цифра — и она говорит о многом. Стоимость обучения GPT-3 составила примерно 4,6 миллиона долларов — только на вычислительные ресурсы. Это без учёта затрат на сбор данных, зарплаты исследователей, инфраструктуру. Зачем показывать эту цифру? Во-первых, чтобы объяснить, почему предобучение с нуля доступно только крупным компаниям (современные цифры на порядок больше). Во-вторых, чтобы подчеркнуть ценность дообучения: вместо того чтобы тратить миллионы, мы берём готовую базовую модель и адаптируем её за разумные деньги. В нашем курсе мы будем работать с моделями меньшего масштаба, но принципы те же. Понимание стоимости помогает принимать практические решения.

GPT: подробный обзор

📝 Заметки

Теперь, когда мы поняли общую архитектуру трансформера и масштаб данных, давайте подробно рассмотрим GPT — модель, которую мы будем реализовывать в нашем курсе.

06

GPT: архитектура «только декодировщик»

Кодировщик
Не используется
Декодировщик
GPT использует только это
Выход
Предсказание следующего слова
  • Авторегрессионная — каждое новое слово предсказывается на основе всех предыдущих слов
  • GPT-3: 96 слоёв трансформера · 175 миллиардов параметров
  • Для сравнения: оригинальный трансформер имел лишь 6 слоёв кодировщика + 6 слоёв декодировщика
📝 Заметки

На слайде — диаграмма архитектуры GPT. Обратите внимание: в отличие от оригинального трансформера, GPT использует только декодировщик. GPT-3 имеет 96 слоёв трансформера и 175 миллиардов параметров. Для сравнения: оригинальный трансформер 2017 года имел по 6 слоёв в кодировщике и декодировщике. Масштабирование от 6 до 96 слоёв — это и есть переход от «трансформера» к «большой языковой модели». Каждый слой содержит механизм самовнимания и нейронную сеть прямого распространения. Чем больше слоёв, тем более сложные паттерны языка модель может захватить.

06

Сила предсказания следующего слова

Модель просто обучается
предсказывать следующее  слово
  • Самообучение без учителя — метки берутся из самой структуры данных
  • Позволяет обучаться на огромных неразмеченных текстах без ручной аннотации
  • Несмотря на простоту, эта задача порождает поразительно мощные модели
📝 Заметки

Вся мощь GPT основана на одной простой задаче — предсказании следующего слова (токена). Это самообучение с учителем (self-supervised learning): модели не нужны размеченные данные, она сама создаёт себе «правильные ответы» из структуры текста. Каждое предложение автоматически становится обучающим примером: «Кот сидел на ___» — правильный ответ уже есть в тексте. Почему это революционно? Потому что это устраняет главное узкое место машинного обучения — необходимость в ручной разметке данных. Весь интернет становится обучающей выборкой. Именно поэтому LLM можно обучать на сотнях миллиардов токенов.

06

Итеративная генерация текста

1
"Это" → является
2
"Это является" → примером
3
"Это является примером" → того
4
"Это является примером того" → ...

Каждый выходной результат становится частью входных данных для следующего предсказания — по одному слову за раз.

📝 Заметки

Четыре шага авторегрессии — покажите процесс пошагово. Модель получает начальный текст, предсказывает следующий токен, добавляет его к входу и повторяет. Каждый новый токен становится частью контекста для следующего предсказания. Это как снежный ком: начинаем с одного слова и постепенно строим целое предложение, абзац, текст. Важно подчеркнуть: модель не «знает», что она хочет сказать целиком — она принимает решение по одному токену за раз. Тем не менее результат выглядит связным и осмысленным. Именно этот итеративный процесс и называется авторегрессионной генерацией — каждый шаг зависит от всех предыдущих.

06

Эмерджентное поведение

«Способность выполнять задачи, для которых модель не была явно обучена, называется эмерджентным поведением.»
  • GPT может выполнять перевод, несмотря на то что был обучен только на предсказание следующего слова
  • Возникает естественно благодаря работе с обширными мультиязычными, многоконтекстными данными
  • Одна модель для разнообразных задач — без необходимости в специализированных архитектурах
📝 Заметки

Один из самых интригующих аспектов LLM. Эмерджентное поведение — это способности, которые не были явно запрограммированы, но «возникли» из масштаба обучения. GPT обучен только предсказывать следующее слово, но при этом может переводить тексты, писать код, решать логические задачи. Никто не учил модель переводить — она «научилась» этому сама, потому что в обучающих данных были параллельные тексты. Это аналогично тому, как ребёнок, читая достаточно книг на двух языках, начинает интуитивно понимать связи между ними. Масштаб создаёт качественно новые способности.

06

Трансформеры ≠ LLM

  • Не все трансформеры являются LLM — трансформеры также используются в компьютерном зрении
  • Не все LLM являются трансформерами — некоторые используют рекуррентные или свёрточные архитектуры
  • На практике эти термины часто используются как синонимы в литературе

Альтернативные архитектуры стремятся повысить вычислительную эффективность, но смогут ли они сравниться с LLM на базе трансформеров — вопрос открытый.

📝 Заметки

Важные терминологические уточнения. Первое: не все трансформеры — это LLM. Трансформеры используются и для компьютерного зрения (Vision Transformer, ViT), и для обработки аудио, и для работы с белковыми структурами. Второе: не все LLM — это трансформеры. Существуют языковые модели на основе рекуррентных (RNN, LSTM) и свёрточных (CNN) архитектур, хотя трансформеры сейчас доминируют. Третье: когда в повседневной речи говорят «LLM», обычно подразумевают именно трансформерные модели. Зачем эти уточнения? Чтобы аудитория точно понимала терминологию и не путала архитектуру (трансформер) с классом задач (языковое моделирование).

Создание большой языковой модели

📝 Заметки

Итак, давайте начинать переходить от теории к практике — а именно какой план мы будем реализовывать на протяжении курса. Это дорожная карта всего, что нас ждёт.

07

Три этапа

01

Фундамент

Подготовка данных и выборка, механизм внимания, архитектура LLM

02

Предобучение

Цикл обучения, оценка модели, загрузка предобученных весов

03

Дообучение

Модель классификации или персональный ассистент на размеченных данных

Данные + Архитектура
Предобучение на неразмеченном тексте
Дообучение для задач
📝 Заметки

Три важных этапа. Первый — подготовка данных и реализация механизма внимания, второй — предобучение модели, третий — дообучение. Мы уже коснулись этих этапов немного на предыдущих слайдах. Подчеркнем: мы будем реализовывать всё с нуля на PyTorch. Это не курс по использованию API (это сильно проще) — мы напишем каждый компонент сами: токенизатор, механизм внимания, архитектуру модели, цикл обучения. К концу курса у каждого из вас будет полное понимание того, как работает LLM изнутри, а не только умение вызывать чужие модели.

Ключевые выводы

  • LLM — это глубокие нейронные сети, обученные на огромных текстовых данных, построенные на архитектуре трансформера
  • Обучение = предобучение (самообучение, предсказание следующего слова) + дообучение (размеченные данные)
  • Механизм самовнимания трансформера позволяет избирательно фокусироваться на релевантных частях входных данных
  • GPT использует только декодировщик, BERT — кодировщик — разные задачи, одна базовая архитектура
  • Модели GPT демонстрируют эмерджентное поведение — выполняют задачи, для которых не были явно обучены
📝 Заметки

Итак, основые моменты для закрепления: LLM — это нейронные сети, обученные на огромных данных; трансформер с механизмом самовнимания — основа архитектуры; предобучение + дообучение — двухэтапный процесс (в самой простой интерпретации обучения); GPT основан на предсказании следующего слова; масштаб порождает эмерджентное поведение.

Понимание больших языковых моделей

Лекция 1 — Завершена

Архитектура трансформера Самовнимание Предсказание следующего слова GPT Дообучение

Далее: Лекция 2 — Работа с текстовыми данными

📝 Заметки

На следующей лекции мы перейдём к практической работе с текстовыми данными — токенизации и подготовке обучающей выборки. Спасибо за внимание.