🔴 Сложный ⏱️ 25 минут

BERT, GPT и архитектура современных языковых моделей

BERT, GPT и архитектура современных языковых моделей

🎯 Зачем это нужно?

Представь: ты пишешь сообщение другу, и твой телефон подсказывает следующие слова 📱. Открываешь ChatGPT - он отвечает как живой собеседник 🤖. Переводишь текст в Google Translate - перевод звучит естественно 🌍.

Всё это работает благодаря языковым моделям - алгоритмам, которые “понимают” человеческий язык. И среди них есть две суперзвезды: BERT и GPT!

Реальные применения:

  • 🔍 Google использует BERT для поиска (15% всех запросов!)
  • 💬 ChatGPT построен на архитектуре GPT
  • 📧 Gmail дописывает email’ы с помощью языковых моделей
  • 🎬 Netflix генерирует описания фильмов автоматически

📚 История вопроса

2017 год - революция: Google опубликовал статью “Attention Is All You Need” 💥

До этого момента нейросети обрабатывали текст слово за словом, как медленный читатель. Новая архитектура Transformer научилась смотреть на весь текст сразу - как скорочтение!

Хронология прорывов:

  • 2018: BERT от Google - “читает” текст в обе стороны
  • 2019: GPT-2 от OpenAI - генерирует связный текст
  • 2020: GPT-3 - 175 млрд параметров!
  • 2022: ChatGPT - революция в общении с ИИ
  • 2023: GPT-4 - мультимодальность (текст + изображения)

💡 Интуиция

Как работает внимание (Attention)?

Представь, что читаешь предложение: “Банк реки был очень крутой”

Человек понимает, что “банк” тут означает “берег”, а не “финансовое учреждение”, потому что смотрит на контекст - слово “реки” 🏞️

Attention механизм делает то же самое:

  • Для каждого слова смотрит на ВСЕ остальные слова
  • Вычисляет “важность” каждой связи
  • Фокусируется на самых значимых связях

[МЕДИА: image_01] Описание: Диаграмма attention механизма, показывающая связи между словами в предложении Промпт: “attention mechanism visualization, words connected with weighted arrows, heat map style connections, modern AI illustration, blue and orange gradient, clean technical design”

BERT vs GPT - два подхода

BERT (Bidirectional) = двунаправленный читатель 📖↔️

  • Видит ВЕСЬ текст сразу (слева и справа)
  • Отлично понимает контекст
  • Идеален для: поиск, классификация, вопрос-ответ

GPT (Generative) = односторонний генератор 📖→

  • Видит только левый контекст (что уже написано)
  • Отлично генерирует продолжения
  • Идеален для: написание текста, диалоги, творчество

📐 Формальное определение

Трансформер архитектура

Ключевые компоненты:

1️⃣ Multi-Head Attention:

Attention(Q,K,V) = softmax(QK^T/√d_k)V
  • Q (queries) - “что ищем”
  • K (keys) - “где ищем”
  • V (values) - “что находим”

2️⃣ Позиционное кодирование:

PE(pos,2i) = sin(pos/10000^(2i/d_model))
PE(pos,2i+1) = cos(pos/10000^(2i/d_model))

Модель узнает порядок слов без рекуррентности.

3️⃣ Feed Forward сети:

FFN(x) = max(0, xW₁ + b₁)W₂ + b₂

BERT: Masked Language Model

Задача: предсказать пропущенные слова

Вход:  "Я иду в [MASK] купить хлеб"
Цель:  "Я иду в магазин купить хлеб"

Функция потерь:

L_MLM = -∑log P(x_masked | x_context)

GPT: Autoregressive Generation

Задача: предсказать следующее слово

Вход:  "Сегодня хорошая"
Цель:  "Сегодня хорошая погода"

Функция потерь:

L_LM = -∑log P(x_t | x_<t)

[МЕДיا: image_02] Описание: Сравнение архитектур BERT и GPT Промпт: “architectural comparison diagram, BERT bidirectional attention vs GPT unidirectional, encoder-decoder blocks, mathematical notation, professional technical illustration, split-screen design”

🔍 Примеры с разбором

Пример 1: Как BERT обрабатывает текст

Входной текст: “Apple выпустила новый iPhone”

Этапы обработки:

1️⃣ Токенизация:

["[CLS]", "Apple", "выпустила", "новый", "iPhone", "[SEP]"]

2️⃣ Эмбеддинги:

# Каждое слово → вектор размера 768
"Apple"  [0.1, -0.3, 0.8, ..., 0.2]  # 768 чисел

3️⃣ Self-Attention:

# Apple смотрит на все слова:
Apple → выпустила (вес: 0.3)
Apple → iPhone (вес: 0.7)  # Высокая связь!
Apple → новый (вес: 0.1)

4️⃣ Контекстуальное представление:

Теперь "Apple" кодируется с учетом "iPhone"
→ модель понимает, что это компания, а не фрукт!

Пример 2: Как GPT генерирует текст

Промпт: “Искусственный интеллект в будущем”

Пошаговая генерация:

# Шаг 1: вычисляем вероятности следующего слова
P("будет" | "Искусственный интеллект в будущем") = 0.3
P("поможет" | "...") = 0.25  
P("изменит" | "...") = 0.2
# ... другие варианты

# Шаг 2: выбираем слово (sampling)
Выбрано: "изменит"

# Шаг 3: добавляем к контексту и повторяем
"Искусственный интеллект в будущем изменит"  ?

[МЕДИА: image_03] Описание: Пошаговый процесс генерации текста в GPT Промпт: “text generation process visualization, step-by-step word prediction, probability distributions, arrows showing sequential generation, educational AI diagram”

🎮 Практика

Базовый уровень 🟢

Задание 1: Определи тип задачи Для каких задач лучше подойдет BERT, а для каких GPT?

  • Поиск по документам
  • Написание стихов
  • Классификация email’ов на спам
  • Автодополнение в чате
✅ Ответ BERT: поиск по документам, классификация email'ов GPT: написание стихов, автодополнение в чате

Задание 2: Токенизация Как будет токенизировано предложение “OpenAI создала ChatGPT-4”?

💡 Подсказка Учти, что редкие слова могут разбиваться на подслова

Задание 3: Attention веса Объясни, почему в предложении “Стол накрыли красивой скатертью” слово “накрыли” должно иметь высокий attention к слову “стол”?

Продвинутый уровень 🟡

Задание 4: Masked Language Model Заполни пропуски в стиле BERT: “Кот [MASK] на дереве и [MASK] за птицей”

Задание 5: Позиционное кодирование Объясни, зачем нужно позиционное кодирование, если attention уже связывает слова?

💡 Подсказка Без позиций "Собака кусает человека" = "Человек кусает собаку"

Задание 6: Размерность модели GPT-3 имеет 175 млрд параметров. Почему нельзя просто увеличить количество параметров до триллиона?

Челлендж 🔴

Задание 7: Fine-tuning стратегия Тебе нужно создать чат-бота для техподдержки банка. Опиши стратегию обучения: какую базовую модель выбрать, как подготовить данные, какие метрики использовать?

Задание 8: Мультиязычность Объясни, как одна модель может работать с разными языками. Почему русское “собака” и английское “dog” имеют похожие эмбеддинги?

⚠️ Частые ошибки

Ошибка: “BERT лучше GPT во всем” ✅ Правильно: Каждая модель оптимизирована под свои задачи 💡 Почему: BERT - для понимания, GPT - для генерации

Ошибка: “Attention смотрит только на важные слова”
Правильно: Attention смотрит на ВСЕ слова, но с разными весами 💡 Почему: Даже “неважные” слова влияют на контекст

Ошибка: “Больше параметров = лучше качество” ✅ Правильно: Есть оптимальный размер для каждой задачи
💡 Почему: Переобучение, вычислительные ограничения, diminishing returns

Ошибка: “Модель понимает смысл как человек” ✅ Правильно: Модель находит статистические закономерности 💡 Почему: Нет настоящего “понимания”, только корреляции в данных

🎓 Главное запомнить

BERT = двунаправленное внимание для понимания текста ✅ GPT = однонаправленная генерация для создания текста
Attention = механизм фокусировки на важных частях входа ✅ Трансформер = архитектура на основе attention без рекуррентности

🔗 Связь с другими темами

Назад к основам:

  • Урок 343: Attention механизм - строительный блок BERT/GPT
  • Градиентный спуск - как обучаются эти гигантские модели
  • Нейросети - базовая архитектура, на которой всё построено

Что дальше:

  • Vision Transformers - применение attention к изображениям
  • Multimodal модели - объединение текста, картинок, звука
  • Reinforcement Learning from Human Feedback (RLHF) - как обучают ChatGPT

Понял тему? Закрепи в боте! 🚀

Попрактикуйся на задачах и получи персональные рекомендации от AI

💪 Начать тренировку
💬 Есть вопрос? Спроси бота!