🔴 Сложный ⏱️ 25 минут

Случайные события: основы теории вероятностей

Случайные события: основы теории вероятностей

🎯 Зачем это нужно?

Представь: ты запускаешь A/B тест для новой фичи в приложении 📱. Конверсия в группе A — 12.5%, в группе B — 13.2%. Можно ли сказать, что версия B лучше? А если у тебя всего 100 пользователей? А если 10,000?

Или другой пример: нейросеть генерирует текст, выбирая следующее слово из топ-10 наиболее вероятных 🤖. Как она это делает? И почему иногда ChatGPT даёт разные ответы на один вопрос?

Всё это — случайные события. Основа машинного обучения, A/B тестирования, рекомендательных систем и вообще любой работы с данными!

📚 История вопроса

В 1654 году французские математики Блез Паскаль и Пьер Ферма переписывались… о том, как честно поделить банк в незаконченной игре в кости! 🎲 Так родилась теория вероятностей.

А в 1933 году Андрей Колмогоров создал современную аксиоматику вероятности. Его подход до сих пор используется в ML: каждая нейронка в слое имеет probability dropout, каждый классификатор выдаёт вероятности классов.

💡 Интуиция

Случайное событие — это то, что может произойти или не произойти в результате какого-то эксперимента. И мы заранее не знаем точно, что случится.

🎯 Примеры случайных событий:

  • Пользователь кликнет на рекламу
  • Нейросеть правильно классифицирует изображение
  • Курс биткоина вырастет за день
  • В датасете попадётся выброс

🎯 НЕ случайные события:

  • 2 + 2 = 4 (всегда происходит)
  • Найти корень из -1 в вещественных числах (никогда не происходит)

[МЕДИА: image_01] Описание: Схема эксперимента с подбрасыванием монеты, показывающая пространство исходов Промпт: “educational illustration showing coin flip experiment, sample space with heads and tails outcomes, probability concepts visualization, modern clean style, suitable for technical audience, blue and orange color scheme”

📐 Формальное определение

Пространство элементарных исходов Ω — множество всех возможных результатов эксперимента.

Случайное событие A — подмножество пространства Ω.

Виды событий:

  • Элементарное — состоит из одного исхода: ω ∈ Ω
  • Достоверное — всегда происходит: A = Ω
  • Невозможное — никогда не происходит: A = ∅
  • Противоположное — Ā = Ω \ A

Классическая вероятность: P(A) = |A| / |Ω| = (число благоприятных исходов) / (общее число исходов)

Свойства:

  • 0 ≤ P(A) ≤ 1
  • P(Ω) = 1
  • P(∅) = 0
  • P(Ā) = 1 - P(A)

🔍 Примеры с разбором

Пример 1: Классификация изображений 🖼️

Нейросеть обучается распознавать животных на фотографиях. В тестовом датасете 1000 картинок: 400 кошек, 350 собак, 250 птиц.

Эксперимент: Случайно выбираем одну картинку
Ω = {кошка, собака, птица}
Событие A: “Выбрали млекопитающее”
A = {кошка, собака}

P(A) = (400 + 350) / 1000 = 0.75

Это значит: если модель будет предсказывать “млекопитающее” для любой картинки, она будет права в 75% случаев.

Пример 2: A/B тест конверсии 📊

У тебя есть две версии лендинга. За день:

  • Версия A: 100 посетителей, 12 покупок
  • Версия B: 100 посетителей, 15 покупок

Эксперимент: Пользователь заходит на сайт
События: “Пользователь совершит покупку”

  • P(покупка | версия A) = 12/100 = 0.12
  • P(покупка | версия B) = 15/100 = 0.15

Но осторожно! Разница может быть случайной. Для статистически значимого вывода нужен z-test или t-test.

[МЕДИА: image_02] Описание: Сравнение конверсий в A/B тесте с доверительными интервалами Промпт: “A/B testing visualization showing conversion rates comparison, confidence intervals, statistical significance indicators, business analytics style, professional color scheme, clear data representation”

Пример 3: Dropout в нейросетях 🧠

При обучении нейросети каждый нейрон “выключается” с вероятностью p = 0.5.

Слой из 1000 нейронов → в среднем 500 нейронов активны.

Эксперимент: Прямой проход через слой
Событие для каждого нейрона: “Нейрон остался активным”
P(активен) = 1 - p = 0.5

Это предотвращает переобучение, заставляя сеть не полагаться на конкретные нейроны.

🎮 Практика

Базовый уровень 🟢

Задание 1: В датасете изображений 5000 картинок: 2000 котов, 1800 собак, 1200 других животных. Найди вероятность того, что случайно выбранная картинка — кот или собака.

Задание 2: Модель машинного перевода правильно переводит 85% предложений. Какова вероятность того, что она НЕправильно переведёт случайное предложение?

Задание 3: В рекомендательной системе есть 3 алгоритма: коллаборативная фильтрация (используется в 50% случаев), контентная фильтрация (30%) и гибридный подход (20%). Какова вероятность, что система НЕ использует гибридный подход?

Задание 4: Пространство исходов эксперимента Ω = {ω₁, ω₂, ω₃, ω₄}, все исходы равновероятны. Событие A = {ω₁, ω₃}. Найди P(A) и P(Ā).

Продвинутый уровень 🟡

Задание 5: В deep learning pipeline данные проходят через несколько стадий аугментации. Поворот применяется с вероятностью 0.7, изменение яркости — 0.4, добавление шума — 0.3. Если применяется ровно одна аугментация, какова вероятность, что это поворот?

Задание 6: Система детекции аномалий классифицирует транзакции. Из 10000 транзакций 9800 нормальные, 200 подозрительные. Алгоритм правильно классифицирует 99% нормальных и 95% подозрительных. Найди вероятность того, что случайная транзакция будет классифицирована как подозрительная.

Задание 7: В процессе обучения GAN’а дискриминатор обучается отличать реальные изображения от сгенерированных. В батче 64 изображения: 32 реальных, 32 сгенерированных. Если дискриминатор выбирает изображения случайно, какова вероятность выбрать ровно 2 реальных из 3 выбранных?

Задание 8: Веб-аналитика показывает: 60% пользователей заходят с мобильных, 25% с десктопов, 15% с планшетов. Событие A: “Пользователь зашёл НЕ с мобильного”. Найди P(A).

Челлендж 🔴

Задание 9: Алгоритм reinforcement learning выбирает действия по ε-greedy стратегии: с вероятностью ε = 0.1 выбирает случайное действие из 4 возможных, с вероятностью 0.9 — лучшее известное. Какова вероятность выбрать конкретное действие (не лучшее)?

Задание 10: В генеративной модели языка словарь содержит 50000 слов. Модель генерирует следующее слово, выбирая из топ-k = 10 наиболее вероятных слов по softmax-распределению. Если вероятности этих слов: [0.3, 0.2, 0.15, 0.1, 0.08, 0.07, 0.05, 0.03, 0.015, 0.005], какова вероятность выбрать одно из трёх самых вероятных слов?

Задание 11: При распределённом обучении нейросети на 8 GPU вероятность сбоя любого GPU за эпоху составляет 0.01. Считая сбои независимыми, найди вероятность того, что все GPU отработают эпоху без сбоев. (Подсказка: используй формулу для независимых событий)

⚠️ Частые ошибки

Ошибка: “Вероятность 50/50 — либо произойдёт, либо нет”
Правильно: Нужно учитывать все возможные исходы и их частоты
💡 Почему: Не все события равновероятны. Вероятность попасть в ДТП не 50%, хотя можешь попасть или не попасть.

Ошибка: Путать классическую и статистическую вероятности
Правильно: Классическая — когда знаем все исходы заранее, статистическая — по наблюдениям
💡 Почему: В ML чаще используем статистическую: обучаем модель на данных и оцениваем по метрикам.

Ошибка: Думать, что P(A) = 0.9 означает “почти всегда”
Правильно: Это значит “в 90% случаев из большого числа экспериментов”
💡 Почему: При малом числе экспериментов может быть большой разброс.

Ошибка: Складывать вероятности противоположных событий неправильно
Правильно: P(A) + P(Ā) = 1 всегда
💡 Почему: Событие либо происходит, либо не происходит — третьего не дано.

Ошибка: Забывать проверить, что ∑P(Aᵢ) = 1 для полной группы событий
Правильно: Сумма вероятностей всех элементарных исходов равна 1
💡 Почему: Что-то обязательно должно произойти.

🎓 Главное запомнить

Случайное событие — подмножество пространства всех возможных исходов эксперимента
P(A) = |A| / |Ω| для классической вероятности
0 ≤ P(A) ≤ 1 и P(A) + P(Ā) = 1
✅ В ML события обычно оцениваются статистически по данным

🔗 Связь с другими темами

Случайные события — фундамент для:

  • Условной вероятности (урок 227): P(A|B) — основа байесовского машинного обучения
  • Независимых событий (урок 228): корреляция vs причинность в данных
  • Распределений вероятностей (урок 229): от дискретных до нормального распределения
  • Центральной предельной теоремы (урок 235): почему работает статистика и почему ошибки модели часто нормально распределены

Уже изучил математическую статистику (урок 225)? Отлично! Теперь ты понимаешь, откуда берутся те самые “вероятности” в выборочных статистиках.

Понял тему? Закрепи в боте! 🚀

Попрактикуйся на задачах и получи персональные рекомендации от AI

💪 Начать тренировку
💬 Есть вопрос? Спроси бота!