Случайные события: основы теории вероятностей
🎯 Зачем это нужно?
Представь: ты запускаешь A/B тест для новой фичи в приложении 📱. Конверсия в группе A — 12.5%, в группе B — 13.2%. Можно ли сказать, что версия B лучше? А если у тебя всего 100 пользователей? А если 10,000?
Или другой пример: нейросеть генерирует текст, выбирая следующее слово из топ-10 наиболее вероятных 🤖. Как она это делает? И почему иногда ChatGPT даёт разные ответы на один вопрос?
Всё это — случайные события. Основа машинного обучения, A/B тестирования, рекомендательных систем и вообще любой работы с данными!
📚 История вопроса
В 1654 году французские математики Блез Паскаль и Пьер Ферма переписывались… о том, как честно поделить банк в незаконченной игре в кости! 🎲 Так родилась теория вероятностей.
А в 1933 году Андрей Колмогоров создал современную аксиоматику вероятности. Его подход до сих пор используется в ML: каждая нейронка в слое имеет probability dropout, каждый классификатор выдаёт вероятности классов.
💡 Интуиция
Случайное событие — это то, что может произойти или не произойти в результате какого-то эксперимента. И мы заранее не знаем точно, что случится.
🎯 Примеры случайных событий:
- Пользователь кликнет на рекламу
- Нейросеть правильно классифицирует изображение
- Курс биткоина вырастет за день
- В датасете попадётся выброс
🎯 НЕ случайные события:
- 2 + 2 = 4 (всегда происходит)
- Найти корень из -1 в вещественных числах (никогда не происходит)
[МЕДИА: image_01] Описание: Схема эксперимента с подбрасыванием монеты, показывающая пространство исходов Промпт: “educational illustration showing coin flip experiment, sample space with heads and tails outcomes, probability concepts visualization, modern clean style, suitable for technical audience, blue and orange color scheme”
📐 Формальное определение
Пространство элементарных исходов Ω — множество всех возможных результатов эксперимента.
Случайное событие A — подмножество пространства Ω.
Виды событий:
- Элементарное — состоит из одного исхода: ω ∈ Ω
- Достоверное — всегда происходит: A = Ω
- Невозможное — никогда не происходит: A = ∅
- Противоположное — Ā = Ω \ A
Классическая вероятность: P(A) = |A| / |Ω| = (число благоприятных исходов) / (общее число исходов)
Свойства:
- 0 ≤ P(A) ≤ 1
- P(Ω) = 1
- P(∅) = 0
- P(Ā) = 1 - P(A)
🔍 Примеры с разбором
Пример 1: Классификация изображений 🖼️
Нейросеть обучается распознавать животных на фотографиях. В тестовом датасете 1000 картинок: 400 кошек, 350 собак, 250 птиц.
Эксперимент: Случайно выбираем одну картинку
Ω = {кошка, собака, птица}
Событие A: “Выбрали млекопитающее”
A = {кошка, собака}
P(A) = (400 + 350) / 1000 = 0.75
Это значит: если модель будет предсказывать “млекопитающее” для любой картинки, она будет права в 75% случаев.
Пример 2: A/B тест конверсии 📊
У тебя есть две версии лендинга. За день:
- Версия A: 100 посетителей, 12 покупок
- Версия B: 100 посетителей, 15 покупок
Эксперимент: Пользователь заходит на сайт
События: “Пользователь совершит покупку”
- P(покупка | версия A) = 12/100 = 0.12
- P(покупка | версия B) = 15/100 = 0.15
Но осторожно! Разница может быть случайной. Для статистически значимого вывода нужен z-test или t-test.
[МЕДИА: image_02] Описание: Сравнение конверсий в A/B тесте с доверительными интервалами Промпт: “A/B testing visualization showing conversion rates comparison, confidence intervals, statistical significance indicators, business analytics style, professional color scheme, clear data representation”
Пример 3: Dropout в нейросетях 🧠
При обучении нейросети каждый нейрон “выключается” с вероятностью p = 0.5.
Слой из 1000 нейронов → в среднем 500 нейронов активны.
Эксперимент: Прямой проход через слой
Событие для каждого нейрона: “Нейрон остался активным”
P(активен) = 1 - p = 0.5
Это предотвращает переобучение, заставляя сеть не полагаться на конкретные нейроны.
🎮 Практика
Базовый уровень 🟢
Задание 1: В датасете изображений 5000 картинок: 2000 котов, 1800 собак, 1200 других животных. Найди вероятность того, что случайно выбранная картинка — кот или собака.
Задание 2: Модель машинного перевода правильно переводит 85% предложений. Какова вероятность того, что она НЕправильно переведёт случайное предложение?
Задание 3: В рекомендательной системе есть 3 алгоритма: коллаборативная фильтрация (используется в 50% случаев), контентная фильтрация (30%) и гибридный подход (20%). Какова вероятность, что система НЕ использует гибридный подход?
Задание 4: Пространство исходов эксперимента Ω = {ω₁, ω₂, ω₃, ω₄}, все исходы равновероятны. Событие A = {ω₁, ω₃}. Найди P(A) и P(Ā).
Продвинутый уровень 🟡
Задание 5: В deep learning pipeline данные проходят через несколько стадий аугментации. Поворот применяется с вероятностью 0.7, изменение яркости — 0.4, добавление шума — 0.3. Если применяется ровно одна аугментация, какова вероятность, что это поворот?
Задание 6: Система детекции аномалий классифицирует транзакции. Из 10000 транзакций 9800 нормальные, 200 подозрительные. Алгоритм правильно классифицирует 99% нормальных и 95% подозрительных. Найди вероятность того, что случайная транзакция будет классифицирована как подозрительная.
Задание 7: В процессе обучения GAN’а дискриминатор обучается отличать реальные изображения от сгенерированных. В батче 64 изображения: 32 реальных, 32 сгенерированных. Если дискриминатор выбирает изображения случайно, какова вероятность выбрать ровно 2 реальных из 3 выбранных?
Задание 8: Веб-аналитика показывает: 60% пользователей заходят с мобильных, 25% с десктопов, 15% с планшетов. Событие A: “Пользователь зашёл НЕ с мобильного”. Найди P(A).
Челлендж 🔴
Задание 9: Алгоритм reinforcement learning выбирает действия по ε-greedy стратегии: с вероятностью ε = 0.1 выбирает случайное действие из 4 возможных, с вероятностью 0.9 — лучшее известное. Какова вероятность выбрать конкретное действие (не лучшее)?
Задание 10: В генеративной модели языка словарь содержит 50000 слов. Модель генерирует следующее слово, выбирая из топ-k = 10 наиболее вероятных слов по softmax-распределению. Если вероятности этих слов: [0.3, 0.2, 0.15, 0.1, 0.08, 0.07, 0.05, 0.03, 0.015, 0.005], какова вероятность выбрать одно из трёх самых вероятных слов?
Задание 11: При распределённом обучении нейросети на 8 GPU вероятность сбоя любого GPU за эпоху составляет 0.01. Считая сбои независимыми, найди вероятность того, что все GPU отработают эпоху без сбоев. (Подсказка: используй формулу для независимых событий)
⚠️ Частые ошибки
❌ Ошибка: “Вероятность 50/50 — либо произойдёт, либо нет”
✅ Правильно: Нужно учитывать все возможные исходы и их частоты
💡 Почему: Не все события равновероятны. Вероятность попасть в ДТП не 50%, хотя можешь попасть или не попасть.
❌ Ошибка: Путать классическую и статистическую вероятности
✅ Правильно: Классическая — когда знаем все исходы заранее, статистическая — по наблюдениям
💡 Почему: В ML чаще используем статистическую: обучаем модель на данных и оцениваем по метрикам.
❌ Ошибка: Думать, что P(A) = 0.9 означает “почти всегда”
✅ Правильно: Это значит “в 90% случаев из большого числа экспериментов”
💡 Почему: При малом числе экспериментов может быть большой разброс.
❌ Ошибка: Складывать вероятности противоположных событий неправильно
✅ Правильно: P(A) + P(Ā) = 1 всегда
💡 Почему: Событие либо происходит, либо не происходит — третьего не дано.
❌ Ошибка: Забывать проверить, что ∑P(Aᵢ) = 1 для полной группы событий
✅ Правильно: Сумма вероятностей всех элементарных исходов равна 1
💡 Почему: Что-то обязательно должно произойти.
🎓 Главное запомнить
✅ Случайное событие — подмножество пространства всех возможных исходов эксперимента
✅ P(A) = |A| / |Ω| для классической вероятности
✅ 0 ≤ P(A) ≤ 1 и P(A) + P(Ā) = 1
✅ В ML события обычно оцениваются статистически по данным
🔗 Связь с другими темами
Случайные события — фундамент для:
- Условной вероятности (урок 227): P(A|B) — основа байесовского машинного обучения
- Независимых событий (урок 228): корреляция vs причинность в данных
- Распределений вероятностей (урок 229): от дискретных до нормального распределения
- Центральной предельной теоремы (урок 235): почему работает статистика и почему ошибки модели часто нормально распределены
Уже изучил математическую статистику (урок 225)? Отлично! Теперь ты понимаешь, откуда берутся те самые “вероятности” в выборочных статистиках.
Понял тему? Закрепи в боте! 🚀
Попрактикуйся на задачах и получи персональные рекомендации от AI
💪 Начать тренировку