🔴 Сложный ⏱️ 25 минут

Центральная предельная теорема: почему мир нормален

Центральная предельная теорема: почему мир нормален

🎯 Зачем это нужно?

Почему рост людей, результаты экзаменов, ошибки измерений и даже время загрузки приложений следуют колоколообразному распределению? 📱 TikTok знает, что время просмотра видео у большинства пользователей распределено нормально. Netflix использует это для предсказания популярности сериалов. А разработчики игр настраивают сложность уровней, зная, что навыки игроков тоже “нормальны”!

Секрет в том, что когда много независимых факторов влияют на результат - получается нормальное распределение. И это не случайность, а математический закон! 🎲

📚 История вопроса

В 1738 году Абрахам де Муавр изучал азартные игры и заметил странную закономерность: при большом количестве подбрасываний монеты частота выпадения орла стремилась к колоколообразной кривой! 🪙

Позже Лаплас и Гаусс поняли: это универсальное явление. Гаусс настолько прославился изучением этого распределения, что его назвали “гауссовым”. Но самый важный прорыв сделали в XX веке, когда поняли: центральная предельная теорема объясняет, почему нормальное распределение встречается ВЕЗДЕ.

💡 Интуиция

Представь, что ты стреляешь дротиками в мишень 🎯. На точность влияют куча факторов:

  • Дрожание руки (случайно)
  • Сила броска (случайно)
  • Порывы ветра (случайно)
  • Усталость (случайно)
  • И еще 50 мелких факторов…

Каждый фактор сдвигает дротик в случайную сторону. Но когда их много, результат становится предсказуемым! Большинство дротиков попадет около центра, мало - далеко от центра. Получается колокол! 🔔

[МЕДИА: image_01] Описание: Визуализация дротиков в мишени с наложением нормального распределения Промпт: “dartboard target with many darts scattered around center, overlaid with bell curve showing normal distribution pattern, educational illustration, clean modern style, blue and orange colors”

То же самое происходит с ЛЮБОЙ суммой независимых случайных величин:

  • Рост = генетика + питание + спорт + 100 других факторов
  • Оценка за ЕГЭ = знания + везение + самочувствие + погода + …
  • Время отклика сервера = нагрузка + интернет + железо + код + …

📐 Формальное определение

Центральная предельная теорема (ЦПТ):

Пусть X₁, X₂, …, Xₙ - независимые одинаково распределенные случайные величины с математическим ожиданием μ и дисперсией σ².

Тогда их сумма Sₙ = X₁ + X₂ + … + Xₙ при n → ∞ имеет распределение, стремящееся к нормальному:

Sₙ ~ N(nμ, nσ²)

Или в стандартизированном виде:

(Sₙ - nμ)/(σ√n) →ᵈ N(0,1)

Читается как: “стремится по распределению к стандартной нормальной случайной величине”

Среднее арифметическое: X̄ = Sₙ/n ~ N(μ, σ²/n)

Чем больше n, тем точнее приближение!

🔍 Примеры с разбором

Пример 1: Подбрасывание монеты 🪙

У нас есть честная монета: P(орел) = P(решка) = 0.5 Пусть Xᵢ = 1, если i-й бросок дал орла, и Xᵢ = 0 иначе.

Для каждого броска:

  • μ = E[Xᵢ] = 1·0.5 + 0·0.5 = 0.5
  • σ² = Var[Xᵢ] = 0.25

При n = 1000 бросков количество орлов S₁₀₀₀ имеет распределение: S₁₀₀₀ ~ N(500, 250)

Стандартное отклонение: √250 ≈ 15.8

Значит, в 95% случаев количество орлов будет между 468 и 532! 📊

[МЕДИА: image_02] Описание: Гистограмма результатов 1000 подбрасываний монеты с наложением нормального распределения Промпт: “histogram showing distribution of coin flip results for 1000 tosses, overlaid with smooth normal distribution curve, centered around 500, educational visualization, clean statistical graphics”

Пример 2: Время отклика API 🌐

Каждый запрос к API складывается из:

  • Время обработки базы данных (случайно)
  • Сетевая задержка (случайно)
  • Время выполнения кода (случайно)
  • Загрузка сервера (случайно)

Пусть каждый фактор добавляет в среднем 5мс с разбросом 2мс. При 20 независимых факторах получаем: Время отклика ~ N(100мс, 80мс²)

В 68% случаев время будет 100 ± 9мс, в 95% - 100 ± 18мс.

Пример 3: Нейронная сеть 🧠

В нейросети каждый нейрон вычисляет: y = σ(w₁x₁ + w₂x₂ + … + wₙxₙ + b)

При случайной инициализации весов wᵢ сумма w₁x₁ + w₂x₂ + … + wₙxₙ будет нормально распределена! Поэтому:

  • Веса инициализируют из N(0, 1/√n) (правило Xavier)
  • Batch normalization работает, потому что активации нормальны
  • Dropout эффективен благодаря ЦПТ

🎮 Практика

Базовый уровень 🟢

Задание 1: В игре каждый уровень дает случайное количество очков от 10 до 30 (равномерно). Игрок прошел 100 уровней. К какому распределению стремится общая сумма очков?

Задание 2: Сервер получает запросы, каждый обрабатывается за время, распределенное по экспоненциальному закону с λ = 0.1. За час пришло 3600 запросов. Оцени среднее время обработки всех запросов.

Задание 3: В A/B тесте конверсия в контрольной группе 5%, в тестовой 6%. В каждой группе 10000 пользователей. С какой вероятностью различие статистически значимо?

Задание 4: ML модель делает предсказания с ошибками ~N(0, 1). Усредняя 25 предсказаний, какое распределение ошибки получим?

Продвинутый уровень 🟡

Задание 5: Реализуй эксперимент: сгенерируй 10000 сумм по 30 равномерных случайных величин U(0,1). Построй гистограмму и проверь нормальность.

Задание 6: В рекомендательной системе каждый фактор дает оценку от -1 до +1. Учитывается 50 факторов. Как выбрать порог для рекомендации, чтобы показывать топ-10% контента?

Задание 7: Алгоритм градиентного спуска использует батчи размера 32. Как ЦПТ объясняет, почему большие батчи дают более стабильную сходимость?

Задание 8: Автоэнкодер сжимает изображения. Ошибки пикселей независимы и имеют дисперсию σ². Как связана ЦПТ с качеством восстановления?

Челлендж 🔴

Задание 9: Докажи, что при n → ∞ биномиальное распределение B(n,p) стремится к N(np, np(1-p)). Используй ЦПТ.

Задание 10: В GAN’е дискриминатор получает на вход сумму реальных и сгенерированных признаков. Как ЦПТ влияет на стабильность обучения?

Задание 11: Разработай метод детекции аномалий в трафике, основанный на ЦПТ. Когда метод будет давать ложные срабатывания?

⚠️ Частые ошибки

Ошибка: “ЦПТ работает для любых n” ✅ Правильно: Нужно достаточно большое n (обычно n ≥ 30) 💡 Почему: При малых n приближение плохое, особенно для асимметричных распределений

Ошибка: “Исходные величины должны быть нормальными” ✅ Правильно: ЦПТ работает для ЛЮБЫХ распределений с конечными μ и σ² 💡 Почему: В этом вся магия теоремы - нормальность “появляется” из хаоса!

Ошибка: “ЦПТ гарантирует точное нормальное распределение” ✅ Правильно: ЦПТ дает приближение, точность зависит от n 💡 Почему: Это предельная теорема - говорит о поведении при n → ∞

Ошибка: “Случайные величины должны иметь одинаковые распределения” ✅ Правильно: Есть обобщения ЦПТ для неодинаковых распределений (теорема Линдеберга) 💡 Почему: Главное - ограниченность влияния каждой величины на сумму

Ошибка: “Дисперсия суммы равна сумме дисперсий всегда” ✅ Правильно: Только для независимых величин! Var(X+Y) = Var(X) + Var(Y) + 2Cov(X,Y) 💡 Почему: Зависимость между величинами меняет результат

🎓 Главное запомнить

Суть: Сумма многих независимых случайных величин стремится к нормальному распределению ✅ Формула: Sₙ ~ N(nμ, nσ²), где n - количество слагаемых ✅ Применение: Везде, где много независимых факторов влияют на результат

🔗 Связь с другими темами

Откуда пришли: Изучили распределения и их свойства в уроке 240 Куда ведет: Доверительные интервалы, проверка гипотез, статистические тесты в ML Практика: Инициализация нейросетей, batch normalization, статистические тесты A/B, анализ ошибок моделей

Понял тему? Закрепи в боте! 🚀

Попрактикуйся на задачах и получи персональные рекомендации от AI

💪 Начать тренировку
💬 Есть вопрос? Спроси бота!