🔴 Сложный ⏱️ 25 минут

Геометрическая вероятность: от дротиков до машинного обучения

Геометрическая вероятность: от дротиков до машинного обучения

🎯 Зачем это нужно?

Представь: ты играешь в дартс и хочешь понять вероятность попасть в центр мишени 🎯. Или разрабатываешь нейросеть и нужно оценить, какая доля весов попадёт в определённый диапазон. А может, создаёшь рендер для игры и вычисляешь, сколько лучей света попадёт на поверхность?

Всё это — геометрическая вероятность! Она везде:

  • 🎮 Процедурная генерация карт в играх (какова вероятность появления озера?)
  • 📊 Monte Carlo симуляции для оценки финансовых рисков
  • 🤖 Машинное обучение: dropout в нейросетях, случайный поиск гиперпараметров
  • 🛰️ GPS навигация: оценка погрешности позиционирования

📚 История вопроса

В 1777 году граф де Бюффон предложил гениальный эксперимент: бросать иглу на разлинованную бумагу и считать, как часто она пересекает линии. Оказалось, что вероятность равна 2l/(πd), где l — длина иглы, d — расстояние между линиями.

Это был первый способ вычислить π с помощью случайности! 🤯

Сегодня этот принцип лежит в основе метода Monte Carlo, который Google использует для оптимизации рекламы, а Netflix — для рекомендаций.

💡 Интуиция

Обычная вероятность: “Какова вероятность выбросить 6 на кубике?” — у нас конечное число исходов.

Геометрическая вероятность: “Какова вероятность попасть дротиком в красный круг внутри квадратной мишени?” — исходов бесконечно много!

[МЕДИА: image_01] Описание: Квадратная мишень с вписанным кругом, показывающая принцип геометрической вероятности Промпт: “dartboard illustration showing square target with inscribed circle, Monte Carlo method visualization, random points scattered inside square, some hitting circle, mathematical diagram style, modern clean design”

Ключевая идея: Если случайные точки равномерно распределены в области, то:

P = Площадь_благоприятных_исходов / Общая_площадь

Это работает для любых размерностей: площади, объёмы, гиперобъёмы в многомерном пространстве!

📐 Формальное определение

Геометрическая вероятность — вероятность попадания случайной точки в заданную область при условии равномерного распределения.

Для области G ⊂ ℝⁿ и подобласти A ⊂ G:

P(A) = μ(A) / μ(G)

где μ — мера множества (длина, площадь, объём, …)

Условия применимости:

  1. Область G ограничена и μ(G) > 0
  2. Точки распределены равномерно в G
  3. Подобласть A измерима

🔍 Примеры с разбором

Пример 1: Классическая задача с кругом

Задача: В квадрат со стороной 2 вписан круг радиуса 1. Какова вероятность попасть в круг при случайном броске?

[МЕДИА: image_02] Описание: Детальная схема квадрата 2×2 с вписанным кругом радиуса 1, с формулами площадей Промпт: “mathematical diagram showing 2x2 square with inscribed circle radius 1, labeled dimensions, area formulas, geometric probability visualization, educational style, clean lines”

Решение:

  • Площадь квадрата: S₁ = 2² = 4
  • Площадь круга: S₂ = π·1² = π
  • P = π/4 ≈ 0.785

Monte Carlo проверка:

import random
hits = sum(1 for _ in range(1000000) 
          if random.uniform(-1,1)**2 + random.uniform(-1,1)**2 <= 1)
pi_estimate = 4 * hits / 1000000  # ≈ 3.14159...

Пример 2: Машинное обучение

Задача: В нейросети с ReLU активацией веса инициализированы равномерно на [-1, 1]. Какова вероятность, что случайный вес w удовлетворяет |w| > 0.5?

Решение:

  • Общий интервал: [-1, 1], длина = 2
  • Благоприятная область: [-1, -0.5] ∪ [0.5, 1], длина = 1
  • P = 1/2 = 0.5

Это важно для понимания, сколько нейронов будут активны в начале обучения!

Пример 3: Трёхмерная задача

Задача: В куб со стороной 2 помещён шар радиуса 1. Какова вероятность попасть в шар?

Решение:

  • Объём куба: V₁ = 2³ = 8
  • Объём шара: V₂ = (4/3)π·1³ = 4π/3
  • P = (4π/3)/8 = π/6 ≈ 0.524

🎮 Практика

Базовый уровень 🟢

Задание 1: На координатной плоскости задан квадрат [0,4]×[0,4] и треугольник с вершинами (0,0), (4,0), (0,4). Найди вероятность попадания случайной точки в треугольник.

Задание 2: Круг радиуса R вписан в равносторонний треугольник. Какова вероятность попасть в круг при случайном броске в треугольник?

Задание 3: Два друга договорились встретиться между 18:00 и 19:00. Каждый приходит в случайный момент и ждёт 15 минут. Какова вероятность встречи?

Продвинутый уровень 🟡

Задание 4: В единичном кубе [0,1]³ случайно выбираются две точки. Найди вероятность того, что расстояние между ними меньше 0.5.

Задание 5: Реализуй Monte Carlo метод для вычисления площади фигуры, ограниченной кривыми y = x² и y = √x на [0,1].

Задание 6: В задаче машинного обучения веса матрицы 3×3 инициализированы из N(0,1). Какова вероятность, что определитель матрицы положителен?

Челлендж 🔴

Задание 7: Парадокс Бертрана: В круге проводится случайная хорда. Какова вероятность, что её длина больше стороны вписанного равностороннего треугольника? (Покажи, что ответ зависит от определения “случайности”)

Задание 8: Напиши программу для оценки π методом Бюффона (бросание иглы).

Задание 9: В гиперкубе [0,1]ⁿ случайно выбирается точка. При каком n вероятность попасть в гиперсферу единичного радиуса становится меньше 0.01?

⚠️ Частые ошибки

Ошибка: “Равномерность автоматически выполняется” ✅ Правильно: Нужно явно задать способ выбора точек 💡 Почему: Разные способы дают разные распределения (парадокс Бертрана)

Ошибка: Путать геометрическую вероятность с геометрическим распределением ✅ Правильно: Это совершенно разные концепции 💡 Почему: Геометрическое распределение — дискретное, про количество попыток до успеха

Ошибка: Забывать про размерность пространства ✅ Правильно: В 3D используем объёмы, в 4D — гиперобъёмы 💡 Почему: Формулы меняются кардинально

Ошибка: Неаккуратность с границами областей ✅ Правильно: Чётко определять, входят ли граничные точки 💡 Почему: В непрерывном случае это обычно не влияет на ответ, но важно для корректности

🎓 Главное запомнить

Суть: P = Площадь_цели / Общая_площадь при равномерном распределении
Ключевая формула: P(A) = μ(A) / μ(G)
Где применяется: Monte Carlo методы, ML, компьютерная графика, финансы

🔗 Связь с другими темами

Опирается на: Интегральное исчисление (для вычисления площадей/объёмов), теорию вероятностей (равномерное распределение)

Ведёт к: Monte Carlo интегрирование, случайные алгоритмы, байесовская оптимизация, теория случайных процессов

В ML: Dropout регуляризация, случайный поиск гиперпараметров, генеративные модели, вариационный автокодировщик

Понял тему? Закрепи в боте! 🚀

Попрактикуйся на задачах и получи персональные рекомендации от AI

💪 Начать тренировку
💬 Есть вопрос? Спроси бота!