В вузах теорию вероятностей очень долго аксиоматизируют перед тем, как перейти к чему-то полезному. Сейчас продемонстрируем, зачем.
Рассмотрим равносторонний треугольник, вписанный в окружность. Наудачу выбирается хорда окружности. Какова вероятность того, что выбранная хорда длиннее стороны треугольника?
Оказывается, можно придумать как минимум три способа решать задачу, которые все выглядят адекватно, но при этом дают разные ответы.
-
Наудачу выберем две точки на окружности и проведём через них хорду. Чтобы посчитать искомую вероятность, представим, что треугольник повёрнут так, что одна из его вершин совпадает с концом хорды. Заметим, что если другой конец хорды лежит на дуге между двумя другими вершинами треугольника, то длина хорды больше стороны треугольника. Длина рассмотренной дуги равна трети длины окружности, значит искомая вероятность равна
$\frac13$ . -
Зафиксируем радиус окружности, наудачу выберем точку на радиусе. Построим хорду, перпендикулярную зафиксированному радиусу, проходящую через выбранную точку. Для нахождения искомой вероятности, представим, что треугольник повёрнут так, что одна из его сторон перпендикулярна зафиксированному радиусу. Хорда длиннее стороны треугольника, если её центр ближе к центру, чем точка пересечения треугольника с зафиксированным радиусом. Сторона треугольника делит пополам радиус, следовательно вероятность выбрать хорду длиннее стороны треугольника
$\frac12$ . -
Выберем наудачу произвольную точку внутри круга и построим хорду с центром в выбранной точке. Хорда длиннее стороны равностороннего треугольника, если выбранная точка находится внутри круга, вписанного в треугольник. Площадь вписанного круга есть
$\frac14$ от площади большего, значит исходная вероятность равна$\frac14$ .
Как мы увидели, от формального определения «случайной хорды» непосредственно зависит ответ. Каждый раз, когда в истории математики появляется подобный приводящий к протеворечиям парадокс, математики паникуют и начинают всё формализовывать и аксиоматизировать. Так появилась теория вероятностей.
Функцию
ляет каждому элементарному исходу
Определение. Случайной переменной называется переменная, принимающая различные результаты случайного события. Сама по себе, случайная переменная только описывает возможные состояния; она должна быть связана с вероятностным распределением, которая указывает, насколько вероятно каждое из состояний.
Например, мы можем ввести случайную переменную для исходов броска шестигранного кубика.
Случайные переменные могут быть дискретными или непрерывными. Дискретные переменные имеют конечное или счётное количество состояний. Непрерывные переменные принимают действительные значения.
Вероятностным пространством
Событием
События можно пересекать, объединять, дополнять --- они же подмножества.
На некоторых событиях (в том числе элементарных исходах) определена функция
-
$P(A \cup B) = P(A) + P(B)$ , если они не пересекаются ($A \cap B = \emptyset$ ) -
$P(\Omega) = 1$
Чаще всего (если ничего не указывает на обратное) на элементарных исходах вероятности равны --- это называется равномерным распределением.
Во всех этих задачах первого раздела в решениях нужно первым делом описать вероятностное пространство.
% \subsection{Места в электричке} % % TODO куда-то передвинуть % Андрей, Серёжа и Лёша едут в электричке из Долгопрудного. Отсеки по 6 человек, по 12 в вагоне, вагонов 9. Они хотели бы найти места, где они могут сесть втроем. Они заглянули в вагон и увидели там 7 свободных мест. Они хотят узнать, имеет ли смысл ходить по поезду в поиске свободного места. Помогите им, посчитав матожидание числа вагонов (вероятность найти место?), которые им нужно пройти.
\subsection{Монетка}
% TODO: какое-то из чисел нужно пофиксить так, чтобы ответ был 1/2
Андрей и Серёжа играют в игру. Они подбрасывают монетку
a) N = 3, K = 2
b) N = 99, K = 50
c) N = 100, K = 50
\subsection{Рисуйте круги Эйлера}
Каждый школьник на сборах изучает хотя бы один из трех языков: Java, Python и C++. Вероятности, что случайно выбранный школьник изучает соответственно Java, Python и C++ равны
Найдите вероятность, что школьник изучает все три языка программирования. Найдите вероятность того, что школьник изучает только C++.
\subsection{Разбиение числа 10*} Петя случайным образом разбивает число 10 на сумму трех слагаемых (целые, больше нуля). Опишите вероятностное пространство и вычислите вероятность того, что среди слагаемых будет число 4. Порядок слагаемых в разложении важен.
\subsection{Ладьи*}
На шахматной доске размера
a)
b)
\subsection{Подсчёт голосов*}
Докажите, что вероятность того, что на выборах с участием двух кандидатов, в которых первый набрал
В этих задачах используется красивый прием --- вероятность равна отношению каких-нибудь площадей.
\subsection{Точка в прямоугольнике}
Случайная точка
a) расстояние от точки
b) расстояние от точки
\subsection{Два числа}
\subsection{Петя и Вася*} Петя и Вася договорились встретиться с 12:00 до 13:00, но не договорились в какое время, поэтому каждый из них решил прийти в случайное время, подождать 10 минут и уйти. С какой вероятностью они встретятся?
\subsection{Два числа*} Найти вероятность того, что из трех наудачу взятых отрезков длиной не более, чем 1, можно составить треугольник. \newpage \section{Условная вероятность и независимость}
По определению, вероятность
По определению,
\subsection{Лампы}
Помещение освещается фонарем с тремя лампами. Вероятность перегорания одной лампы в течение года равна
\subsection{Формула Байеса и формула полной вероятности}
a) Докажете формулу Байеса:
По смыслу это очень крутая формула --- обычно ты знаешь вероятность событий при каких-то условиях, а вот вероятности выполнения этих условий неочевидны. С помощью этих формул можно посчитать вероятность условий при условии выполнения этих событий.
b) Докажите формулу полной вероятности:
Это важная и интуитивно понятная формула --- событие просто разбивается на непересекающиеся подслучаи, считаются вероятности событий в этих случаях, и усредняется с весами, равными вероятностям этих случаев.
\subsection{Задача на формулу Байеса, либо формулу полной вероятности} Из 30 стрелков 12 попадает в цель с вероятностью 0,6, 8 - с вероятностью 0,5 и 10 – с вероятностью 0,7. Наудачу выбранный стрелок произвел выстрел, поразив цель. К какой из этих трех групп вероятнее всего принадлежал этот стрелок? Найдите вероятность его принадлежности к этой группе (при условии, что он действительно попал).
% Я не понял ничего про эту задачу % \subsection{Экзитпол*} % Вы опрашиваете людей на выходе из избирательного участка, кто за кого проголосовал. Всего есть два кандидата — А и Б. Вы опросили 100 людей, из которых 55 проголосовали за А. С какой вероятностью кандидат А победит?
\subsection{Контпримеры*} Привести примеры, показывающие, что равенства
неверны.
\subsection{Еще контрпример*}
События
Приведите пример трех попарно независимых событий, которы, тем не менее, в совокупности зависимы.
\subsection{Попарно независимые события*}
Пусть
Функцию
Функцией распределения называют
Плотностью распределения называют либо
\subsection{Функции распределения} Найдите и нарисуйте функции распределения и плотности следующих случайных величин:
a)
b) $X = \begin{cases} 0, & p \ 1, & 1-p \end{cases} $
c)
\subsection{Геометрическое распределение}
Петя кидает монету, с вероятностью
% \subsection{Пуассон}
% % Это лучше рассказать просто так
% Мост может выдержать до
Если X принимает несчетное число значение (например, равномерное распределение на отрезке
Дисперсия определяется как
В бытовом смысле мат. ожидание --- это среднее значение случайное величины, а именно если взять несколько независимых одинаково распределенных случайных величин, то их среднее действительно будет стремиться к мат. ожиданию (например на физике делают несколько опытов и усредняют ответ именно для этого).
В бытовом смысле дисперсия --- это насколько случайная величина шумная.
Самая главная вещь в теории вероятностей: мат. ожидание линейно:
\begin{align*} E[X+Y] & = \sum_{x, y} (x+y) p(x, y) \ & = \sum_{x, y} x p(x, y) + \sum_{x, y} y p(x, y) \ & = \sum_x x p(x) \sum_y p(y) + \sum_y y p(y) \sum_x p(x) \ & = \sum_x x p(x) + \sum_y y p(y) \ & = E[X] + E[Y] \end{align*}
Если
% Дисперсия суммы, произведения, домноженя на константу?
\subsection{Простые примеры}
Найдите мат. ожидания и дисперсии следующих случайных величин:
a)
b) $X = \begin{cases} 0, & p \ 1, & 1-p \end{cases} $
c)
d) Случайная величина из задачи 4.2 (геометрическое распределение) [10-11 классам надо честно найти, 8-9 классам можно погуглить чему равна сумма ряда, так как для его нахождения нужно уметь дифференцировать]
\subsection{Простая формула для дисперсии}
Докажите, что
\subsection{Разбиение на индикаторы}
Кинули кубик
Подсказка: случайную величину
\subsection{Случайный граф*}
Взяли
a) мат. ожидание числа ребер
b) мат. ожидание числа треугольников
\subsection{Случайный граф - 2*}
Взяли
a) дисперсию числа ребер
b) дисперсию числа треугольников
\newpage \section{Нормальное распределение} % ты знаешь доказательство «на пальцах»? % доказательство чего? ЦПТ % может не надо? может в следующий раз? % Ну, хоть как-то убедить в правильности % Там, про выборы и соцопросы рассказать % мне кажется, это можно упомянуть и не доказывать
% кстати, зацени http://sereja.me/a/pollard
%Метод Монте-карло и его относительная ошибка.
Есть замечательное нормальное распределение
Оно замечательно тем, что если взять много независимых случайных величин одного любого распределения
\subsection{Кубики} Нарисуйте, как распределена (график плотности, или просто значения плотности) сумма значений на N игральных кубиках при
a) N = 1
b) N = 2
c) N = 3
d*) N = 5
e*) N = 100
Подсказка: для 5 и 100 можно написать программу и нарисовать гистгорамму.
\subsection{Сумма нормальных величин}
Известно, что сумма двух нормально распределенных случайных величин --- тоже нормально распределенная случайная величина. Пусть
Про рандомизированные алгоритмы мы очень часто говорили фразу "в среднем работает за O(n)". Это означает, что количество операций --- это случайная величина, и её мат. ожидание --- O(n).
\subsection{Quicksort}
Докажите, что Quicksort со случайным выбором опорного элемента на любой фиксированной перестановке работает в среднем за
Подсказка 1: разбейте количество сравнений на простые случайные величины и используйте линейность мат. ожидания.
Подсказка 2: докажите лемму --- два числа
\subsection{Высота случайного бинарного дерева*} Найдите мат. ожидание глубины вершины случайного бинарного дерева (например, декартово дерево таким является), а именно такого дерева, у которого приоритеты вершин распределены одинаково, и по приоритетам дерево является кучей.
Подсказка: Докажите лемму --- для любых
\subsection{Эратосфен*}
Предполагая, что вероятность того, что число
% \subsection{Гипотеза Гольдбаха} % Предполагая, что простые числа распределены как в прошлой задаче, «докажите» гипотезу Гольдбаха.
\subsection{Разрушение дерева*} Дано корневое дерево. Каждую итерацию выбирается вершина (равновероятно из всех оставшихся), и удаляется всё поддерево, соответствующее этой вершине. Найти, сколько ходов в среднем будет продолжаться этот процесс, то есть матожидание номера итерации, на которой будет удалён корень дерева.
\subsection{Альтернативное декартово дерево} Пусть при мердже двух деревьев мы делаем подвешивание не за вершину с большим приоритетом, а следующим образом:
\begin{itemize}
\item За левое с вероятностью
где
Покажите, что каждая вершина всё так же равновероятно будет корнем дерева.
% \section{Случайные процессы}
% \subsection{От нуля до единицы*}
% Дан следующий код:
% % что-то не работает, как исправить? % \begin{lstlisting}[language=Python] % x = 0 % while x < 1: % x += random() % \end{lstlisting}
% Требуется посчитать матожидание x.
% (random в питоне возвращает случайное действительное число от 0 до 1.)
% \subsection{Пьяница}
% Пьяница стоит на краю обрыва (обрыв слева). С вероятностью
% \subsection{Казино*}
% Вы стартуете с
Пусть есть некоторая случайная величина
Предположим, у нас есть случайная численная величина
Какие два числа лучше всего описывают распределение?
Центральная предельная теорема названа так пафосно вполне обоснованно.
Она говорит, что нам достаточно про каждое слагаемое знать всего два числа — ожидание и дисперсию.
Доказать это очень трудно. Даже со ссылками на мощные теоремы оно займёт не одну страницу. Обычно доказательство рассказывают в середине второго курса.
Трудно даже доказать, что это распределение, т. е. что.
Пусть в некоторой стране есть два кандидата в президенты, назовём их Путин и Навальный.
Мы спросили у 1000 случайных избирателей бинарный вопрос, и 510 из них сказали, что будут голосовать за Путина. С какой вероятностью он победит? Теорема говорит, что число голосов, как
Чтобы решать следующие задачи, нам нужно будет использовать следующий факт:
...
Доказательство мы не приведем.
В частности, таким образом получается формула для чисел Фибоначчи.
Кто бы мог подумать, что все эти иррациональности и степени сократятся и вообще дадут целое число?..
Парадокс дней рождения.
Это на самом деле очень часто используемый результат. Так можно считать вероятность коллизии хэшей, а также он используется во многих теоретико-числовых алгоритмах, в которых используется предположения (весьма справедливые) о распределении простых чисел.
Пьяница. Человек стоит на краю обрава и идёт в его сторону с вероятностью p. С какой вероятностью он когда-либо в него упадёт?
TODO: история про эстетическое удовольствие, азарт и смысл посещения казино. Казино. Мы приходим в казино с 1000$ и следующим образом проводим там время: ставим по 1$, пока не обанкротимся или не выиграем 1100$. Какая вероятность того, что мы уйдём с деньгами?
В группе, состоящей из 23 или более человек, вероятность совпадения дней рождения хотя бы у двух людей превышает 50%.
Более общее утверждение: в мультимножество нужно добавить
Первое доказательство (для любителей матана). Пусть
Попытаемся оценить
Из последнего выражения более-менее понятно, что вероятность
Второе доказательство (для любителей теорвера). Введем
Обозначим за
Отсюда понятно, что если
Примечание: формально, из этого явно не следует, что вероятности тоже стремятся к 0 и 1.
Дана произвольная строка, по которой известным только авторам задачи способом генерируется ответ yes/no. В задаче 100 тестов. У вас есть 20 попыток отослать решение. В качестве фидбэка вам доступны вердикты на каждом тесте. Вердиктов всего два: OK (ответ совпал) и WA. Попытки поделить на ноль, выделить терабайт памяти и подобное тоже считаются как WA.
«Решите» задачу.
Энтропией называется минимальное число бит, которым теоретически возможно сжать сообщение. Эта величина важна, потому что на практике если её можно посчитать, то сжатие с соответствующей кратностью реально достижимо.
Шумный канал.
Пусть у вас есть 1тб данных и два китайских терабайтника, на каждый из которых можно записать столько данных, но каждый бит имеет вероятность 10% записаться на противоположный. Требуется сохранить данные с первого раза без потерь. Совсем без потерь.
Причём это делается почти впритык.
Вы, наконец, узнаете, почему ДД работает за логарифм, почему быстрая сортировка быстрая, какой модуль нужно выбирать для хэшей, сколько сэмплов нужно выбирать для монте-карло и т. д.
Следующие строчки позволят нам генерировать распределения и рисовать графики, не обращайте внимание.
В вузах теорвер очень долго аксиоматизируют перед тем, как перейти к чему-то полезному. Сейчас поясним, зачем.
Рассмотрим равносторонний треугольник, вписанный в окружность. Наудачу выбирается хорда окружности. Какова вероятность того, что выбранная хорда длиннее стороны треугольника?
Оказывается, можно придумать хотя бы три способа решать задачу, которые выглядят адекватно, но все дают разные ответы.
-
Наудачу выберем две точки на окружности и проведём через них хорду. Чтобы посчитать искомую вероятность, представим, что треугольник повёрнут так, что одна из его вершин совпадает с концом хорды. Заметим, что если другой конец хорды лежит на дуге между двумя другими вершинами треугольника, то длина хорды больше стороны треугольника. Длина рассмотренной дуги равна трети длины окружности, значит искомая вероятность равна
$\frac13$ . -
Зафиксируем радиус окружности, наудачу выберем точку на радиусе. Построим хорду, перпендикулярную зафиксированному радиусу, проходящую через выбранную точку. Для нахождения искомой вероятности, представим, что треугольник повёрнут так, что одна из его сторон перпендикулярна зафиксированному радиусу. Хорда длиннее стороны треугольника, если её центр ближе к центру, чем точка пересечения треугольника с зафиксированным радиусом. Сторона треугольника делит пополам радиус, следовательно вероятность выбрать хорду длиннее стороны треугольника
$\frac12$ . -
Выберем наудачу произвольную точку внутри круга и построим хорду с центром в выбранной точке. Хорда длиннее стороны равностороннего треугольника, если выбранная точка находится внутри круга, вписанного в треугольник. Площадь вписанного круга есть
$\frac14$ от площади большего, значит исходная вероятность равна$\frac14$ .
Как мы увидели, от формального определения «случайной хорды» непосредственно зависит ответ.
Каждый раз, когда в истории математики появляется подобный приводящий к протеворечиям парадокс, математики паникуют и начинают всё формализовывать и аксиоматизировать. Так появилась теория вероятностей (внимание: не «ти», а «тей»).
Перейдем к самим определениям:
Функцию
Геометрическое распределение.
Пусть
Попытаемся оценить
Математическим ожиданием случайной величины
Самое главное для нас свойство — ожидание линейно:
Акцентируем внимание:
Также, в частности его можно домножать на константу.
Теперь можно перейти к практическим задачам.
Петя кидает монету, с вероятностью
$p$ выпадает орел и он прекращает кидать ее, с вероятностью$1-p$ выпадает решка и он кидает ее еще раз. Пусть$X$ - это количество бросков. Найдите$\rho_X(x)$ и$F_X(x)$ .
Когда автор пришел на первое занятие по английскому в МФТИ, препод устроила следующую игру на знакомство: разделила всех студентов на две команды. В каждой команде про своих членов загадываются факты: кто-то мечтал стать акробатом, кто-то смотрит анимэ и всё в таком духе. Команде соперников сообщались только эти факты, и им нужно было отгадать, кому какой принадлежит. Побеждает команда, которая отгадала больше фактов о соперниках. Нас было 11 — простое число, никак не делящееся на равные команды, и поэтому в одной команде было 5 человек, а в другой 6. Автору стало интересно: если отбросить все психологические аспекты и делать все рандомно, у какой команды вероятность победить выше?
Следует заметить, что все-таки ожидание правильно отгаданных вопросов не очень помогает выяснить, у какой команды есть преимущество и какое.
Высота дерева. Высота в среднем логарифмическая. Любознательные могут ознакомиться с типа доказательством, но это не обязательно.
Глубина вершины — это количество родителей (прим. К. О.). Введем индикатор.
Тут на самом деле будет примерно так же, как с ДД. Нас интересует суммарное число сравнений. Просуммируем для каждой пары элементов вероятность, что они будут сравнены.
Как для пары определить эту вероятность? Посмотрим на все элементы между ними, будь они в отсортированном массиве.
Внезапно возникает гармонический ряд, ну а дальше мы знаем.
Дисперсия — это количественная метрика. Это не что-то абстрактное, как могли рассказать в школе на теорвере, а формально определенная величина, имеющая кучу всяких полезных свойств.
Дисперсия определяется как средний квадрат отклонения случайной величины от ее матожидания:
Её проще считать по другой формуле, разложив квадрат внутри ожидания:
Эту формулу мы будем использовать для вывода разных свойств.
У дисперсии очень много крутых свойств.
Предполагаем, что
Важное отличие от свойств матожидания: дисперсию так просто можно считать только для независимых величин.
Закон больших чисел — принцип, который описывает результат выполнения одного и того же эксперимента много раз. Согласно закону, среднее значение конечной выборки из фиксированного распределения близко к математическому ожиданию этого распределения.
У матожидания (константы) стандартное обозначение
Это немного очевидное равенство. Теперь нас интересует, насколько точно оно в реальности достигается:
С одной стороны, оно домножается на
Когда вы в каких-нибудь библиотеках для анализа данных просите показать какой-то summary, то чаще всего вы увидите два числа: матожидание и дисперсию.
Центральная предельная теорема названа так пафосно вполне обоснованно.
Она говорит, что нам достаточно про каждое слагаемое знать всего два числа — ожидание и дисперсию.
Доказать это очень трудно. Даже со ссылками на мощные теоремы оно займёт не одну страницу. Обычно доказательство рассказывают в середине второго курса.
Трудно даже доказать, что это распределение, т. е. что
Алгоритмы вида «давайте посчитаем значения в разных случайных точках и усредним» называются методами монте-карло.
Пусть у нас есть единичный квадрат и несколько сотен кружков. Нам нужно посчитать долю области квадрата, которая не покрывается ни одним из кругов, с точностью до 1%.
Можно просто делать так: тыкать в 10000 случайных точек и проверять для каждой, является ли она «хорошей», а затем вывести
Сдать можно сюда.
Вообще, хэш — это такая функция, которая сопоставляет элементу какой-то другой элемент. С точки зрения криптоанализа, она должна быть трудно обратимой, а с точки зрения алгоритмиста — генерирующей равномерные игреки.
Можно делать так если мы планируем хранить
Это будет работать, потому что из-за рандома в среднем в каждой ячейке будет по одному элементу. Но константа у такого решения большая.
Стандартная хэш-таблица из STL по непонятным автору причинам работает очень медленно. Во многих задачах она является самой нагруженной структурой. Её можно написать в 3-5 раз быстрее.