diff --git a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/10lecture.tex b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/10lecture.tex index 15a9a74e..fbfa7059 100644 --- a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/10lecture.tex +++ b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/10lecture.tex @@ -139,11 +139,11 @@ \subsection{Метод Наименьших Квадратов (МНК)} \begin{proof} По доказанному, $\E (X - Z\wh{\theta}(X)) = 0$. Стало быть, $\E \|X - Z\wh{\theta}(X)\|^2 = \Tr D(X - Z\wh{\theta}(X))$. Осталось расписать матрицу ковариаций в явном виде: \begin{multline*} - D(X - Z\wh{\theta}(X)) = D\big((E_n - \underbrace{Z(Z^TZ)^{-1}Z}_{A})X\big) = (E_n - A) DX (E_n - A)^T = [A^T = A] = + D(X - Z\wh{\theta}(X)) = D\big((E_n - \underbrace{Z(Z^TZ)^{-1}Z^T}_{A})X\big) = (E_n - A) DX (E_n - A)^T = [A^T = A] = \\ \sigma^2 (E_n - A)^2 = \sigma^2(E_n - 2A + A^2) = [A^2 = A] = \sigma^2(E_n - A) \end{multline*} - Подставим полученное выражение в матожидание (при этом \\ $A = Z(Z^TZ)^{-1}Z = ZZ^{-1}Z^{-T}Z = Z^{-T}Z$): + Подставим полученное выражение в матожидание: \[ \E \|X - Z\wh{\theta}(X)\|^2 = \sigma^2(n - \Tr A) = \sigma^2(n - k) \] diff --git a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/4lecture.tex b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/4lecture.tex index 7addc17c..c3acab48 100644 --- a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/4lecture.tex +++ b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/4lecture.tex @@ -215,7 +215,7 @@ \subsubsection*{Метод выборочных квантилей} \begin{enumerate} \item (Разбираемся с плотностью) Запишем $\eta_n$ в более удобном виде: \[ - \eta_n = (z_{n, p} - z_n)\sqrt{\frac{nf^2(z_p)}{p(1 - p)}} + \eta_n = (z_{n, p} - z_p)\sqrt{\frac{nf^2(z_p)}{p(1 - p)}} \] Заметим, что $\eta_n$ является линейной комбинацией от $X_{(k)}$, чью плотность мы знаем. Стало быть, если $t_n(x) = z_p + \frac{x}{f(z_p)}\sqrt{\frac{p(1 - p)}{n}}$ (функция, переводящая $x$ из $F_\eta(x)$ в соответствующий параметр $F_{X_{(k)}}$), то имеет место равенство: \[ diff --git a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/6lecture.tex b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/6lecture.tex index e9f95630..1f1c026a 100644 --- a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/6lecture.tex +++ b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/6lecture.tex @@ -219,7 +219,7 @@ \subsubsection{Среднеквадратический подход} \item[$\supseteq$] Итак, $\hat{\tau}(X)$ --- эффективная оценка для $\tau(\theta)$. Нужно проверить, что и $\hat{v}(X) = a\hat{\tau}(X) + b$ является эффективной оценкой для $v(\theta) = a\tau(\theta) + b$. Простыми манипуляциями преобразуем уже имеющийся критерий эффективности для $\hat{\tau}(X)$ так, чтобы он соответствовал $\hat{v}(X)$: \[ - \hat{\tau}(X) = \tau(\theta) + c(\theta)U_\theta(X) \Ra (a\hat{\tau(X)} + b) = (a\tau(\theta) + b) + (ac(\theta))U_\theta(X) + \hat{\tau}(X) = \tau(\theta) + c(\theta)U_\theta(X) \Ra (a\hat{\tau}(X) + b) = (a\tau(\theta) + b) + (ac(\theta))U_\theta(X) \] Получили верный критерий эффективности для $\hat{v}(X)$, что завершает доказательство. \end{itemize} diff --git a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/7lecture.tex b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/7lecture.tex index e1842da9..897859fc 100644 --- a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/7lecture.tex +++ b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/7lecture.tex @@ -9,7 +9,7 @@ \begin{example} Рассмотрим распределение $\Gamma(\alpha, \beta)$. Оно принадлежит к экспоненциальному семейству: \[ - p_{\alpha, \beta}(x) = \frac{\alpha^\beta x^{\beta - 1}}{\Gamma(\beta)} e^{-\alpha x} \chi\{x > 0\} = \frac{1}{x}\chi\{x > 0\} \cdot \exp\ps{\beta \ln x - \alpha x + \ln \frac{\alpha \beta}{\Gamma(\beta)}} + p_{\alpha, \beta}(x) = \frac{\alpha^\beta x^{\beta - 1}}{\Gamma(\beta)} e^{-\alpha x} \chi\{x > 0\} = \frac{1}{x}\chi\{x > 0\} \cdot \exp\ps{\beta \ln x - \alpha x + \ln \frac{\alpha^\beta}{\Gamma(\beta)}} \] \end{example} diff --git a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/9lecture.tex b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/9lecture.tex index f4d96485..d1ca3bcb 100644 --- a/Lectures/5_Semester/Statistics/2023_Savelov/lectures/9lecture.tex +++ b/Lectures/5_Semester/Statistics/2023_Savelov/lectures/9lecture.tex @@ -100,7 +100,7 @@ \subsection{Метод максимального правдоподобия} \item Существует равномерная интегрируемая оценка сверху в некотором интервале вокруг любого параметра $\theta_0 \in \Theta$: \[ - \forall \theta_0 \in \Theta\ \exists c > 0, H(x) \such \E_\theta H(X) < \infty \wedge \forall \theta \in (\theta_0 - c; \theta_0 + c),\ x \in A\ \ \md{\pd{^3}{\theta^3} \ln p_\theta(x)} < H(x) + \forall \theta_0 \in \Theta\ \exists c > 0, H(x) \such \E_{\theta_0} H(X) < \infty \wedge \forall \theta \in (\theta_0 - c; \theta_0 + c),\ x \in A\ \ \md{\pd{^3}{\theta^3} \ln p_\theta(x)} < H(x) \] \end{enumerate} \end{note} diff --git a/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/1lecture.tex b/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/1lecture.tex index 47d75117..bd5859ba 100644 --- a/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/1lecture.tex +++ b/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/1lecture.tex @@ -93,12 +93,21 @@ \section{Слабая сходимость} \end{theorem} \begin{proposition} (Связь сходимости по норме и слабой сходимости) - Последовательность $x_n$ сходится к $x$ тогда и только тогда, когда она слабо сходится к $x$ и есть сходимость норм $\lim_{n \to \infty} \|x_n\| = \|x\|$. + Пусть $x_n, x \in E$. Тогда + \begin{enumerate} + \item Из сходимости $x_n \to x$ всегда следует, что $x_n \wto x$ и $\lim_{n \to \infty} \|x_n\| = \|x\|$ + + \item Если $E$ --- гильбертово пространство, то из слабой сходимости $x_n \wto x$ и предела $\lim_{n \to \infty} \|x_n\| = \|x\|$ следует сходимость $x_n \to x$ + \end{enumerate} \end{proposition} +\begin{anote} + Таким образом, в случае гильбертова пространства у нас есть явный критерий сходимости через слабую сходимость. +\end{anote} + \begin{proof}~ - \begin{itemize} - \item[$\Ra$] Повторим уже известные рассуждения: + \begin{enumerate} + \item Повторим уже известные рассуждения: \begin{itemize} \item Для слабой сходимости всё есть из того факта, что рассматриваются $f \in E^*$: \[ @@ -111,7 +120,7 @@ \section{Слабая сходимость} \] \end{itemize} - \item[$\La$] \textcolor{red}{Проведём доказательство в случае гильбертова пространства $E = H$.} По определению, нужно показать следующее: + \item По определению, нужно показать следующее: \[ \forall \eps > 0\ \exists N \in \N \such \forall n \ge N\ \ \|x_n - x\| < \eps \] @@ -123,9 +132,22 @@ \section{Слабая сходимость} \[ \|x_n - x\|^2 \xrightarrow[n \to \infty]{} 2\|x\|^2 - 2\|x\|^2 = 0 \] - \end{itemize} + \end{enumerate} \end{proof} +\begin{anote} + В случае банахова пространства, вообще говоря, сходимость $x_n \to x$ может не следовать из $x_n \wto x$ и $\lim_{n \to \infty} \|x_n\| = \|x\|$. Рассмотрим пространство $c$ --- сходящиеся последовательности, сходящиеся к нулю. Известно, что $c^* \simeq \ell_1$, причём для слабой сходимости есть эквивалентное свойство, использующее <<скалярное произведение>>: + \[ + x_n \wto x \Lolra \forall y \in \ell_1\ \ \phi_y(x_n) = \sum_{k = 1}^\infty x_n^ky_k \xrightarrow[n \to \infty]{} \sum_{k = 1}^\infty x^ky_k = \phi_y(x) + \] + Рассмотрим базис с $e_0 = (1, 1, \ldots)$ и $e_n = (0, \ldots, 0, 1, 0, \ldots)$ (единица стоит в $n$-й позиции). Несложно понять, что $x_n = e_0 - e_n$ должен хотя бы слабо сходится к $x = e_0$, при этом $\|x_n\| = \|x\| = 1$, тем самым предел по норме $c$ уже имеется. Проверим сходимости: + \begin{itemize} + \item $|\phi_y(x) - \phi_y(x_n)| = |\phi_y(x - x_n)| = |\phi_y(e_n)| = |y_n| \xrightarrow[n \to \infty]{} 0$ --- слабая сходимость есть + + \item $\|x - x_n\| = \|e_n\| = 1$ --- сходимости по норме $c$ нет и быть не может + \end{itemize} +\end{anote} + \textcolor{red}{Тут должна быть картинка с нормами и сходимостями, 1 лекция 1:04:00} \begin{theorem} (фон Неймана, без доказательства) diff --git a/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/2lecture.tex b/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/2lecture.tex index 77e66d19..331de157 100644 --- a/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/2lecture.tex +++ b/Lectures/6_Semester/Functional_Analysis/2024_Konovalov/lectures/2lecture.tex @@ -10,6 +10,8 @@ \begin{proof} Перейдём к рассмотрению операторов $F_{x_n}, F_x \in E^*$. Тогда слабая сходимость $x_n \wto x$ по определению является поточечной сходимостью $F_{x_n}(f) \to F_x(f)$. Из условия: \begin{itemize} + \item Пространство $E^*$ полно + \item Нормы $\|F_{x_n}\| = \|x_n\|$ ограничены \item $\exists S \subseteq E^* \such \cl [S] = E^* \wedge \forall f \in S\ \ F_{x_n}(f) \to F_x(f)$ @@ -18,9 +20,13 @@ \end{proof} \begin{note} - Условия для слабой сходимости можно ослабить. Достаточно потребовать не $f(x_n) \to f(x)$ (и соответственно знания конкретного $x$), а существования предела $\lim_{n \to \infty} f(x_n)$. В предыдущем семестре мы доказали теорему о полноте относительно поточечной сходимости (её нужно применить к $F_{x_n}$ и $F_x$) + \textcolor{red}{В случае рефлексивности и банаховости пространства $E$} условие для слабой сходимости можно ослабить. Достаточно потребовать не $f(x_n) \to f(x)$ (и соответственно знания конкретного $x$), а существования предела $\lim_{n \to \infty} f(x_n)$. В предыдущем семестре мы доказали теорему о полноте относительно поточечной сходимости (её нужно применить к $F_{x_n}$ и $F_x$). \end{note} +\begin{anote} + Ради пущего убеждения, напишу здесь явно доказательство слабой версии, а точнее доказательство существования нужного $x$. +\end{anote} + \begin{theorem} Пусть $E_1, E_2$ --- нормированные пространства, $x_n, x \in E_1$, причём $x_n \wto x$, а также $A \in \cL(E_1, E_2)$. Тогда, есть слабая сходимость образов $Ax_n \wto Ax$. \end{theorem} diff --git a/config.json b/config.json index ce479558..1b5895c4 100644 --- a/config.json +++ b/config.json @@ -26,7 +26,7 @@ "!l/4/Calculus/2023_Lukashov", "!l/4/Probability_Theory/2023_Shabanov", "!l/5/Functional_Analysis/2023_Konovalov", - "!l/5/Statistics/2023_Savelov", + "l/5/Statistics/2023_Savelov", "l/6/Functional_Analysis/2024_Konovalov" ], "66golden": [