«统计学完全教程»笔记:第6章 模型,统计推断与学习
参数与非参数模型
统计推断(Statistical inference),在计算机科学中也称为学习,是利用数据推测其分布的方法。即给定样本 $X_1 , X_2,\cdots , X_n \sim F$ ,推断出 $F$
我们观测到的相关随机变量值 $\mathbf{X} = (X_1 , X_2,\cdots , X_n)$ 称为 观测值、测量值、观测向量(observation)
参数化模型(parametric model)能够通过一组有限参数描述。 非参数化模型:有限参数无法描述。
参数模型的通用形式:
$$ \mathfrak{F} = \left\{ f(x; \theta) : \; \theta \in \Theta \right\} $$-
$\theta$ 是一个未知参数,其可以在 参数空间(parameter space) $\Theta$ 中取值.
-
若 $\theta $ 是向量,则其中我们不关心的分量称为 冗余参数。
若有分布 $X_1, \cdots ,X_n \sim F$ ,则任何 $F$ 的函数称为 统计泛函
假设我们有数据对 $ ( X_1, Y_1 ) , \cdots ( X_n, Y_n ) $ 。假设 $X_i$ 表示病人 $i$ 的血压,$Y_i$ 表示病人的寿命。
则 $X$ 称为预测变量(predictor),或者 回归值(regressor),或者特征(feature),或者独立变量(independent variable),
$Y$ 称为结果(outcome),或者响应变量(response variable)或者 独立变量(dependent variable)。称 $r(x) = \mathbb{E}(Y | X = x)$ 为回归方程(regression function)。
若假设 $r \in \mathfrak{F}$
-
若 $\mathfrak{F}$ 是有限维度的,比如直线的几何,则我们得到一个参数回归模型。
-
若 $\mathfrak{F}$ 是无限维度的,则我们得到一个 非参数回归模型。
基于新病人的 $X$ 值,预测 $Y$ 值的过程称为预测。(废话?)
若 $Y$ 是离散值,则预测是分类(classification)。
若 $Y$ 是连续值,则预测是回归(regression)或者曲线估计(curve estimation)
回归模型有时可以写作:
$$ Y = r(X) + \epsilon $$其中 $\mathbb{E}(\epsilon ) = 0$。
统计推断的基本概念
估计器、估计子(estimator)是随机变量:
$$ \hat{\theta }_n = g(\mathbf{X}) $$它是关于观测向量的函数。
其期望和方差记为 $\mathbb{E}(\hat{\theta }_n)$,$\mathbb{V}(\hat{\theta }_n)$
估计误差(estimation error)记为:
$$ \tilde{\theta }_{n}=\hat{\theta }_{n}-\theta $$估计器的偏差(bias of an estimator)定义为:
$$ \operatorname{bias}(\hat{\theta }_n) = \mathbb{E}_ \theta (\hat{\theta _n}) - \theta $$若 $\mathbb{E}(\hat{\theta }_n) = \theta $ ,则称 $\hat{\theta }_n$ 是无偏的估计器。即 如果平均估计误差是零, 则得到一个无偏的估计器
称 $\hat{\theta}_{n}$ 渐近无偏, 若 $\lim _{n \rightarrow \infty} \mathrm{E}_{\theta}\left[\hat{\theta}_{n}\right]=\theta$ 对于 $\theta$ 所有可能的取值都成立
$\hat{\theta }_n$ 的标准偏移(standard deviation)为 标准误差(standard error),记作 $\operatorname{se}$ :
$$ \operatorname{se} =\operatorname{se}\left(\hat{\theta}_{n}\right)=\sqrt{\mathbb{V}\left(\hat{\theta}_{n}\right)} $$均方误差(MSE):
$$ \operatorname{MSE} = \mathbb{E}_{\theta}\left[\tilde{\theta}_{n}^{2}\right] = \mathbb{E}_{\theta} \left[( \hat{\theta }_{n}-\theta ) ^2\right] $$用于评估点估计的好坏。
定理:
$$ \operatorname{MSE} = \operatorname{bias}^2(\hat{\theta }_n) + \mathbb{V_ \theta }(\hat{\theta }_n) $$定理:若 $\operatorname{bias} \to 0$ 且当 $n \to \infty $ 时成立 $\operatorname{se} \to 0$ ,则 $\hat{\theta }_n$ 是一致估计器,即 $\hat{\theta }_n \stackrel{P}{\longrightarrow} \theta $
定义:若
$$ \frac{\hat{\theta}_{n}-\theta}{\text { se }} \leadsto N(0,1) $$则称估计器 $\hat{\theta }_n$ 是渐进正态的。
置信集
参数 $\theta$ 的 $1-\alpha$ 置信区间(Confidence Interval)为区间 $C_{n}=(a, b)$, 其中, $a=a\left(X_{1}, \cdots, X_{n}\right), b=$ $b\left(X_{1}, \cdots, X_{n}\right)$ 是数据的函数, 满足
$$ \mathbb{P}_{\theta}\left(\theta \in C_{n}\right) \geqslant 1-\alpha, \quad \theta \in \Theta . $$其含义为 $(a, b)$ 覆盖参数 $\theta $ 的概率为 $1-\alpha$, 称 $1-\alpha$ 为置信区问的覆盖(coverage).$C_{n}$ 是随机的而 $\theta$ 是固定的.
假设检验
我们通过投掷硬币来检验硬币是否均匀。
-
令 $H_0$ 表示硬币是均匀的假设。这称为原假设(或者缺省假设,或者零假设)。
-
令 $H_1$ 表示硬币不均匀的假设。这成为备择假设。
记作:
$$ H_{0}: p=1 / 2 \text { versus } H_{1}: p \neq 1 / 2 $$如果 $T = \left| \hat{p }_n - ( 1/2 ) \right| $ 很大,则可以拒绝 $H_0$
置信区间例题 某区域有 6250 名教师。随机抽取了 250 个,调查其是否认为有必要配备教学计算机。有 142 人认为有必要。
-
为“认为有必要”的教师数量计算 99% 置信区间。
-
如何才能让调查改变后,置信区间变得更狭窄,却能维持 99% 置信度。
♞1 Let $X_{1}, \ldots, X_{n} \sim$ Poisson $(\lambda)$ and let $\hat{\lambda}=n^{-1} \sum_{i=1}^{n} X_{i}$. Find the bias, se, and MSE of this estimator.
♞2 Let $X_{1}, \ldots, X_{n} \sim \operatorname{Uniform}(0, \theta)$ and let $\widehat{\theta}=\max \left\{X_{1}, \ldots, X_{n}\right\}$. Find the bias, se, and MSE of this estimator.
♞3 Let $X_{1}, \ldots, X_{n} \sim \operatorname{Uniform}(0, \theta)$ and let $\widehat{\theta}=2 \bar{X}_{n}$. Find the bias, se, and MSE of this estimator.
学习贝叶斯学派与频率学派的方法。
统计泛函
统计推断(Statistical inference),在计算机科学中也称为学习,是利用数据推测其分布的方法。即给定样本 $X_1 , X_2,\cdots , X_n \sim F$ ,推断出 $F$
参数化模型(parametric model)能够通过一组有限参数描述。 非参数化模型:有限参数无法描述。
比如这是一个 2 参数模型:
$$ \mathfrak{F}=\left\{f(x ; \mu, \sigma)=\frac{1}{\sigma \sqrt{2 \pi}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\}, \quad \mu \in \mathbb{R}, \sigma>0\right\} $$参数模型的通用形式:
$$ \mathfrak{F} = \left\{ f(x; \theta) : \; \theta \in \Theta \right\} $$- $\theta$ 是一个位置参数,其可以在 参数空间(parameter space) $\Theta$ 中任意取值.
假设我们有数据对 $ ( X_1, Y_1 ) , \cdots ( X_n, _n ) $ 。假设 $X_i$ 表示病人 $i$ 的血压,$Y_i$ 表示病人的寿命。
则 $X$ 称为预测变量(predictor),或者 回归值(regressor),或者特征(feature),或者独立变量(independent variable),
$Y$ 称为结果(outcome),或者响应变量(response variable)或者 独立变量(dependent variable)。称 $r(x) = \mathbb{E}(Y | X = x)$ 为回归方程(regression function)。
若假设 $r \in \mathfrak{F}$
-
若 $\mathfrak{F}$ 是有限维度的,比如直线的几何,则我们得到一个参数回归模型。
-
若 $\mathfrak{F}$ 是无限维度的,则我们得到一个 非参数回归模型。
基于新病人的 $X$ 值,预测 $Y$ 值的过程称为预测。(废话?)
若 $Y$ 是离散值,则预测是分类(classification)。
若 $Y$ 是连续值,则预测是回归(regression)或者曲线估计(curve estimation)
回归模型有时可以写作:
$$ Y = r(X) + \epsilon $$其中 $\mathbb{E}(\epsilon ) = 0$。
统计量(statistic):设 $X_{1}, X_{2}, \cdots, X_{n}$ 是来自总体 $X$ 的一个样本, $g\left(X_{1}, X_{2}, \cdots, X_{n}\right)$ 是 $X_{1}, X_{2}, \cdots, X_{n}$ 的函数,若 g 中不含末知参数,则称 $g\left(X_{1}, X_{2}, \cdots, X_{n}\right)$ 是一统计量。
统计量是关于样本的 不含未知数的函数
若 $ x_1 , x_2,\cdots , x_n$ 是样本 $X_1 ,X_2,\cdots,X_n$ 的样本值,称 $g(x_1,x_2,\cdots,x_n)$ 是 $g(X_1,X_2,\cdots,X_n)$ 的观察值
设 $X_1 , X_2,\cdots , X_n$ 是来自总体 $X$ 的一个样本,$ x_1 , x_2,\cdots , x_n$ 是样本观察值。
样本平均值
下面从频率学派推断说起。
若 $\mathfrak{F} = \{ f(x; \theta) : \; \theta \in \Theta \}$ 是一个含参模型(parametric model)记
$$\mathbb{P}_\theta(X \in A) = \int_A f(x; \theta) \mathrm{d}x$$$$\mathbb{E}_\theta(X \in A) = \int_A x f(x; \theta) \mathrm{d}x$$下标 $\theta$ 表示上式相对于 $f(x; \theta)$ 定义。不代表对 $\theta$ 取均值.
推断问题可以归为三类:
-
估计(estimation)
-
置信集(confidence sets)
-
假设检验(hypothesis testing)
参数估计的两种类型:
-
区间估计:从样本估计出一个区间
-
点估计:从样本估计出一个数值
务必注意区分:
-
估计器(estimator)
-
被估量(estimand)
-
估计值(estimate)
我们观测到的相关随机变量值 $\mathbf{X} = (X_1 , X_2,\cdots , X_n)$ 称为 观测值、测量值、观测向量(observation)
而估计器、估计子(estimator)是随机变量:
$$ \hat{\theta }_n = g(\mathbf{X}) $$在有的书上,用大写 $\hat{\Theta }_n$
它是关于未知参数 $\theta $ 的一个估计器。
其期望和方差记为 $\mathbb{E}(\hat{\theta }_n)$,$\mathbb{V}(\hat{\theta }_n)$
估计误差(estimation error)记为:
$$ \tilde{\theta }_{n}=\hat{\theta }_{n}-\theta $$估计器的偏差(bias of an estimator)定义为:
$$ \operatorname{bias}(\hat{\theta }_n) = \mathbb{E}_ \theta (\hat{\theta _n}) - \theta $$若 $\mathbb{E}(\hat{\theta }_n) = \theta $ ,则称 $\hat{\theta }_n$ 是无偏的估计器。即 如果平均估计误差是零, 则得到一个无偏的估计器
称 $\hat{\theta}_{n}$ 渐近无偏, 若 $\lim _{n \rightarrow \infty} \mathrm{E}_{\theta}\left[\hat{\theta}_{n}\right]=\theta$ 对于 $\theta$ 所有可能的取值都成立
我们希望随着数据的增加,估计器越来越收敛到“真实”值,因此:
定义:点估计器 $\hat{\theta }_n$ 一致的必要条件:
$$ \widehat{\theta}_{n} \stackrel{\mathrm{P}}{\longrightarrow} \theta $$$\hat{\theta }_n$ 的分布称为 样本分布。$\hat{\theta }_n$
$\hat{\theta }_n$ 的标准偏移(standard deviation)为 标准误差(standard error),记作 $\operatorname{se}$ :
$$ \operatorname{se} =\operatorname{se}\left(\hat{\theta}_{n}\right)=\sqrt{\mathbb{V}\left(\hat{\theta}_{n}\right)} $$除了偏差 $\mathrm{b}_{\theta}\left(\hat{\Theta}_{n}\right)$, 我们往往对估计误差的大小感兴趣. 均方误差 $\mathrm{E}_{\theta}\left[\tilde{\Theta}_{n}^{2}\right]$ 可以捕捉到这 一信息.
下面的公式将均方误差、偏差和 $\hat{\Theta}_{n}$ 的方差联系在一起:
$$ \mathrm{E}_{\theta}\left[\tilde{\Theta}_{n}^{2}\right]=\mathrm{b}_{\theta}^{2}\left(\hat{\Theta}_{n}\right)+\operatorname{var}_{\theta}\left(\hat{\Theta}_{n}\right) $$这是公式 $\mathrm{E}\left[X^{2}\right]=(\mathrm{E}[X])^{2}+\operatorname{var}(X)$ 的应用, 其中 $X=\tilde{\Theta}_{n}$ 而期望与相应于 $\theta$ 的分布有关. 我们也利用 了事实 $\mathrm{E}_{\theta}\left[\tilde{\Theta}_{n}\right]=\mathrm{b}_{\theta}\left(\hat{\Theta}_{n}\right)$ 和 $\operatorname{var}_{\theta}\left(\tilde{\Theta}_{n}\right)=\operatorname{var}_{\theta}\left(\hat{\Theta}_{n}-\theta\right)=\operatorname{var}_{\theta}\left(\hat{\Theta}_{n}\right)$.
贝叶斯推断与后验分布
贝叶斯推断中,感兴趣的未知量记为 $\theta $ ,是一个随机变量(或者随机变量的有限几何)。$\theta $ 可以代表物理量、概率模型的位置参数等,总之是一个简单的随机变量。
目标:从观测向量 $X$ 提取 $\theta $ 的信息。
即:
输入:未知随机变量 $\theta $ 的先验分布 $p_ \theta $ 或者 $f_ \theta $,以及观测向量 $X$ 中间步骤:计算观测向量的 $p_{X|\theta} $ 或者 $f_{X|\theta} $ 再输入:$X$ 的一个特定值 输出:$\theta $ 的后验分布
针对 $\theta $ 和 $X$ 的离散、连续组合,贝叶斯法则有四种形式。
- $\Theta$ 离散, $X$ 离散:
- $\Theta$ 离散, $X$ 连续:
- $\Theta$ 连续, $X$ 㐫散:
- $\Theta$ 连续, $X$ 连续:
Example. Let $X_1, \dots, X_n \sim \text{Bernoulli}(p)$ and let $\hat{p_n} = n^{-1} \sum_i X_i$. Then $\mathbb{E}(\hat{p_n}) = n^{-1} \sum_i \mathbb{E}(X_i) = p$ so $\hat{p_n}$ is unbiased. The standard error is $\text{se} = \sqrt{\mathbb{V}(\hat{p_n})} = \sqrt{p(1-p)/n}$. The estimated standard error is $\hat{\text{se}} = \sqrt{\hat{p}(1 - \hat{p})/n}$.
均方误差:
$$ \text{MSE} = \mathbb{E}_\theta \left( \hat{\theta_n} - \theta \right)^2 $$Theorem 7.8. The MSE can be rewritten as:
$$ \text{MSE} = \text{bias}(\hat{\theta_n})^2 + \mathbb{V}_\theta(\hat{\theta_n}) $$证明. Let $\bar{\theta_n} = \mathbb{E}_\theta(\hat{\theta_n})$. Then
$$ \begin{align} \mathbb{E}_\theta(\hat{\theta_n} - \theta)^2 & = \mathbb{E}_\theta(\hat{\theta_n} - \bar{\theta_n} + \bar{\theta_n} - \theta)^2 \\ &= \mathbb{E}_\theta(\hat{\theta_n} - \bar{\theta_n})^2 + 2 (\bar{\theta_n} - \theta) \mathbb{E}_\theta(\hat{\theta_n} - \bar{\theta_n}) + \mathbb{E}_\theta(\hat{\theta_n} - \theta)^2 \\ &= (\bar{\theta_n} - \theta)^2 + \mathbb{E}_\theta(\hat{\theta_n} - \bar{\theta_n})^2 \\ &= \text{bias}^2 + \mathbb{V}_\theta(\hat{\theta_n}) \end{align} $$IID:独立同分布
参考
例题来源: