# 点估计

设总体 XX 的分布函数形式已知,但它的一个或多个参数未知,借助于总体 XX 的一个样本来估计总体未知参数的值的问题称为参数的点估计问题。

# 矩估计法

样本矩

Al=1ni=1nXil,l=1,2,,k.A_l = \frac{1}{n}\sum_{i = 1}^n X_i^l, l = 1,2,\cdots, k.

总体矩

μl=E(Xl)={xlf(x;θ1,θ2,,θk)dxX为连续型,xlp(x;θ1,θ2,,θk)X为离散型.\mu_l = E(X^l) = \begin{cases} \int_{-\infty}^{\infty}x^l f(x;\theta_1, \theta_2, \cdots, \theta_k)\text{d}x & X \text{为连续型,} \\ \sum x^l p(x;\theta_1, \theta_2, \cdots, \theta_k) & X\text{为离散型.} \end{cases}

可以用样本矩作为相应的总体矩的估计量。设(有多少个需要估计的参数就列多少个方程)

{μ1=E(X)=μ1(θ1,θ2,,θk),μ2=E(X2)=D(X)+[E(X)]2=μ2(θ1,θ2,,θk)μk=μk(θ1,θ2,,θk)\begin{cases} \mu_1 = E(X) = \mu_1(\theta_1, \theta_2, \cdots, \theta_k),\\ \mu_2 = E(X^2) = D(X) + [E(X)]^2 = \mu_2(\theta_1, \theta_2, \cdots, \theta_k)\\ \cdots\ \cdots\ \cdots \\ \mu_k = \mu_k(\theta_1, \theta_2, \cdots, \theta_k) \end{cases}

由上述方程组解出 θ1,θ2,,θk\theta_1, \theta_2, \cdots, \theta_k (用 μ1,μ2,,μk\mu_1, \mu_2, \cdots, \mu_k 表示),然后用 A1,A2,,AkA_1, A_2, \cdots, A_k 替换 μ1,μ2,,μk\mu_1, \mu_2, \cdots, \mu_k 即得总体分布中未知参数的矩估计量。

常用结论: A1=Xˉ,A2A1=1ni=1nXi2Xˉ2=1ni=1n(XiXˉ)2A_1 = \bar{X}, A_2 - A_1 = \frac{1}{n}\sum_{i = 1}^nX_i^2 - \bar{X}^2 = \frac{1}{n}\sum_{i = 1}^n (X_i - \bar{X})^2

# 最大似然估计

若总体 XX 为离散型, X1,X2,,XnX_1, X_2, \cdots, X_n 是来自 XX 的样本,对应的观察值为 x1,x2,,xnx_1, x_2, \cdots, x_n ,则这组样本取到这组对应观察值的概率为

L(θ)=L(x1,x2,,xn;θ)=i=1np(xi;θ)L(\theta) = L(x_1, x_2, \cdots, x_n; \theta) = \prod_{i = 1}^n p(x_i; \theta)

其中, θ\theta 是总体 XX 的参数, p(xi;θ)p(x_i; \theta)XX 的概率密度函数, L(θ)L(\theta) 称为样本的似然函数, θ\theta 是未知参数。一个直观的想法是,我们已经观察到样本取到 x1,x2,,xnx_1, x_2, \cdots, x_n 这组观察值,那么使这组观察值出现的概率最大的 θ\theta 就是我们要求的参数估计,记为 θ^\hat{\theta} 。这种方法称为最大似然估计法。

若总体 XX 为连续型,似然函数变为

L(θ)=L(x1,x2,,xn;θ)=i=1nf(xi;θ)L(\theta) = L(x_1, x_2, \cdots, x_n; \theta) = \prod_{i = 1}^n f(x_i; \theta)

两者都只要从方程

ddθlnL(θ)=0\frac{\text{d}}{\text{d}\theta}\ln L(\theta) = 0

中解出 θ\theta 即可。

最大似然估计的核心思想是求使得当前观测值出现的概率最大时对应的参数值。

# 估计量的标准

  1. 无偏性: E(θ^)=θ\mathbb{E}(\hat{\theta}) = \theta ,即估计量的数学期望等于真实参数值。PS:任意阶样本矩都是总体矩的无偏估计量。
  2. 有效性: 对 θ\theta 的两个无偏估计量 θ^1,θ^2\hat{\theta}_1, \hat{\theta}_2 ,若 D(θ^1)D(θ^2)D(\hat{\theta}_1) \leq D(\hat{\theta}_2) ,则称 θ^1\hat{\theta}_1 更有效。
  3. 相合性: 若 θ\theta 的估计量 θ^\hat{\theta} 当样本容量 nn\rightarrow \infty 时收敛于 θ\theta ,则称 θ^\hat{\theta}θ\theta 的相合估计量。

# 区间估计

对于给定的显著性水平 α(0<α<1)\alpha\, (0 < \alpha < 1) ,若由来自样本 X1,X2,,XnX_1, X_2, \cdots, X_n 确定的统计量 θ1,θ2\theta_1, \theta_2 ,使得

P(θ1<θ<θ2)=1αP(\theta_1 < \theta < \theta_2) = 1 - \alpha

则称 (θ1,θ2)(\theta_1, \theta_2) 为总体参数 θ\theta 的 置信水平为 1α1 - \alpha置信区间1α1 - \alpha 为置信水平。其核心思想是多次抽样得到的多个区间中,包含总体参数 θ\theta 真值的区间数量占总区间数量的比例为 1α1 - \alpha ,或每次抽样得到的区间包含 θ\theta 真值的概率为 1α1 - \alpha

补充:二项分布 B(n,p)B(n, p) 总体对 pp 的区间估计为 (p^±Zα2p^(1p^)n)\left(\hat{p} \pm Z_{\frac{\alpha}{2}}\sqrt{\frac{\hat{p}(1 - \hat{p})}{n}}\right)

# 假设检验

基本思想:对总体的参数作出假设,然后通过抽样进行统计分析,从而判断假设是否成立。弃真错误的概率为 α\alpha

提出无效假设 / 反假设(Null Hypothesis, H0H_0 )和备择假设(Alternative Hypothesis, H1H_1 ),单边( θ=θ0\theta = \theta_0 )还是双边( θ<θ0\theta < \theta_0θ>θ0\theta > \theta_0 ),选定显著性水平 α\alpha

# 正态总体

# 二项总体

  1. 单个总体检验:

    检验统计量 Z=p^p0p^(1p^)nZ = \frac{\hat{p} - p_0}{\sqrt{\frac{\hat{p}(1 - \hat{p})}{n}}}p0p_0 为假设的总体比例, nn 为样本容量, p^\hat{p} 为样本比例。

H0H_0H1H_1拒绝域
p=p0p = p_0pp0p \neq p_0z>Zα2\|z\| > Z_{\frac{\alpha}{2}}
pp0p \leq p_0p>p0p > p_0z>Zαz > Z_\alpha
pp0p \geq p_0p<p0p < p_0z<Zαz < -Z_\alpha
2. 两个总体检验:

检验统计量 Z=p^1p^2p^(1p^)(1n1+1n2)Z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1-\hat{p})\left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} ,其中 p^=x1+x2n1+n2\hat{p} = \frac{x_1 + x_2}{n_1 + n_2}x1,x2x_1,x_2 为关注样本的频数, p^1,p^2\hat{p}_1, \hat{p}_2 分别为两个样本比例, n1,n2n_1, n_2 分别为两个样本容量。

H0H_0H1H_1拒绝域
p1=p2p_1 = p_2p1p2p_1 \neq p_2z>Zα2\|z\| > Z_{\frac{\alpha}{2}}
p1p2p_1 \leq p_2p1>p2p_1 > p_2z>Zαz > Z_\alpha
p1p2p_1 \geq p_2p1<p2p_1 < p_2z<Zαz < -Z_\alpha

# 卡方列联表

11122\cdotsjj\cdotsTotal
11n11n_{11}n12n_{12}\cdotsn1jn_{1j}\cdotsn1n_{1\cdot}
22n21n_{21}n22n_{22}\cdotsn2jn_{2j}\cdotsn2n_{2\cdot}
\vdots\vdots\vdots\vdots\vdots\vdots\vdots
iini1n_{i1}ni2n_{i2}\cdotsnijn_{ij}\cdotsnin_{i\cdot}
\vdots\vdots\vdots\vdots\vdots\vdots\vdots
Totaln1n_{\cdot 1}n2n_{\cdot 2}\cdotsnjn_{\cdot j}\cdotsnn

χ2=i=1rj=1c(nijninjn)ninjn\chi^2 = \sum_{i = 1}^{r}\sum_{j = 1}^{c}\frac{(n_{ij} - \frac{n_{i\cdot} n_{\cdot j}}{n})}{\frac{n_{i\cdot} n_{\cdot j}}{n}}

其中 r,cr, c 分别为行数和列数。当 χ2χα2((r1)(c1))\chi^2 \geq \chi_\alpha^2((r - 1)(c - 1)) 时,拒绝 H0H_0 ,否则接受 H0H_0

# pp 值法

假设检验问题的 pp 值是由检验统计量的样本观察值得出的原假设可被拒绝的最小显著性水平。若 pαp \leq \alpha ,则拒绝 H0H_0 ,否则接受 H0H_0

看一个例子:

参考资料:《概率论与数理统计》第五版 (盛骤等),高等教育出版社