大阪大学 大学院 基礎工学研究科
システム創成専攻(数理科学)
2019年度 数理科学 I [5]




(1)

\begin{align} E [ T(\alpha) ] &= \sum_{i=1}^n \alpha_i E[X_i] \\ &= \mu \sum_{i=1}^n \alpha_i \\ \text{Cov} [ T(\alpha), T(\beta) ] &= \sum_{i=1}^n \sum_{j=1}^n \alpha_i \beta_j \text{Cov} [X_i, X_j] \\ &= \sum_{i=1}^n \alpha_i \beta_i V [X_i] + \sum_{i \neq j} \alpha_i \beta_j \text{Cov} [X_i, X_j] \\ &= \sigma^2 \sum_{i=1}^n \alpha_i \beta_i + \theta \sum_{i \neq j} \alpha_i \beta_j \\ &= \left( \sigma^2 - \theta \right) \sum_{i=1}^n \alpha_i \beta_i + \theta \sum_{i=1}^n \sum_{j=1}^n \alpha_i \beta_j \\ &= \left( \sigma^2 - \theta \right) \sum_{i=1}^n \alpha_i \beta_i + \theta \sum_{i=1}^n \alpha_i \sum_{j=1}^n \beta_j \end{align}

(2)

\begin{align} V[T(\alpha)] &= \text{Cov} [ T(\alpha), T(\alpha) ] \\ &= \left( \sigma^2 - \theta \right) \sum_{i=1}^n \alpha_i^2 + \theta \sum_{i=1}^n \alpha_i \sum_{j=1}^n \alpha_j \\ &= \left( \sigma^2 - \theta \right) \sum_{i=1}^n \alpha_i^2 + \theta \left\{ \sum_{i=1}^n \alpha_i \right\}^2 \end{align}

(3)

$T(\alpha)$ が $\mu$ の不偏推定量であるための条件は、(1) より、 \begin{align} \sum_{i=1}^n \alpha_i = 1 \end{align} であり、このとき、 \begin{align} V[T(\alpha)] = \left( \sigma^2 - \theta \right) \sum_{i=1}^n \alpha_i^2 + \theta \end{align} となる。 これを最小化するために、 ラグランジュの未定乗数 $\lambda$ を導入して、 \begin{align} f(\alpha) = \sum_{i=1}^n \alpha_i^2 - \lambda \sum_{i=1}^n \alpha_i \end{align} を考えると、 \begin{align} \frac{\partial f}{\partial \alpha_i} = 2 \alpha_i - \lambda \end{align} であるから、 \begin{align} \alpha_1 = \alpha_2 = \cdots = \alpha_n = \frac{1}{n} , \ \ \lambda = \frac{2}{n} \end{align} のとき、 $f(\alpha)$ したがって $V[T(\alpha)]$ が最小になる。 このとき、 \begin{align} V[T(\alpha)] &= \left( \sigma^2 - \theta \right) \cdot \frac{1}{n} + \theta \\ &= \frac{\sigma^2 + (n-1) \theta}{n} \end{align} である。