定番の本です。
1. 序論
2. 確率分布
3. 線形回帰モデル
4. 線形識別モデル
5. ニューラルネットワーク
6. カーネル法
7. 疎な解を持つカーネルマシン
8. グラフィカルモデル
9. 混合モデルとEM
10. 近似推論法
11. サンプリング法
12. 連続潜在変数
13. 系列データ
14. モデルの結合
1. Introduction
2. Probability Distributions
3. Linear Models for Regression
4. Linear Models for Classification
5. Neural Networks
6. Kernel Methods
7. Sparse Kernel Machines
8. Graphical Models
9. Mixture Models and EM
10. Approximate Inference
11. Sampling Methods
12. Continuous Latent Variables
13. Sequential Data
14. Combining Models
これも定番の本です。
1. Introduction
2. Overview of Supervised Learning
3. Linear Methods of Regression
4. Linear Methods for Classification
5. Basis Expansion and Regularization
6. Kernel Smoothing Methods
7. Model Assessment and Selection
8. Model Inference and Averaging
9. Additive Models, Trees, and Related Methods
10. Boosting and Additive Trees
11. Neural Networks
12. Support Vector Machines and Flexible Discriminants
13. Prototype Methods and Nearest-Neighbors
14. Unsupervised Learning
15. Random Forests
16. Ensemble Learning
17. Undirected Graphical Models
18. High-Dimensional Problems : p>>N
1. Introduction
2. Probability
3. Generative models for discrete data
4. Gaussian models
5. Bayesian statistics
6. Frequentist statistics
7. Linear regression
8. Logistic regression
9. Generalized linear models and the exponential family
10. Directed graphical models (Bayes nets)
11. Mixture models and the EM algorithm
12. Latent linear models
13. Sparse linear models
14. Kernels
15. Gaussian processes
16. Adaptive basis function models
17. Markov and hidden Markov models
18. State space models
19. Undirected graphical models (Markov random fields)
20. Exact inference for graphical models
21. Variational inference
22. More variational inference
23. Monte Carlo inference
24. Markov chain Monte Carlo (MCMC) inference
25. Clustering
26. Graphical model structure learning
27. Latent variable models for discrete data
28. Deep learning
1. 必要な数学的知識
2. 文書および単語の数学的表現
3. クラスタリング
4. 分類
5. 系列ラベリング
6. 実験の仕方など
1. はじめに
2. 教師あり学習
3. 教師なし学習と前処理
4. データの表現と特徴量エンジニアリング
5. モデルの評価と改良
6. アルゴリズムチェーンとパイプライン
7. テキストデータの処理
8. おわりに
1. 機械学習プロジェクトのはじめ方
2. 機械学習で何ができる?
3. 学習結果を評価しよう
4. システムに機械学習を組み込む
5. 学習のためのリソースを収集しよう
6. 効果検証
7. 映画の推薦システムをつくる
8. Kickstarterの分析、機械学習を使わないという選択肢
9. Uplift Modelingによるマーケティング資源の効率化
1. 集合知への招待
2. 推薦を行う
3. グループを見つけ出す
4. 検索とランキング
5. 最適化
6. ドキュメントフィルタリング
7. 決定木によるモデリング
8. 価格モデルの構築
9. 高度な分類手法:カーネルメソッドとSVM
10. 特徴を発見する
11. 進化する知性
12. アルゴリズムのまとめ
A. サードパーティによるライブラリたち
B. 数式
C. 日本語のテキスト処理
I. パターン認識と学習
1. パターン認識と統計科学
2. いろいろなパターン識別手法
3. 統計的意思決定としてのパターン識別
4. クラスタリングとベクトル量子化
5. 時系列パターン情報の認識
6. 学習と統計科学
II. カーネル法の理論と実際
1. カーネル法とは
2. カーネル関数と学習問題
3. 教師つき学習のためのカーネル法
4. 教師なし学習のカーネル法
5. 事前知識を反映したカーネル
III. 推定量を組み合わせる
1. 何が問題か
2. 組合せの方法
3. モデルの拡大
4. バギング
5. ブースティング
I. はじめに
1. 機械学習とは
2. 学習モデル
II. 教師付き回帰
3. 最小二乗学習
4. 制約付き最小二乗学習
5. スパース学習
6. ロバスト学習
III. 教師付き分類
7. 最小二乗学習に基づく分類
8. サポートベクトル分類
9. アンサンブル分類
10. 確率的分類
11. 系列データの分類
IV. 教師なし学習
12. 異常検出
13. 教師なし次元削減
14. クラスタリング
V. 発展的話題
15. オンライン学習
16. 半教師付き学習
17. 教師付き次元削減
18. 転移学習
19. マルチタスク学習
VI. おわりに
20. まとめと今後の展望