「線形分類器」の版間の差分

削除された内容 追加された内容
Abionab (会話 | 投稿記録)
m編集の要約なし
→‎生成的モデルと識別的モデル: 生成的モデルへのリンクを追加。また各モデルの名前と意味付けをよりはっきりさせた。
13行目:
 
== 生成的モデルと識別的モデル ==
線形分類器 <math>\vec w</math> のパラメータを決定するは大まかは、生成的モデルと識別的モデルという2つの大分類されがある<ref>T. Mitchell, Generative and Discriminative Classifiers: Naive Bayes and Logistic Regression. Draft Version, 2005 [http://www.cs.cmu.edu/~tom/mlbook/NBayesLogReg.pdf download(PDF)]</ref><ref>A. Y. Ng and M. I. Jordan. On Discriminative vs. Generative Classifiers: A comparison of logistic regression and Naive Bayes. in NIPS 14, 2002. [http://www.cs.berkeley.edu/~jordan/papers/ng-jordan-nips01.ps download(PS)]</ref>。1番目の[[生成的モデル]][[条件付き確率]] <math>P(\vec x|{\rm class})</math> をモデル化したものである。そのようなアルゴリズムの例として以下ようなものがある。
* 線形[[判別分析]] (LDA) - [[正規分布]]モデルかつ[[等分散性]]を仮定する。
* [[単純ベイズ分類器]] - [[確率論的独立性|独立]][[二項分布]]モデルを仮定する。
 
2つめは[[番目の{{Ill2|識別モデル]]と呼ばれるもので|en|Discriminative model|label=識別モデル}}は[[{{Ill2|訓練]]集合|en|Training set|label=訓練例}}の出力の品質を最大化しようとするものである。訓練コスト関数に項を追加することで、最終モデルの正則化容易に実現行うことができる。線形分類器の識別的な訓練例として、以下ようなものがある。
* [[ロジスティック回帰]] - 観測された訓練例が分類器の出力に依存した二項分布モデルで生成されたものと見なし、<math>\vec w</math> を最尤推定する。
* [[パーセプトロン]] - 訓練例の学習時に発生した全ての誤りを正そうとするアルゴリズム