「機械学習」の版間の差分

削除された内容 追加された内容
16行目:
1959年、[[アーサー・サミュエル]]は、機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」だとした<ref>http://holehouse.org/mlclass/01_02_Introduction_regression_analysis_and_gr.html</ref>。
 
{{仮リンク|トム・M・ミッチェル|en|Tom M. Mitchell}}は、よく引用されるさらに厳格な定義として「コンピュータプログラムが、ある種のタスクTと評価尺度Pにおいて、経験Eから学習するとは、タスクTにおけるその性能をPによって評価した際に、経験Eによってそれが改善されている場合である」とした<ref> Mitchell, T. (1997). ''Machine Learning'', McGraw Hill. ISBN 0-07-042807-7, p.2.</ref>。
 
=== 一般化 ===
75行目:
; {{仮リンク|表現学習|en|Feature learning}}
: [[教師なし学習]]アルゴリズムの一部は、訓練中に提供された入力のよりよい表現を発見しようとする。古典的な例として[[主成分分析]]や[[データ・クラスタリング|クラスタ分析]]がある。入力の持つ情報は保持したまま、分類や予測の前に入力をより便利な表現に変換するアルゴリズムもある。その際に入力データが従っている未知の確率分布から入力を再建できるようにするが、その確率分布においては信じがたい例も忠実に再現する必要はない。例えば{{仮リンク|多様体学習|en|Manifold learning}}アルゴリズムは、何らかの制約下で入力の次元を低く変換して表現する。{{仮リンク|スパースコーディング|en|Sparse coding}}アルゴリズムでは、入力が疎ら(ゼロが多い)という制約下で同様の表現の変換を行う。ニューラルネットワークの[[ディープラーニング|深層学習]]は複数レベルの表現または特徴の階層を発見するもので、低いレベルで抽出した特徴から高いレベルの抽象化した特徴までを求める。知的機械は、観測されたデータを説明する偏差の潜在的要因を解きほぐす表現を学習するものだという主張もある<ref>{{Cite book| title = Learning Deep Architectures for AI | author = Yoshua Bengio | publisher = Now Publishers Inc. | year = 2009 | isbn = 978-1-60198-294-0 | page = 1–3 | url = http://books.google.com/books?id=cq5ewg7FniMC&pg=PA3 }}</ref>。
 
==== アンサンブル学習 ====
複数個の弱い学習器を統合することによって、汎化能力を向上させる手法のこと。学習器の統合の方法にはバギング,ブースティング,ランダムフォレスト等がある。この手法による汎化能力の向上に関しては実験結果から正しいと予想されているのみであり、理論的には証明されていない。応用例として、将棋ソフトのBonanzaや、IBMのWatson等が有名である。
 
== 応用分野 ==