「パーセプトロン」の版間の差分

削除された内容 追加された内容
Ertyupoi (会話 | 投稿記録)
Ertyupoi (会話 | 投稿記録)
編集の要約なし
2行目:
| last = Rosenblatt
| first = Frank
| author = Rosenblatt, F.
| authorlink =
| coauthors =
21行目:
 
== 概要 ==
[[視覚]]と[[脳]]の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら[[学習]]能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、[[1969年]]に人工知能学者[[マービン・ミンスキー]]らによって[[線形分離可能]]な物しか学習できない事が指摘された事によって下火となった。他の研究者によって様々な変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になった[[ボルツマンマシン]]([[1985年]])や[[バックプロパゲーション]]([[1986年]])などによって再び注目を集めた。2009年現在でも広く使われている[[機械学習]]アルゴリズムの基礎となっている。
 
== 形式ニューロン ==
[[1943年]]に神経生理学者・外科医である[[ウォーレン・マカロック]]と論理学者・数学者である[[ウォルター・ピッツ]]によって、[[形式ニューロン]]というモデルが考えられを発表し。このモデルは[[チューリングマシン]]と同等の計算能力を持つ。<ref>{{Cite journal
|author=Warren S. McCulloch
|author2=Walter Pitts
|title=A logical calculus of the ideas immanent in nervous activity
|journal=The bulletin of mathematical biophysics
|volume=5
|issue=4
|year=1943
|month=December
|publisher=Kluwer Academic Publishers
|pages=115-133
|doi=10.1007/BF02478259
}}</ref>。このモデルは[[チューリングマシン]]と同等の計算能力を持ち、多層構造で、XOR も扱え、線形非分離な問題も扱える。
 
このモデルは、以下の通り。入出力は 0 または 1 である。
このモデルは、wを重みづけ、xを入力信号(0から1まで)、しきい値をhとするとき、Hを[[ヘヴィサイドの階段関数]]とするとき、
* w:重みづけ(実数)
* x:入力信号(0 または 1)
* h:しきい値(実数)
* H:[[ヘヴィサイドの階段関数]](出力は 0 または 1)
 
:<math>H(\sum_{i=1}^N w_ix_i-h)</math>
 
実例としては、以下の通り。XOR は3層、他は2層である。
で表される。
;AND
:<math>H(x_1 + x_2 - 1.5)</math>
;OR
:<math>H(x_1 + x_2 - 0.5)</math>
;NOT
:<math>H(-x_1 + 0.5)</math>
;XOR
:<math>H(x_1 + x_2 - 2 H(x_1 + x_2 - 1.5) - 0.5)</math>
 
マカロックらはニューロンの状態が 0 または 1 で表現できることに強くこだわっており、論文冒頭が Because of the “all-or-none” character of nervous activity で始まり二値であることを強調している。しかしながら、1986年のラメルハートらのバックプロパゲーションでは、形式ニューロンとのモデルとしての違いは、入出力が 0 または 1 の二値ではなく実数になり、二値のヘヴィサイドの階段関数が実数も出力できるシグモイド関数になった点にある。
 
== パーセプトロン ==