活性化関数(かっせいかかんすう、: activation function)もしくは伝達関数(でんたつかんすう、: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。

概要 編集

よく使われているモデルでは、人工ニューロンは1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの重み付け総和から、活性化関数を通して、出力を生成する。

 

数式では、以下の が活性化関数。

 

古典的にはステップ関数が提案された。他にもいろいろと考えることはできる。1986年のバックプロパゲーションの発表以降はシグモイド関数が最も一般的だった。現在はReLUランプ関数)の方が良いと言われる[1]。活性化関数は単調増加関数が使われる事が多い。必ずしもそうしなければいけないという物でもなく動径基底関数なども使われる。

種類 編集

人工神経の活性化関数は、ネットワークを強化または単純化するような特性を持つものが選ばれる。実際、線型伝達関数を使った多層パーセプトロンには、全く等価な単層ネットワークが必ず存在する。したがって、多層ネットワークの利点を生かすには非線形関数が必須である。

以下ステップ関数と線形結合の説明では、人工神経への全入力の重み付けされた総和を u で表し、入力数を n で表す。

 

ここで w はシナプスの重み付けベクトルであり、x は入力ベクトルである。これはバイアス項を加える前の値。

ステップ関数 編集

1943年の、いわゆる「マカロックとピッツ」の発表で提案されたもの。

ステップ関数の出力 y は 0 か 1 の二値であり、u がしきい値 b より大きいか小さいかで出力が決定される。入力の総和がしきい値以上であるとき、出力信号が 1 として出力される。

 
 

パーセプトロン 編集

パーセプトロンでは、前述のモデルから、線型和にバイアス値 b を加えることが提案された。

 
 

一般にこのような純粋な形式の伝達関数は回帰設定の場合のみしか使えない。二値分類設定では出力の符号で 1 または 0 に対応させる。これはすなわち、上述のステップ関数で b の符号を反転した場合と等価であり、学習アルゴリズムで有効である。

シグモイド関数 編集

 

比較的単純な非線形関数であるシグモイド関数は、微分の計算も容易であることから1986年に発表されたバックプロパゲーションを伴うニューラルネットワークで使われる。ネットワークを数学的に扱うことが容易になるため、シミュレーションの計算負荷を減らしたいと思っていた初期の研究者がシグモイド関数をこぞって採用した。

 
ς型の関数の比較

1990年代になり、活性化関数は原点を通すべきと言う考えから、標準シグモイド関数よりもそれを線形変換した tanh の方が良いと提案された[2][3]

 

ソフトサイン 編集

下記関数をソフトサイン(: softsign)と呼び、2010年の Xavier Glorot らの研究では tanh と同程度に良かった[3]

 

ソフトプラス 編集

 
青がReLU(ランプ関数)、緑がソフトプラス

下記関数をソフトプラス(: softplus)と呼び、これが活性化関数として使われることもある。

 

ReLU(ランプ関数) 編集

2011年、Xavier Glorot らは隠れ層の活性化関数としてmax(0, x) を使った方がtanhやソフトプラスよりも改善するということを発表した[4]。一般的にはこれはランプ関数と呼ばれるが、ニューラルネットワークの世界ではReLU (: Rectified Linear Unit, Rectifier正規化線形関数)と呼ばれる。ヤン・ルカンジェフリー・ヒントンらが雑誌ネイチャーに書いた論文では、2015年5月現在これが最善であるとしている[1]。発想としては区分線形関数を使った1次スプライン補間である。線形補間を参照。

 

2013年にmax(0.01x, x) がLReL (leaky rectified linear) と命名された。ただし、命名者はこの活性化関数を使う意味はなかったと報告している[5]

2018年にx*sigmoid(x) がSwish (あるいはSiLU, sigmoid weighted linear) と命名された。この関数はReLUよりも高い分類精度を得ることができると示されている[6]

切断冪関数 編集

ランプ関数(ReLU)を一般化すると切断冪関数になり、n次スプライン補間。2乗はクォーターパイプ関数(: quarter-pipe)とも呼ばれる[7]

 

多項式 編集

2次以上の多項式も非線形関数であり、活性化関数に使える。

 

絶対値 編集

絶対値はReLU(ランプ関数)と同様、線形に近い非線形関数。傾きが0の場所が無いという特徴がある。

 

Snake 編集

2020年に Liu Ziyin らが提案したSnake関数は正弦関数を使用した単調増加の関数であり、ReLU等に比べ周期的な入力に対しより頑健になることが期待される[8]

 

三角関数 編集

2020年に Vincent Sitzmann らが活性化関数に正弦関数を使う物をSIREN(Sinusoidal representation networks)と命名した。画像や音声等の情報をニューラルネットワークへ符号化するタスクにおいて、他の活性化関数よりも高い精度を得られたことが確認されている。[9]

 

動径基底関数 編集

1988年に David S. Broomhead らが活性化関数に動径基底関数を使う物を動径基底関数ネットワーク(RBFネットワーク, radial basis function network)と命名した。[10]

 

ウェーブレット 編集

1992年に Qinghua Zhang らが活性化関数にウェーブレットを使う物をウェーブレットネットワークと命名した[11]

maxout 編集

2013年に Ian J. Goodfellow らが発表した活性化関数[12]。通常の活性化関数は実数から実数への写像であるが、活性化関数 maxout は(線形変換した後の)複数の実数の値に対する最大値を出力とする。発表者は dropout(層内を全結合にしない手法)との併用で論文を書いている。

出力層の活性化関数と誤差関数 編集

出力層は隠れ層とは区別して設計する。活性化関数と誤差関数をセットで設計する必要がある。そして、問題の種類ごとにそれらは異なる。絶対的なルールはないが、下記の方法が一般的な方法である。ここであげた手法は誤差関数の偏微分が全て出力と目標値の差になっていて扱いやすい。

変数の使い方は以下の通り。

  •  :訓練データの個数
  •  :n番目の訓練データの目標値
  •  :n番目の訓練データの出力

回帰 編集

  • 活性化関数: 
  • 誤差関数: 
  • 誤差関数の偏微分: 

二値分類 編集

出力は1つで確率と解釈する。  は 0 または 1 もしくは確率。誤差関数は最尤推定で導出できる。

  • 活性化関数: 
  • 誤差関数: 
  • 誤差関数の偏微分: 

多クラス分類 編集

K 個のクラスに分類する。出力は K 個で、総和は 1 であり、そのクラスに所属する確率と解釈する。  は 0 または 1 もしくは確率で、n 番目の訓練データがクラス k に所属する時 1。 交差エントロピーを使用している。この活性化関数はソフトマックス関数と呼ばれる。このまま計算すると浮動小数点数に入りきらなく、オーバーフローすることが多いが、  は全て同じ数を引いた場合は結果が同じになる事を利用して、  を全てから減算して活性化関数を計算すると良い。

  • 活性化関数: 
  • 誤差関数: 
  • 誤差関数の偏微分: 

論理演算 編集

論理演算の実装を、活性化関数が、マカロックとピッツのモデル(ステップ関数)の場合とランプ関数(ReLU)の場合とで示す。よく知られているように、中間層のニューロセルの無い単純パーセプトロンでは、線形分離不可能なものは扱えない。例えばこの例では、2入力のXORを実装できないため、実際に以下に示すようにXORでは中間層が必要になっている。真 = 1で偽 = 0、ReLU は真 = 1で偽 = -1である。ReLUは出力の正負で真偽を判断する。

論理演算
論理演算 ステップ関数 ランプ関数(ReLU)
NOT    
AND    
OR    
XOR    

関数近似 編集

ランプ関数(ReLU)にて   を近似してみる。

訓練データ
(x, y) = {(-3, 9), (-2, 4), (-1, 1), (0, 0), (1, 1), (2, 4), (3, 9)}
学習結果
 

これは折れ線によって近似している(線形補間)。これを一般化すると十分な数のニューロンがあれば任意の関数がランプ関数(ReLU)を活性化関数として使って表現できることが分かる。

出典 編集

  1. ^ a b Yann LeCun; Yoshua Bengio; Geoffrey Hinton (2015-05-28). “Deep learning”. Nature 521 (7553): 436-444. doi:10.1038/nature14539. 
  2. ^ Yann LeCun; Leon Bottou; Genevieve B. Orr; Klaus-Robert Muller (1998). Efficient BackProp. http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf. 
  3. ^ a b Xavier Glorot; Yoshua Bengio (2010). Understanding the difficulty of training deep feedforward neural networks. http://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf. 
  4. ^ Xavier Glorot; Antoine Bordes; Yoshua Bengio. “Deep Sparse Rectifier Neural Networks”. Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics (AISTATS-11) 15: 315-323. http://jmlr.csail.mit.edu/proceedings/papers/v15/glorot11a/glorot11a.pdf. 
  5. ^ Andrew L. Maas; Awni Y. Hannun; Andrew Y. Ng (2013). Rectifier Nonlinearities Improve Neural Network Acoustic Models. http://web.stanford.edu/~awni/papers/relu_hybrid_icml2013_final.pdf. 
  6. ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V. (2017-10-27). “Searching for Activation Functions”. arXiv:1710.05941 [cs]. http://arxiv.org/abs/1710.05941. 
  7. ^ Youngmin Cho; Lawrence K. Saul (2009). “Kernel Methods for Deep Learning”. Advances in Neural Information Processing Systems 22: 342-350. http://papers.nips.cc/paper/3628-kernel-methods-for-deep-learning.pdf. 
  8. ^ Ziyin, Liu; Hartwig, Tilman; Ueda, Masahito (2020-10-24). “Neural Networks Fail to Learn Periodic Functions and How to Fix It”. arXiv:2006.08195 [cs, stat]. http://arxiv.org/abs/2006.08195. 
  9. ^ Sitzmann, Vincent; Martel, Julien N. P.; Bergman, Alexander W.; Lindell, David B.; Wetzstein, Gordon (2020-06-17). “Implicit Neural Representations with Periodic Activation Functions”. arXiv:2006.09661 [cs, eess]. http://arxiv.org/abs/2006.09661. 
  10. ^ Broomhead, David S.; Lowe, David (1988). Radial basis functions, multi-variable functional interpolation and adaptive networks. http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA196234. 
  11. ^ Qinghua Zhang; Albert Benveniste (1992). “Wavelet networks”. IEEE Trans. Neural Networks 3: 889-898. http://people.rennes.inria.fr/Albert.Benveniste/pub/Wavenets.pdf. 
  12. ^ Ian J. Goodfellow; David Warde-Farley; Mehdi Mirza; Aaron Courville; Yoshua Bengio (2013). “Maxout Networks”. 30th International Conference on Machine Learning. http://arxiv.org/abs/1302.4389.