活性化関数

ディープラーニング

5分でわかる!活性化関数の実装方法(Python)

活性化関数には、中間層でよく使われる「シグモイド関数」や「ReLU(ランプ関数)」、出力層で使われる「恒等関数」や「ソフトマックス関数」があります。どれも聞きなれない名前が付いているので、いっけん難しそうに思えますが、実際にプログラムでこれらの関数を作ってみると、わずか数行のコードでできてしまうほど簡単です。そこで今回は、Python(バージョン3)での活性化関数の実装方法をまとめてみました。
ディープラーニング

活性化関数がディープラーニングに必要な理由

ディープラーニングやその基礎となるニューラルネットワークには「活性化関数」が欠かすことができません。この活性化関数を使うことにより、ニューラルネットワークは人間の脳のように複雑な表現ができると言われています。しかしなぜ、活性化関数を使えば複雑な表現ができるのでしょうか? そこで今回は、ニューラルネットワークやそれを応用したディープラーニングで「活性化関数」が必要な理由をまとめてみました。