ディープラーニング 5分でわかる!活性化関数の実装方法(Python) 活性化関数には、中間層でよく使われる「シグモイド関数」や「ReLU(ランプ関数)」、出力層で使われる「恒等関数」や「ソフトマックス関数」があります。どれも聞きなれない名前が付いているので、いっけん難しそうに思えますが、実際にプログラムでこれらの関数を作ってみると、わずか数行のコードでできてしまうほど簡単です。そこで今回は、Python(バージョン3)での活性化関数の実装方法をまとめてみました。 2019.06.19 2019.06.20 ディープラーニング
ディープラーニング 活性化関数がディープラーニングに必要な理由 ディープラーニングやその基礎となるニューラルネットワークには「活性化関数」が欠かすことができません。この活性化関数を使うことにより、ニューラルネットワークは人間の脳のように複雑な表現ができると言われています。しかしなぜ、活性化関数を使えば複雑な表現ができるのでしょうか? そこで今回は、ニューラルネットワークやそれを応用したディープラーニングで「活性化関数」が必要な理由をまとめてみました。 2019.06.06 2024.01.21 ディープラーニング