ReLU
公開日: 2025/06/02
ReLUとは?ニューラルネットワークの代表的な活性化関数
はじめに
ReLU(Rectified Linear Unit)は、現在のニューラルネットワークで最も広く使われている活性化関数の一つです。
シンプルな計算ながら非線形性を持ち、学習を高速かつ安定化させる特徴があります。
この記事ではReLUの基本的な仕組みや利点、注意点についてわかりやすく解説します。
基本情報・概要
ReLUは入力値が0以下のときは0を出力し、0より大きいときはそのままの値を出力する関数です。
数式で表すと以下のようになります。
[ f(x) = \max(0, x) ]
- 非線形関数でありながら計算は非常に簡単
- 負の入力に対して出力が0となるため、スパースな活性化を促進
深掘り解説
-
特徴
- 勾配消失問題を緩和し、深いネットワークの学習を容易にする
- 負の値は0にクリップされるため、一部のニューロンが「死ぬ」ことがある(死んだReLU問題)
- 計算コストが低く、大規模モデルで高速に動作
-
死んだReLU問題
ニューロンがずっと負の入力を受け続け、勾配が0となって学習しなくなる問題。
Leaky ReLUやParametric ReLUなどの改良版で対策される。 -
用途
CNNやRNNをはじめ、多くの深層学習モデルの隠れ層で標準的に使用される。
応用・発展的な使い方
- Leaky ReLU、Parametric ReLUなどの派生活性化関数
- バッチ正規化との組み合わせで学習の安定化
- GANやTransformerなど様々な最新モデルで活用
よくある誤解と注意点
-
ReLUは万能ではない
ネットワークやタスクによっては他の活性化関数が適する場合もある。 -
死んだReLU問題に注意
適切な初期化や学習率調整が重要。 -
出力範囲が0以上なので、出力の分布に偏りが出ることがある。
まとめ
ReLUはそのシンプルさと性能の良さから、深層学習における標準的な活性化関数となっています。
勾配消失の問題を大幅に軽減し、効率的な学習を支えています。
特徴と注意点を理解し、適切に使い分けることが重要です。