Topiqlo ロゴ

ReLU

公開日: 2025/06/02

ReLUとは?ニューラルネットワークの代表的な活性化関数

はじめに

ReLU(Rectified Linear Unit)は、現在のニューラルネットワークで最も広く使われている活性化関数の一つです。
シンプルな計算ながら非線形性を持ち、学習を高速かつ安定化させる特徴があります。
この記事ではReLUの基本的な仕組みや利点、注意点についてわかりやすく解説します。

基本情報・概要

ReLUは入力値が0以下のときは0を出力し、0より大きいときはそのままの値を出力する関数です。
数式で表すと以下のようになります。

[ f(x) = \max(0, x) ]

  • 非線形関数でありながら計算は非常に簡単
  • 負の入力に対して出力が0となるため、スパースな活性化を促進

深掘り解説

  • 特徴

    • 勾配消失問題を緩和し、深いネットワークの学習を容易にする
    • 負の値は0にクリップされるため、一部のニューロンが「死ぬ」ことがある(死んだReLU問題)
    • 計算コストが低く、大規模モデルで高速に動作
  • 死んだReLU問題
    ニューロンがずっと負の入力を受け続け、勾配が0となって学習しなくなる問題。
    Leaky ReLUやParametric ReLUなどの改良版で対策される。

  • 用途
    CNNやRNNをはじめ、多くの深層学習モデルの隠れ層で標準的に使用される。

応用・発展的な使い方

  • Leaky ReLU、Parametric ReLUなどの派生活性化関数
  • バッチ正規化との組み合わせで学習の安定化
  • GANやTransformerなど様々な最新モデルで活用

よくある誤解と注意点

  • ReLUは万能ではない
    ネットワークやタスクによっては他の活性化関数が適する場合もある。

  • 死んだReLU問題に注意
    適切な初期化や学習率調整が重要。

  • 出力範囲が0以上なので、出力の分布に偏りが出ることがある。

まとめ

ReLUはそのシンプルさと性能の良さから、深層学習における標準的な活性化関数となっています。
勾配消失の問題を大幅に軽減し、効率的な学習を支えています。
特徴と注意点を理解し、適切に使い分けることが重要です。