AUC
公開日: 2025/06/02
AUCとは?分類モデルの判別能力を評価する指標
はじめに
AUC(Area Under the Curve)は、ROC曲線の下の面積を表し、分類モデルの性能を評価するための指標です。
モデルがどれだけ正しく陽性・陰性を識別できるかを示し、不均衡データの評価に適しています。
この記事ではAUCの基本概念や計算方法、利用シーンをわかりやすく解説します。
基本情報・概要
AUCはROC曲線(Receiver Operating Characteristic Curve)の下の面積で、0から1の値を取ります。
1に近いほど判別能力が高く、0.5はランダムな予測と同等を意味します。
- ROC曲線とは:
- 横軸:偽陽性率(False Positive Rate, FPR)
- 縦軸:真陽性率(True Positive Rate, TPR、再現率)
用語 | 説明 |
---|---|
真陽性率(TPR) | 実際の陽性のうち正しく陽性と予測された割合 |
偽陽性率(FPR) | 実際の陰性のうち誤って陽性と予測された割合 |
AUC | ROC曲線の下の面積。判別能力の総合指標 |
深掘り解説
-
AUCの解釈
- ある陽性サンプルと陰性サンプルをランダムに選んだとき、陽性がより高いスコアを得る確率。
-
ROC曲線の作成方法
分類モデルの閾値を変え、各閾値ごとのTPRとFPRをプロット。 -
メリット
- クラス不均衡に強い
- モデルの判別能力を包括的に評価可能
-
デメリット
- 実際の誤分類コストを考慮しない
- 複数モデル比較時には注意が必要
応用・発展的な使い方
- 医療診断の性能評価
- クレジットスコアリングや不正検知
- モデルのハイパーパラメータチューニング
- 多クラス分類への拡張(マルチクラスAUC)
よくある誤解と注意点
- AUCが高くても必ずしも実用的に優れているとは限らない
- ROC曲線と混同行列の評価は補完的に使うべき
- スコアの分布やビジネスの要求を考慮する必要がある
まとめ
AUCは分類モデルの判別能力を総合的に評価する強力な指標です。
特に不均衡データ問題において重要であり、ROC曲線とセットで理解すると効果的です。
モデル評価の基本として押さえておきたい概念です。