2026年1月号 特集 AIで異常検知 画像編 第3部第1章 定番オープンソース・ライブラリ Anomalibサポート・ページ

2026年1月号 特集 AIで異常検知 画像編 第3部第1章 定番オープンソース・ライブラリ Anomalibサポート・ページです.

表1に示した異常検知手法について,詳細を示します.

●再構成誤差系の課題と発展手法
 正常特徴だけで学習した再構成モデルでは「異常特徴は再構成できないはず」という前提で成り立っています.ところがモデルの表現力が高すぎる場合,未学習の異常まで再構成してしまい,再構成誤差が小さくなり異常検知性能が低下します.この過剰適応問題への対策として,近年の発展手法が登場しています.

 DRAEMは正常画像に人工的な疑似異常を加え,それを除去して元の正常画像を再構成するタスクを学習します.入力正常画像と再構成異常の誤差から異常マップを生成します.これにより再構成モデルは正常パターンの再構成に特化し,過剰適応を防ぎます.

 DSRは正常特徴を量子化(離散化)することで,異常特徴が正常特徴に適合しにくくなるよう設計されています.これにより再構成誤差が強調され,さらにDRAEMのように疑似異常除去の再構成も取り入れることで,過剰適応を防ぎます.

 GANomalyはGAN(敵対的生成ニューラル・ネットワーク)を使って,再構成モデルのエンコーダ,デコーダを学習します.入力画像と再構成画像の誤差ではなく,それらの潜在ベクトルの誤差から異常マップを生成します.

●模倣誤差系の課題と発展手法
 模倣誤差系の手法においても,再構成誤差系手法の過剰適応と同様の問題が生じます.生徒モデルが教師モデルの特徴を過剰に模倣していまい,異常特徴まで再現できてしまうことで,異常検知性能が低下します.近年の発展手法では,過剰適応問題を抑制する仕組みが導入されています.

 Reverse Distillationでは生徒モデルの入力が画像ではなく,教師モデルが抽出した特徴ベクトルとなります.これらの特徴はOCBEモジュールにより低次元空間に射影され,生徒モデルはその低次元特徴を元の高次元特徴へ再構成するように学習します.つまりデータの流れが教師モデルと生徒モデルで逆向きとなっており,模倣の難易度を意図的に上げることで過剰適応を防いでいます.
 推論時は教師モデルの出力した特徴ベクトルと,生徒モデルが再構成した特徴ベクトルの模倣誤差から異常マップを生成します.Reverse Distillationは模倣誤差系でありながら,再構成誤差系の性質も合わせ持った手法となります.

 EfficientADは模倣誤差系と再構成誤差系の両方の構造を組み合わせた発展手法です.
その名の通りEfficientNet系のネットワークを教師・生徒モデルとして使い,教師特徴と生徒特徴の模倣誤差として異常マップを生成します.
 学習時には誤差の大きい上位0.1%の領域のみを学習対象とするHard Feature Lossを導入し,模倣がうまくいかない場所を重点的に学習し,模倣の過剰適応を防いでいます.さらに教師 -生徒モデルに加えてオート・エンコーダーによる再構成モジュールを導入し,論理的・意味的な異常にも対応しています.
 もうひとつユニークな仕組みとして,教師モデルはImageNetで事前学習済のEfficientNetを用いますが,事前学習データであるImageNetに過剰適応するのを防ぐため,ImageNet特徴に類似する特徴に罰則を与える正則化を導入しています.この仕組みのためAnomalib実装では初回実行時に約1.5GバイトのImageNetデータ・サブセットをダウンロードして使用します.

●確率分布モデリング系
 DFMは原著論文では多変量ガウス分布を仮定した確率分布モデリング手法ですが,Anomalibの実装ではそれに加えてPCAを使った再構成誤差系手法のモードも用意されています.
そのため表1では確率分布モデリング系と再構成誤差系の2つを記載しています.

●ノンパラメトリックな手法
 DFKDEは事前学習済CNNモデルから抽出した特徴ベクトルをカーネル密度推定でモデル化し,尤度の低さを異常度として評価する確率分布モデリング系手法です.カーネル密度推定はノンパラメトリックな手法となります.

●正規化フロー系の発展手法
 CFLOW-ADでは2次元の特徴ベクトルを1次元に平たん化する必要があり,またパッチごとにフローを実行していたため推論コストが高いという問題がありました.

 FastFlowは正規化フローを2次元に拡張し,畳み込みベースのフロー構造にすることで先行手法の課題に対処し,精度を維持しつつ高速化を図りました.さらにU-Flowでは,正規化フローにU-Net型の構造を組み込み,マルチスケール特徴の統合を可能にしました.

●その他
 再構成誤差系,模倣誤差系,確率分布モデリング系,正規化フロー系,近傍探索系といったいずれのカテゴリにもあてはまらない手法もあります.

▲SuperSimpleNet
 SuperSimpleNetは自己教師あり識別モデルSimpleNetの発展手法です.
 構成は,
①特徴ベクトルを抽出する特徴抽出器
②異常検知タスクに適した表現へ変換する特徴アダプタ
③異常マスクを予測するセグメンテーション・ヘッド
④画像レベルの異常スコアを推定する分類ヘッド
から構成されています.

 学習時,正常特徴に人工的な疑似異常を加えて摂動特徴マップを生成し,セグメンテーション・ヘッドがその摂動特徴に対応する異常マスクを出力するように学習します.
 分類ヘッドはセグメンテーション・ヘッドが生成した異常マスクから画像レベルの異常スコアを推定するように訓練されます.これによりSuperSimpleNetは再構成や模倣を行わず,疑似異常を教師とした直接的な識別型異常検知モデルとなります.モデルの学習が必須となります.

▲CFA
 訓練正常特徴の代表値(平均)をメモリ・バンクとして保存し,メモリ・バンクの各パッチ特徴を中心とした球面に訓練正常特徴が集まるようにPatch Descriptorというモジュールを学習します.
 この球面空間では正常特徴は球面上にあつまり,異常パッチは球面の外側に離れます.推論時はテスト特徴をPatch Descriptorで球面空間に写像し,メモリ・バンクの対応特徴とのユークリッド距離を異常スコアとして異常判定を行います.モデルの学習が必須となります.