最近の人工知能ブームの原因の一つに神経回路網モデルの有効性が確認されたことがある。特にそのようなモデルの一つであるディープ・ラーニング(以下DL)を応用したプログラムが囲碁界のトッププロを負かした2016年3月のニュースは衝撃的であった。さて、画像のパターン認識、自然言語処理、信用リスク判断など、DLの応用は急速に広がっているが、ビジネスに活用しようとすると必ず問題となるのが説明可能性(interpretability)である。この説明可能性は特に金融等の規制業界においては重要で、単に社内のモデルがリスク量はこの程度だと言っているので、というような説明だけでは許されない。過去のデータに対するフィッティング度合を数量的に示した上で、モデルの特徴を把握できるような分かりやすい説明が求められるのである。では、どのようなモデルなら分かりやすくて、どのようなモデルは分かりにくいのであろうか。

PDFファイルでは全文お読みいただけます。

全文ダウンロード(729KB)

執筆者情報

  • 小粥 泰樹

※組織名、職名は現在と異なる場合があります。

お問い合わせ先

『金融ITフォーカス』編集事務局focus@nri.co.jp
お問い合わせ