生成AIのセキュリティ診断サービス「AI Red Team」とモニタリングサービス「AI Blue Team」の提供を開始しました
多くの分野で生成AI、とりわけ大規模言語モデル(LLM*)の利用が増加しています。LLMへの期待が高まる中、固有の脆弱性や情報漏えい、不適切なコンテンツ生成などのリスクも明らかになってきました。生成AIを利活用する企 業は、これらの問題を把握し、適切な対策を施すことが重要です。
NRIセキュアテクノロジーズは、生成AIを利用するシステムやサービスに特化したセキュリティ診断サービス「AI Red Team」の提供を2023年12月に開 始しました。本サービスでは、アプリケーションによる自動テストと専門家による疑似攻撃によってAI固有の脆弱性を効率的かつ網羅的に検出します。LLM単体のリスクだけではなく、LLMと連動するシステムやサービス全体を俯瞰し たリスクも評価できることが特長です。また、セキュリティ状況を常時モニタリングできる「AI Blue Team」の提供も2024年5月に開始し、この2つのサービスを組み合わせることで継続的なセキュリティ対策を実現します。
NRIグループはこれからも、便利で安全安心なデジタル社会の実現をめざし、より良いAIの利活用に向けた調査・研究や情報発信、ソリューション開発、セキュリティ構築など包括的な取り組みを推進していきます。
*Large Language Modelの略で、膨大なテキストデータから学習することで高度な言語理解を実現した自然言語処理モデル
- 関連するSDGs
-