ISO/IEC 42001の参照も推奨、「AIセーフティに関する評価観点ガイド」を公表 AISI
掲載:2024年09月27日
サイバー速報
目次
政府が今年2月に設立したAIの安全性に関する専門機関「AIセーフティ・インスティテュート」(AISI)は9月18日、AI開発者やAI提供者向けに「AIセーフティに関する評価観点ガイド」を公表しました。AIシステムの開発や提供に従事する立場の人(特に、開発・提供管理者と事業執行責任者)がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示しました。
総務省と経済産業省が今年4月に策定した「AI事業者ガイドライン」をもとに、AIセーフティを「人間中心の考え方をもとに、AI活用に伴う社会的リスクを低減させるための安全性・公平性、個人情報の不適正な利用等を防止するためのプライバシー保護、AIシステムの脆弱性等や外部からの攻撃等のリスクに対応するためのセキュリティ確保、システムの検証可能性を確保し適切な情報提供を行うための透明性が保たれた状態のこと」と定義し、AIセーフティ評価とは、AIシステムがAIセーフティの観点で適切か見定めることとしました。なお、対象とするAIシステムは、大規模言語モデル(LLM)を構成要素とするAIシステム(=LLMシステム)とされています。
AIセーフティ評価の観点は、AI事業者ガイドラインにある「C.共通の指針」の記載内容と、米国、英国、シンガポールにおけるAIセーフティに関連する文献を参考にして10個が示されました。この観点は、AIセーフティにおける重要要素6つ(※1)と関連しています。
10個の評価観点とは、有害情報の出力制御▽偽誤情報の出力・誘導の防止▽公平性と包摂性▽ハイリスク利用・目的外利用への対処▽プライバシー保護▽セキュリティ確保▽説明可能性▽ロバスト性▽データ品質▽検証可能性――です。それぞれにおいて目指すべき姿(To Be)と、重要要素6つとの関係性、想定しうるリスクおよび評価項目の例を示しました。
評価手法は技術的評価とマネジメント的評価に整理されています。技術的評価は代表的なものとして、ツールによる評価とレッドチーミング(※2)による評価を挙げています。他方、マネジメント的評価では、AI事業者ガイドラインや ISO/IEC 42001:2023(情報技術-人工知能-マネジメントシステム)を参照するよう推奨しました。
※1 重要要素は、人間中心▽安全性▽公平性▽プライバシー保護▽セキュリティ確保▽透明性――の6つ。
※2 実際のシステム環境で疑似的なテストを行い、評価する手法のこと。潜在的な脆弱性の発見につながる。
おすすめ記事
- ISO/IEC 42001 情報技術 - 人工知能(AI)-マネジメントシステム‐ガイドライン解説
- AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)
- 人工知能(AI)の可能性を最大限に引き出すためのガイダンス(AIの実装と拡張に役立つCOSOフレームワークと原則の適用)
- ChatGPTをフル活用するリスクテイク文化を醸成するには
- プロンプトインジェクション
- ハルシネーション
- AIガバナンスの統一指針「AI事業者ガイドライン(第1.0版)」を公表 総務省/経産省
- AIマネジメントシステム(AIMS)の国際規格「ISO/IEC 42001」が発行、「AIの目的」を実現するための管理策を示す 経産省
- NISTのAIリスク管理フレームワーク「AI RMF 1.0」の日本語邦訳版を公開 AISI
- 大規模言語モデル(LLM)を焦点にリスクと影響を評価、初期パイロットテスト「ARIA 0.1」を公表 NIST
- 準備から実施および改善計画の策定までを網羅的に解説、「AIセーフティに関するレッドチーミング手法ガイド」を公表 AISI
- 生成AI関連市場の実態調査を開始、ディスカッションペーパーを公表し情報・意見を募る 公取委
- AIリスクマネジメントとISO/IEC42001と認証制度