ISO/IEC 42001の参照も推奨、「AIセーフティに関する評価観点ガイド」を公表 AISI

掲載:2024年09月27日

サイバー速報

         
目次

政府が今年2月に設立したAIの安全性に関する専門機関「AIセーフティ・インスティテュート」(AISI)は9月18日、AI開発者やAI提供者向けに「AIセーフティに関する評価観点ガイド」を公表しました。AIシステムの開発や提供に従事する立場の人(特に、開発・提供管理者と事業執行責任者)がAIセーフティ評価を実施する際に参照できる基本的な考え方を提示しました。

総務省と経済産業省が今年4月に策定した「AI事業者ガイドライン」をもとに、AIセーフティを「人間中心の考え方をもとに、AI活用に伴う社会的リスクを低減させるための安全性・公平性、個人情報の不適正な利用等を防止するためのプライバシー保護、AIシステムの脆弱性等や外部からの攻撃等のリスクに対応するためのセキュリティ確保、システムの検証可能性を確保し適切な情報提供を行うための透明性が保たれた状態のこと」と定義し、AIセーフティ評価とは、AIシステムがAIセーフティの観点で適切か見定めることとしました。なお、対象とするAIシステムは、大規模言語モデル(LLM)を構成要素とするAIシステム(=LLMシステム)とされています。

AIセーフティ評価の観点は、AI事業者ガイドラインにある「C.共通の指針」の記載内容と、米国、英国、シンガポールにおけるAIセーフティに関連する文献を参考にして10個が示されました。この観点は、AIセーフティにおける重要要素6つ(※1)と関連しています。

10個の評価観点とは、有害情報の出力制御▽偽誤情報の出力・誘導の防止▽公平性と包摂性▽ハイリスク利用・目的外利用への対処▽プライバシー保護▽セキュリティ確保▽説明可能性▽ロバスト性▽データ品質▽検証可能性――です。それぞれにおいて目指すべき姿(To Be)と、重要要素6つとの関係性、想定しうるリスクおよび評価項目の例を示しました。

評価手法は技術的評価とマネジメント的評価に整理されています。技術的評価は代表的なものとして、ツールによる評価とレッドチーミング(※2)による評価を挙げています。他方、マネジメント的評価では、AI事業者ガイドラインや ISO/IEC 42001:2023(情報技術-人工知能-マネジメントシステム)を参照するよう推奨しました。

※1 重要要素は、人間中心▽安全性▽公平性▽プライバシー保護▽セキュリティ確保▽透明性――の6つ。
※2 実際のシステム環境で疑似的なテストを行い、評価する手法のこと。潜在的な脆弱性の発見につながる。