国際的なガイダンス「Engaging with Artificial Intelligence(AI)」に署名、焦点はAIシステムの「使用」 内閣府・NISC
掲載:2024年02月19日
リスクマネジメント速報
目次
内閣府科学技術・イノベーション推進事務局と内閣サイバーセキュリティセンター(NISC)は1月24日、国際的なガイダンス「Engaging with Artificial Intelligence(AI)」に署名したと発表しました。同ガイダンスは、オーストラリア政府機関の豪州サイバーセキュリティセンター(ACSC)が主導して作成したもので、カナダ、ニュージーランド、英国、米国などの関係当局とともに作成したと発表されています。内閣府科学技術・イノベーション推進事務局とNISCはガイダンス作成に協力した機関として、米国サイバーセキュリティ・インフラストラクチャー安全保障庁(CISA)などともに名を連ね、ガイダンスの参考文献には広島AIプロセス包括的政策枠組み(Hiroshima AI Process Comprehensive Policy Framework)が記載されています。
「Engaging with Artificial Intelligence(AI)」はAIシステムの「使用」に焦点を当てて作成されました。AIシステムに対する重要な脅威を挙げた上で、組織がリスクを管理しながらAIシステムをセキュアに利用できるよう、12個の緩和策を提示しています。
まず、AIが意図的または過失で被害をもたらすリスクがあるとしてリスク管理の必要性を強調した上で、AIに関する脅威としてデータポイズニング▽インプット改ざん攻撃(プロンプトインジェクション・敵対的サンプル)▽生成AIハルシネーション▽プライバシー・知的財産に関する懸念▽モデル窃取攻撃・学習データ漏えいーを挙げました。
次いでAIシステムを利用する組織に緩和策の検討を促すため、12の質問を記載しています。例えば、AIシステムは「サプライチェーンも含めて『セキュア・バイ・デザイン』か?」や「問題が発生した場合、あなたの組織はどうするのか?」などが挙げられています。
なお、このガイダンス作成に関わったのは日本を含め11か国です。また、日本は2023年11月に「セキュアAIシステム開発ガイドライン(Guidelines for Secure AI System Development)」に署名しており、こちらはAIシステムの「開発」に焦点を当てた内容となっています。
おすすめ記事
- 欧州AI法案
- AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)
- 人工知能(AI)の可能性を最大限に引き出すためのガイダンス(AIの実装と拡張に役立つCOSOフレームワークと原則の適用)
- AI(ChatGPT)に対して企業は結局何をすべきか?
- ChatGPTをフル活用するリスクテイク文化を醸成するには
- ジェネレーティブAI
- IoTセキュリティガイドライン
- エッジAI
- AIネットワーク社会推進会議による「報告書2022」と別冊「『安心・安全で信頼性のある AI の社会実装』の取組事例~グッド プラクティス集~」を公表 総務省
- 「AIがもたらす科学技術・イノベーションの変革」を特集、令和6年版の科学技術・イノベーション白書を公開 文科省
- 大規模言語モデル(LLM)を焦点にリスクと影響を評価、初期パイロットテスト「ARIA 0.1」を公表 NIST
- 社内規則や体制整備に課題、「AI利用時のセキュリティ脅威・リスク調査 調査報告書」を公表 IPA
- NISTのAIリスク管理フレームワーク「AI RMF 1.0」の日本語邦訳版を公開 AISI