リスク管理Naviリスクマネジメントの情報サイト

国際的なガイダンス「Engaging with Artificial Intelligence(AI)」に署名、焦点はAIシステムの「使用」 内閣府・NISC

掲載:2024年02月19日

リスクマネジメント速報

         
目次

内閣府科学技術・イノベーション推進事務局と内閣サイバーセキュリティセンター(NISC)は1月24日、国際的なガイダンス「Engaging with Artificial Intelligence(AI)」に署名したと発表しました。同ガイダンスは、オーストラリア政府機関の豪州サイバーセキュリティセンター(ACSC)が主導して作成したもので、カナダ、ニュージーランド、英国、米国などの関係当局とともに作成したと発表されています。内閣府科学技術・イノベーション推進事務局とNISCはガイダンス作成に協力した機関として、米国サイバーセキュリティ・インフラストラクチャー安全保障庁(CISA)などともに名を連ね、ガイダンスの参考文献には広島AIプロセス包括的政策枠組み(Hiroshima AI Process Comprehensive Policy Framework)が記載されています。

「Engaging with Artificial Intelligence(AI)」はAIシステムの「使用」に焦点を当てて作成されました。AIシステムに対する重要な脅威を挙げた上で、組織がリスクを管理しながらAIシステムをセキュアに利用できるよう、12個の緩和策を提示しています。

まず、AIが意図的または過失で被害をもたらすリスクがあるとしてリスク管理の必要性を強調した上で、AIに関する脅威としてデータポイズニング▽インプット改ざん攻撃(プロンプトインジェクション・敵対的サンプル)▽生成AIハルシネーション▽プライバシー・知的財産に関する懸念▽モデル窃取攻撃・学習データ漏えいーを挙げました。

次いでAIシステムを利用する組織に緩和策の検討を促すため、12の質問を記載しています。例えば、AIシステムは「サプライチェーンも含めて『セキュア・バイ・デザイン』か?」や「問題が発生した場合、あなたの組織はどうするのか?」などが挙げられています。

なお、このガイダンス作成に関わったのは日本を含め11か国です。また、日本は2023年11月に「セキュアAIシステム開発ガイドライン(Guidelines for Secure AI System Development)」に署名しており、こちらはAIシステムの「開発」に焦点を当てた内容となっています。

当社のWebサイトでは、サイト閲覧時の利便性やサイト運用および分析のため、Cookieを使用しています。こちらで同意をして閉じるか、Cookieを無効化せずに当サイトを継続してご利用いただくことにより、当社のプライバシーポリシーに同意いただいたものとみなされます。
同意して閉じる