ガイダンス「AI・機械学習のサプライチェーンリスクと緩和策」に共同署名 NCO
内閣官房国家サイバー統括室(NCO)は3月5日、AIおよび機械学習システムの導入に伴う特有の脅威と対策をまとめた国際文書(ガイダンス)に共同署名したと発表しました。ガイダンスは当初、豪州通信情報局(ASD)のサイバーセキュリティセンター(ACSC)が単独で2025年10月に策定したものを、日本などが署名し、国際共同版として改訂されたものです。
ガイダンスの正式名称は「Artificial intelligence and machine learning: Supply chain risks and mitigations」です。日本のほか米国、英国、カナダ、ニュージーランド、韓国、シンガポール、豪州の8カ国の政府サイバー機関が共同で署名しました。AIシステムを自社開発または外部から調達・導入する組織の担当者を対象としています。AIおよび機械学習のサプライチェーンセキュリティについて重要性を強調し、ベンダー選定時の透明性確保(SBOM/AIBOMの要求)、契約条項での責任分担、継続監視といったベストプラクティスを提供しています。
AIのサプライチェーンは、学習データ▽機械学習モデル▽ソフトウェア▽ハードウェア(AIアクセラレータデバイス)▽サードパーティサービスといった複雑なコンポーネントで構成されており、それぞれが攻撃の標的になります。例えば、学習データではデータポイズニング(学習データに悪意ある変更を加え、機械学習モデルのパフォーマンスを低下させたり、特定のデータに対して意図しない挙動を引き起こさせたりする攻撃)が、機械学習モデルではステゴマルウェア(大容量かつ複雑な機械学習モデルの構造を隠れ蓑にしてマルウェアを仕込む手口)やシリアライゼーション攻撃(悪意あるコードを追加し、ユーザーがファイルを読み込んだ際にマルウェアが実行される手口)が代表的です。これらは生成AIや機械学習モデルの普及で攻撃の機会と影響が増大しています。
今回の改訂版ガイダンスでは、外部から取得したAIデータは内部環境に直接入れず、まずは独立した環境で悪意のあるコンテンツが含まれていないか検証する「隔離(検疫)とテスト」の実施や、導入後もAIモデルの汚染や劣化がないか継続的に監視する「パフォーマンステスト」の実装などが推奨されています。また、既存のリスク管理を見直す必要があると言及しています。
なお、ガイダンスで説明されているリスクは、米国国立標準技術研究所(NIST)の「敵対的機械学習(AML)タクソノミー」や非営利組織MITRE(マイター)のATLAS(AI版ATT&CK、人工知能システムに対する敵対的脅威マトリクス)にある「サプライチェーン侵害」に対応付けされています。