AI装備品の研究開発を推進、「装備品等の研究開発における責任あるAI適用ガイドライン(第1版)」を公表 防衛省
防衛省はこのほど、「装備品等の研究開発における責任あるAI適用ガイドライン(第1版)」を策定、公表しました。このガイドラインは昨年7月に策定した「防衛省AI活用推進基本方針」を踏まえて策定されたものであり、防衛装備品の構想から研究開発の段階においてAIのリスクを適切に管理し、リスク低減を図るための枠組みを提供するものです。
防衛省は昨年7月、同省として初めてAI活用推進の羅針盤となる基本方針を策定しました。方針では、AIを使った装備品の研究開発について防衛省・自衛隊独自のガイドラインを策定すると明記していました。研究開発事業の計画立案や実施にあたって実施者が準拠すべき指針を示すことで、研究開発に参画する事業者が予見可能性を確保でき、装備品などへのAI利活用を推進するとしています。
ガイドラインでは原則としてAI技術を適用した装備品など(AI装備品)の試作事業を対象としています。その際のリスク管理を3ステップで行います。まず「①分類」し、「低リスクAI装備品」以外は「②法的・政策的審査」に進み、適格とされた場合は「③技術的審査」を実施します。
①分類では、破壊能力があり、AIがそれに影響を与えるかどうかで分別します。AI機能に起因する出力が破壊能力に影響を与えない場合は「低リスクAI装備品」として分類し、自己点検を基本とした軽微なリスク管理を実施します。
一方、破壊能力に影響を与える場合は②法的・政策的審査に進みます。国際法や国内法に基づいて使用が認められない装備品の研究開発を、防衛省・自衛隊が進めることはありません。完全自律型の致死性を有する兵器システム(LAWS)についても開発および使用は国際的にも認められるべきではないという立場をとっています。こうした法的・政策的観点からAI装備品の運用構想が適正であるかを確認します。不適合と判断された場合は、この時点で研究開発の実施は取りやめとなります。
他方、適合と判断された場合は「高リスクAI装備品」として③技術的審査に進みます。当該試作品が実際の配備・運用の段階となっても法令を遵守し適切なリスク軽減策が施されているかを技術的観点から確認します。
審査項目は、人間の責任の明確化▽運用者の適切な理解の醸成▽公平性の確保▽検証可能性、透明性の確保▽信頼性、有効性の確保▽安全性の確保▽国際法および国内法の遵守が確保できないものでないこと――の7つです。ガイドラインには審査項目ごとにより詳しい確認項目が明記されています。審査は、研究開発の事業開始前▽設計承認前▽試験開始前▽運用開始前といった節目ごとに行われます。