AIが世論分断を増幅する可能性も、「AIに起因する選挙リスクとAIガバナンス米国調査レポート」を公開 IPA

掲載:2025年01月20日

サイバー速報

         
目次

情報処理推進機構(IPA)はこのほど、「AIに起因する選挙リスクとAIガバナンス米国調査レポート」の概要(日本語)と、全文(英語)を公開しました。

AIによるセキュリティ脅威と対策の検討には、AI利用で先行する米国の実態を知ることが不可欠だとして、本調査が実施されました。第3回となる今般の調査では、米国国内の選挙に関わるAI脅威の実態、米国のAIガバナンス政策の有効性などについて調査・分析が行われています。

脅威の実態については、2023年度の調査結果が再掲されました。AIは技術・利用ともに変化の最中であり、リスクの全体像はまだ見えていないとされています。脅威の例としては、従来のサイバー攻撃の強化、虚偽情報の発信・拡散、システム障害などが挙げられました。AIの大規模学習データが正しい(汚染されていない)ことを検証するのは難しく、利用者の誤用・悪用を抑止するための枠組みが必要だと述べています。

選挙に関わる脅威については、大統領選挙において、AIによる新たな脅威は生まれていない一方、AIが誤った情報の発信・拡散や情報操作をすることにより、世論分断などの既存のサイバー脅威を増幅していると見られています。対応策としては、選挙関連コンテンツは認可されたものを流通させる、既存法制の効果的活用、AI自身のセキュリティ強化など、多面的な対策が挙げられました。

AIガバナンスについては、対策としてAI権利章典(AI-BoR)、大統領令(EO14110)、リスクマネジメントフレームワーク(AI-RMF)、NISTのAI関連規格(SP8800-218Aなど)が精査され、これらのガイドラインが従来のサイバー攻撃の強化、虚偽情報の発信・拡散、システム障害といった脅威をカバーしていることがわかりました。しかし、各ガイドラインはまだ体系的に整理されておらず、中心となる枠組みがないため強制力が働きにくい点、全ての脅威についてケースの具体化・対策が示されていない点が課題だと分析しています。

このほか、米国の事例をもとにしたAIリスク対策の評価指標やその例、AI・IT専門家やセキュリティコンサルタントへのインタビュー内容が紹介されました。例えば、AI・IT専門家は「AIガバナンスは、技術の進歩に対応するため、能力開発、透明性の向上、柔軟な規制メカニズムの導入が必要」などの見解を示しています。