AI事業者ガイドライン案の意見公募や新組織「AIセーフティー・インスティチュート」の立ち上げ間近 政府
掲載:2024年01月12日
リスクマネジメント速報
目次
もうじき「AI戦略会議」が取りまとめた「AI事業者ガイドライン案」の意見公募(パブコメ)が開始されます。ガイドラインは「広島AIプロセス」の合意を踏まえ策定された国内ルールであり、パブコメを経て2024年3月までに正式に決定されます。
同ガイドラインはAIの開発者▽提供者▽利用者を含むすべてのAI関係者に対する事業者ガイドラインであり、企業に限らず公的機関を含めた組織全般が対象となります。またAIは、想定され得るすべてのAIシステム・サービスが対象となり、事業者はガイドラインを順守するためにAIガバナンスの構築が求められます。
ガイドラインでは、AIを定義した上で、基本理念・原則・指針・ガバナンスの構築について示しています。従来の「AI原則実践のためのガバナンス・ガイドライン」(経済産業省)や「AI開発ガイドライン」および「AI利活用ガイドライン」(共に総務省)を統合、改定してとりまとめられました。指針は2段構えとなっており、あらゆるAIシステムを対象とする10の原則(※)を土台とし、その上に最も高度なAIシステム(最先端の基盤モデルや生成AIなど)を対象とした指針(=高度なAIシステムに関係する事業者に共通の指針)が記されています。
AIの安全性を確保するため英国や米国などでAIの安全性研究を行う機関が創設されています。これらと連携するため、日本でもAIの安全性の評価手法を研究したり、規格を作成したりするための新組織「AIセーフティー・インスティチュート」が情報処理推進機構(IPA)に設立されることが昨年発表されおり、こちらも月内にも設置されます。
※10の原則は次の通り。
- 人間中心
- 安全性
- 公平性
- プライバシー保護
- セキュリティ確保
- 透明性
- アカウンタビリティ
- 教育・リテラシー
- 公正競争確保
- イノベーション
おすすめ記事
- 欧州AI法案
- AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)
- 人工知能(AI)の可能性を最大限に引き出すためのガイダンス(AIの実装と拡張に役立つCOSOフレームワークと原則の適用)
- AI(ChatGPT)に対して企業は結局何をすべきか?
- ChatGPTをフル活用するリスクテイク文化を醸成するには
- ジェネレーティブAI
- IoTセキュリティガイドライン
- エッジAI
- AIネットワーク社会推進会議による「報告書2022」と別冊「『安心・安全で信頼性のある AI の社会実装』の取組事例~グッド プラクティス集~」を公表 総務省
- 「AIがもたらす科学技術・イノベーションの変革」を特集、令和6年版の科学技術・イノベーション白書を公開 文科省
- 社内規則や体制整備に課題、「AI利用時のセキュリティ脅威・リスク調査 調査報告書」を公表 IPA