もうじき「AI戦略会議」が取りまとめた「AI事業者ガイドライン案」の意見公募(パブコメ)が開始されます。ガイドラインは「広島AIプロセス」の合意を踏まえ策定された国内ルールであり、パブコメを経て2024年3月までに正式に決定されます。
同ガイドラインはAIの開発者▽提供者▽利用者を含むすべてのAI関係者に対する事業者ガイドラインであり、企業に限らず公的機関を含めた組織全般が対象となります。またAIは、想定され得るすべてのAIシステム・サービスが対象となり、事業者はガイドラインを順守するためにAIガバナンスの構築が求められます。
ガイドラインでは、AIを定義した上で、基本理念・原則・指針・ガバナンスの構築について示しています。従来の「AI原則実践のためのガバナンス・ガイドライン」(経済産業省)や「AI開発ガイドライン」および「AI利活用ガイドライン」(共に総務省)を統合、改定してとりまとめられました。指針は2段構えとなっており、あらゆるAIシステムを対象とする10の原則(※)を土台とし、その上に最も高度なAIシステム(最先端の基盤モデルや生成AIなど)を対象とした指針(=高度なAIシステムに関係する事業者に共通の指針)が記されています。
AIの安全性を確保するため英国や米国などでAIの安全性研究を行う機関が創設されています。これらと連携するため、日本でもAIの安全性の評価手法を研究したり、規格を作成したりするための新組織「AIセーフティー・インスティチュート」が情報処理推進機構(IPA)に設立されることが昨年発表されおり、こちらも月内にも設置されます。
※10の原則は次の通り。
- 人間中心
- 安全性
- 公平性
- プライバシー保護
- セキュリティ確保
- 透明性
- アカウンタビリティ
- 教育・リテラシー
- 公正競争確保
- イノベーション