リスク管理Naviリスクマネジメントの情報サイト

AI事業者ガイドライン案の意見公募や新組織「AIセーフティー・インスティチュート」の立ち上げ間近 政府

掲載:2024年01月12日

リスクマネジメント速報

         
目次

もうじき「AI戦略会議」が取りまとめた「AI事業者ガイドライン案」の意見公募(パブコメ)が開始されます。ガイドラインは「広島AIプロセス」の合意を踏まえ策定された国内ルールであり、パブコメを経て2024年3月までに正式に決定されます。

同ガイドラインはAIの開発者▽提供者▽利用者を含むすべてのAI関係者に対する事業者ガイドラインであり、企業に限らず公的機関を含めた組織全般が対象となります。またAIは、想定され得るすべてのAIシステム・サービスが対象となり、事業者はガイドラインを順守するためにAIガバナンスの構築が求められます。

ガイドラインでは、AIを定義した上で、基本理念・原則・指針・ガバナンスの構築について示しています。従来の「AI原則実践のためのガバナンス・ガイドライン」(経済産業省)や「AI開発ガイドライン」および「AI利活用ガイドライン」(共に総務省)を統合、改定してとりまとめられました。指針は2段構えとなっており、あらゆるAIシステムを対象とする10の原則(※)を土台とし、その上に最も高度なAIシステム(最先端の基盤モデルや生成AIなど)を対象とした指針(=高度なAIシステムに関係する事業者に共通の指針)が記されています。

AIの安全性を確保するため英国や米国などでAIの安全性研究を行う機関が創設されています。これらと連携するため、日本でもAIの安全性の評価手法を研究したり、規格を作成したりするための新組織「AIセーフティー・インスティチュート」が情報処理推進機構(IPA)に設立されることが昨年発表されおり、こちらも月内にも設置されます。

※10の原則は次の通り。

  1. 人間中心
  2. 安全性
  3. 公平性
  4. プライバシー保護
  5. セキュリティ確保
  6. 透明性
  7. アカウンタビリティ
  8. 教育・リテラシー
  9. 公正競争確保
  10. イノベーション
当社のWebサイトでは、サイト閲覧時の利便性やサイト運用および分析のため、Cookieを使用しています。こちらで同意をして閉じるか、Cookieを無効化せずに当サイトを継続してご利用いただくことにより、当社のプライバシーポリシーに同意いただいたものとみなされます。
同意して閉じる