情報処理推進機構(IPA)はこのほど、AIシステムを業務で利用している企業の従業員および経営者を対象に、AIシステムに関する意識調査の結果をまとめた「AIの動作・分析・利用方法の説明に関するアンケート調査レポート」を公開しました。
本調査は、AIシステムの動作や分析内容、利用方法に関して、AIシステム提供者による説明責任の重要性が、利用者にどのように意識され、実践されているのかという観点で実施されました。調査の背景には、AIシステムを利用する際、学習モデルの動作・分析結果の根拠や、AIの性能・信頼性・正しい利用方法に関して、AIシステムの透明性とAIシステム提供者・AI業務管理者による説明責任の重要性が高まっているとしています。
アンケートは、Webアンケート形式で2025年7月18日~27日に実施され、大企業・中小企業の各400人、製造業・非製造業の各400人、合計1,600人の回答を集計したものとなっています。
アンケートでは、AIを2つのタイプに分け、2022年以降に普及したものを「生成AI」、2022年以前から利用されているものを「分類AI」と区別しています。「生成AI」の用途は、情報収集や調査、文書作成・チェック、コンテンツ生成、ソフトウェア開発など、「分類AI」の用途は、自動化や監視、制御、異常検知、予測、分析などと振り分けています。
AIを「利用している/利用したことがある」と回答した割合は生成AIが97.3%、分類AIが54.8%で、生成AIの方は業種・企業規模を問わずに利用されていることが明らかとなりました。利用経験年数は3年未満の人が86.4%となり、経験年数の浅い人が多い結果となりました。
AIの利用頻度で「毎日使う/週数日使う」と回答した割合が最も高かったのが、「情報収集・要約」(46.1%)でした。次いで「文書作成」(43.1%)、「業務処理自動化」(30.9%)が続きました。
職場でAIを利用するために参照したい情報については、「AIの基本知識」が最も多い63.9%(※1)でした。IPAはこの結果について、利用経験の不足が反映されたのではないか、と分析しています。
業務利用におけるAIの信頼性・安全性に関する懸念や不安(※2)については、「AIがなぜそう判定したか理由がわからない(高リスクの判定等)」が53.6%でした。次いで「情報漏えいがおこる(不適切なプロンプト入力など)」(48.1%)、「AIの悪用による詐欺・サイバー攻撃の対象となる」(39.5%)となり、不安を抱えつつも業務で使用している実態が伺えます。
AIの動作や分類・判定結果について、組織のだれかから説明を求めたり求められたりする機会があるかについては、「ある」と回答した人がすべての項目で50%を超えており、最多は「分類AIの判定経緯、および利用者の対処」(57.9%)で、最少は「分類AIのセキュリティ」(54.5%)でした。これにより、学習データソースやセキュリティ・プライバシー対応のほか、誤用の抑止などのリスク説明がほぼ同等に実践されているという見解を示しました。
この説明の実践について、職場でどんな課題があると感じるかという質問には、多い順に「内容が専門的すぎて説明される側は理解しにくい」(55.9%)、「説明される側のAI知識・経験が足りず理解しにくい」(54.0%)となりました。IPAはこれらのアンケート結果より、基本知識の獲得を求める声が大きいことを考慮すると、AIシステムにおける説明責任を果たす場合、基本知識と紐づけられた説明が有用である可能性を示唆しました。
※1 「きちんと理解したいとき参照する」および「業務に必要な最小限の範囲で参照する」と回答した割合
※2 「(懸念や不安が)非常に大きい」および「やや大きい」と回答した割合