企業のAI活用を加速させる仕組みとは?変化し続けるAIを使いこなすためのリスクマネジメント
| 執筆者: | ニュートン・コンサルティング 編集部 |
企業におけるAI導入が急速に進む一方、「リスクが読み切れない」などの理由で活用が停滞するケースも少なくありません。AIという変化の激しい技術を適切にビジネスに組み込むには何が必要なのでしょうか。
今回は、取締役副社長 兼 プリンシパルコンサルタントの勝俣良介にインタビュー形式で話を聞きました。AI活用を真に加速させるためのポイントと、リスクマネジメントのあり方を探ります。
企業のAI活用は、なぜ進めるのが難しい?
――最近は個人でも企業でもAI活用が急速に広がっていますが、一方で「どう進めればいいのか」と悩んでいる企業も多いように感じます。実際の相談現場での近況はいかがですか?
勝俣:そうですね。日本企業の多くは、利用促進の話とリスクマネジメントの話が、どちらも中途半端になっている印象があります。前提としてAIをそこまで使い倒せていないので、リスクをどう管理すべきかという議論も深まらない。結果として、どちらも中途半端な状態で止まってしまうのだと見ています。
――中途半端になってしまう背景には、何があるのでしょうか。
勝俣:特に大企業に多いのですが、グループ全体の各事業会社でそれぞれ独自の気風があり、横の連携が弱い縦割り組織になってしまうことも要因の一つと考えられます。親会社が全社一律の「AI利活用ガイドライン」のようなものを示したとしても、実態は各事業会社に任せきりになりがちです。
――それではグループ全体でガバナンスを効かせるのは難しいですね。
勝俣:難しいですよ。私はよく「血流が悪い組織」と表現するのですが、上が指示を出しても現場まで浸透しない、あるいは現場の状況が上に吸い上げられない構造になっているんです。組織としての血流を良くしないと、AIのような変化の速い技術を適切に使いこなすことは困難だと言えます。
エアカナダの事例に学ぶ、AIに対する責任の所在
――「守り」の面では、やはりセキュリティへの懸念や学習機能による情報漏洩が真っ先に思い浮かびます。
勝俣:もちろんそれも大事ですが、AI特有のリスクはもっとビジネスの根幹に関わります。特に「品質の欠陥」が企業の法的責任に直結する点は見過ごせません。
例えば、2022年に航空会社エアカナダで、同社のWebサイトにあるAIチャットボットが顧客に対して「適用できないはずの割引料金」を案内してしまった事例があります。顧客は結局割引を受けられず「案内と違う」と訴えた際、エアカナダ側は「AIの回答に対して責任はない」と主張しましたが、最終的には損害賠償を負うこととなりました。
――AIによるミスであっても、企業としての責任を免れることはできないのですね。
勝俣:AIは効率性を高める一方、予期せぬ挙動によって命に関わる事故やこうした法的トラブルを招くリスクも孕んでいます。単に情報が漏れないかという社内の安全面だけでなく、AIが生成したアウトプットが社会や個人にどんな影響を及ぼすかという「外的影響」まで含めて評価することが、AIリスクマネジメントのベストプラクティスだと言われています。
AI活用における「最低限の一線」の重要性
――こうした事態を防ぐために、企業は具体的にどのような備えをすべきなのでしょうか?
勝俣:AI技術は日々目まぐるしいスピードで進化し、それに伴って法規制も変化を続けています。そのため、最初から全てに対して細かな基準を設けることは不可能でしょう。だからこそ、まずは「何があってもここだけは絶対に超えてはいけない」という最低限のラインを明確にすることが不可欠です。これがいわゆる“エアバッグ”的な役割となり、社員も安心して利用でき、最悪の事態を防ぐことにもつながります。
AIのみならず、企業のリスクマネジメント全般に言えることだと思います。
――確かに細かなルールが増えて煩雑になるより、わかりやすく安心感もあります。
勝俣:より実務的な観点で言えば、AIが出したアウトプットに対して、人間がその妥当性を判断できるかも重要です。例えば、イギリスでは医療機関での診断サポートにAIが導入されていました。あるとき看護師が、AIの診断に違和感を抱いたにもかかわらず「これを覆してもし間違っていたら、自分の責任になってしまう」という心理的な障壁からAIの診断に従い、誤った処置を行ってしまったと言います。
――責任の所在が曖昧だと、現場がAIに盲従してしまうリスクがありますね。
勝俣:はい。AIが提示したアウトプットに対して、誰がどのような基準で妥当性を判断するのか。人間の責任範囲を具体的に定義しておくことが、現場が安心してAIを活用するための前提条件になります。
AI活用の停滞を防ぐ「短中期プロジェクト化」のすすめ
――組織構造の課題を乗り越えるためには、具体的にどのような対応が理想的なのでしょうか。
勝俣:私はまず、「AI活用を推進するチーム」と「リスクを管理するチーム」を明確に分けるのが良いと思います。その上で、実務を進める際に非常に重要なのは、AIのような技術変化が激しい領域では、あまり長期間のプロジェクトにしないことです。
――「時間をかけて完成度を高める」という従来の手法が、AI活用においては効果的ではないということですか?
勝俣:その通りです。年単位のような大きなプロジェクトにしてしまうと、推進している間に課題自体が変わったり、あるいは全く新しいAIが登場して、当初のプロジェクトが不要になってしまったりします。だからこそ、まずは現場の業務で「何に一番時間が取られているか」といった大きな課題を解決することに焦点を当てて、短中期で回していくべきだと考えています。
――課題の選定が重要になりますね。
勝俣:はい。そして、AIリスクの管理には「ライフサイクル」の視点も欠かせません。AIは従来のITシステムなどと異なり、サービスとして提供された後も学習を続け、使い始めてから挙動が変わることも予想されます。だから、運用しながら「今どのように動いているか」を継続的に監視し、リスクを管理し続ける必要があるのです。
だからこそ、大きなプロジェクトにして一度に全てを解決するのではなく、「継続的なモニタリング」の仕組みが大事になってきます。これがAI時代に求められるリスクマネジメントであり、事務局はこの考え方に基づいて、AI活用を支えるというのが真の役割ではないでしょうか。
AIを安全に、最大限使いこなすために
――ここまでのお話を振り返ると、企業のAI活用を進化させるには、“攻めと守り”の分離と体制整備、最低限のラインの明確化、短中期プロジェクト化、ライフサイクル管理の4つがありました。
勝俣:はい。AIは特に、一度ルールを決めて終わりというわけにはいかない領域なので、動作を確かめながらリスクマネジメントの体制や方法をアップデートしていくことが、活用を進める鍵になります。
――仕組みを整えた上で、最終的にはどのようにガバナンスを機能させていけば良いのでしょうか?
勝俣:大事なのは、AIが出したアウトプットに対して「これは正しいのか、正しくないのか」という議論をどの場所でどう行うのかという点です。そうしたディスカッションやワークショップを積み重ねていくことこそが、これからのリスクマネジメントに必要なことだと思います。