リスク管理Naviリスクマネジメントの情報サイト

AI(ChatGPT)に対して企業は結局何をすべきか?

掲載:2023年05月23日

ニュートン・ボイス

ChatGPT⁉ 皆さんは耳にタコができているのではないでしょうか。我々はこの技術に対して、何をすればいいのでしょうか。すでに多くの識者が「ChatGPTをこう使おう!ここは注意しろ!」と意見しています。よく分からないけれど焦った方がいいのかな、と思う気持ちが募ります。焦った方がいいのでしょうか。そもそもどうすればいいのでしょうか。

         

今起きていることは何か

まずは状況を整理しましょう。

「他人事だと思っていたことが他人事ではなくなってきた」。それが今、起きていることです。将棋のコンピュータソフトと対戦する「電脳戦」で現役のプロ棋士が2013年に初めて負けました。以後も、こうした対局は続けられましたが、トータルの戦績は人間が負け越しています。みなさんも囲碁や将棋のプロ棋士がAIと戦って負けた場面をどこかで見たことがあるのではないでしょうか。そのときの皆さんの気持ちはどんなものでしたか。それを代弁するかのような記事が日本将棋連盟のホームページに掲載されています(将棋コラム「AIの飛躍によりプロ棋士は消滅するのか?プロ棋士がAI時代を生きる上で必要なスキルとは」、2017年5月19日)。私は「とうとうそういう時代が来たんだな。コンピュータに勝てなくなった今、プロ棋士の意義ってどう変わっていくんだろう?それにしても・・・プロ棋士さん、大変だな」と、どこか他人事に感じていたものです。

AIがもたらす脅威、いや「影響」は他人事ではないのです。「AIといえども、さすがにそれはできないだろう」とかつて思っていたことを今やAIは平然とこなします。人間よりも速くプログラミングをし、立派なビジネス文章を書き、入試問題を解き、説得力のあるプレゼン資料を作ります。議事録を作成し、長文をあっという間に要約・翻訳してくれます。しかも疲れ知らず。不眠不休で働きます。途方もない記憶力を持ち、私が100年かけても読み終えることのできない本を一瞬で読破できます。言うなれば、AIは「人間の言葉が分かり、人間のように考え、人間のようにアウトプットを出せる、それでいて人間のような限界を持たないマシン」です。このようなAIを前に、私たちは何を問われているのでしょうか。

プロ棋士がそうであったように、私たちは今、付加価値を問われています。従来は人間がやってきた仕事の多くを、AIがこなせるわけです。例えば、私は文章を書くのが好きですし、割と得意な方だと思います。でも、ChatGPTは書きたいことを伝えれば、あっという間に文章を書いてくれます。となれば、私が文章を書く意義はどこにあるのでしょうか。私にしかできないことは何でしょうか。これと同じ問いが、みなさん自身にも投げかけられています。その答えを見つけるためにも、AIがもたらす影響についてもう少し掘り下げてみましょう。

AI(ChatGPT)がもたらすプラスのリスク(機会)は何か?

ChatGPTを使えばさまざまなことが実現できます。例えば、練習問題の作成。単語カードはもちろんのこと、択一式問題、自由記述式問題を作成してくれます。作るだけでなく、模範解答や採点方法、基準のガイドも示してくれます。そして、文章の作成。例えば「EV(電気自動車)とは」と入力すれば、一瞬で200文字程度の説明文を書いてくれます。文章を作れるということは要約もできるということです。数千字からなる文章を放り込むと、やはり一瞬で要約してくれます。試しに私が昨年、上梓した「なぜリスクマネジメントは組織を救うのか リーダーのための実践ガイド」(ダイヤモンド社)の下書きの一部(「なぜ、リーダーにリスクマネジメントが必要か」という4,000字近い章)を要約してもらった結果が以下です。

リーダーにとってリスクマネジメントが必要な理由は以下のようにまとめることができます。

  • 不確実性の増加: 世の中は不確実性が増し、変化が速い傾向にあります。リーダーはこの変化に対応し、不確実性を管理する必要があります。
  • リスクの多様化: 過去のリスクとは異なる新たなリスクが現れています。サイバーリスクやガバナンスリスク、風評リスクなど、企業や組織が直面するリスクは多岐にわたります。
  • 目標達成の支援: リスクマネジメントはリーダーの目標達成を支援するツールです。リスクを適切にコントロールすることで、目標の達成をより確実にすることができます。
  • 意思決定の支援: リスクマネジメントはリーダーの意思決定を助けるツールです。リスクを考慮しながら意思決定を行うことで、より良い結果を得ることができます。
  • 問題発見力・解決力の向上: リスクマネジメントは問題発見力と解決力を向上させるツールです。リスクを洗い出し、問題を明確化することで、効果的な解決策を見つけることができます。
  • リーダーの責任: リスクマネジメントは組織全体のリスクを管理するために必要ですが、その主導権はリーダーにあります。リーダーがリスクマネジメントを牽引しなければ、組織全体での取り組みは難しいです。

リーダーは組織やチームの目標達成に責任を持つ存在です。リスクマネジメントを通じて、変化に対応し、目標を達成するための意思決定を行うことが重要です。

 【出典:「なぜリスクマネジメントは組織を救うのか リーダーのための実践ガイド」(ダイヤモンド社)の下書き原稿の一部をChatGPTが要約】

悔しいですが、なかなかのものです。

以下にChatGPTの目ぼしい機能を列挙します。

  • 単語カードの作成
  • 択一式問題の作成
  • 自由記述式の問題作成
  • 顛末書の作成
  • 文章の作成
  • 文章の要約
  • カウンセリング/ファシリテーション
  • プログラミング/コーディング
  • 画像生成
    など

私が、最もその威力を見せつけられたのはプログラミングです。PDFファイルをインポートし、そこからテキストを抽出し、そのテキストを自動で要約するプログラムを書きました。ChatGPTのおかげで30分もかかりませんでした。ChatGPTがなければ3~4時間はかかっていたと思います。感動のあまり、社内で使っているコミュニケーションツール(Slack)に連携させるミニプログラムを即刻書いたくらいです。

私がやった活用法はまだ極めて初歩的な段階でしょう。世の中を見渡すとChatGPTの勢いがよく分かります。中には、ブラウザで動作する「テトリス」を作った強者もいます。ChatGPTを使ってWeb会議議事録を自動作成するツールを発表する人も出てきました。パナソニックHDは、国内全社員9万人に「GPT-3.5」ベースのAIアシスタントを導入したといいます。もはや、この勢いは止まりません。マイクロソフトは、ChatGPTを搭載させた「Microsoft 365 Copilot」を発表しました。デモをみましたが、ChatGPTに話しかけるようにお願いをするだけで、特定の目的に適ったプレゼン用のパワーポイント資料を十数秒で作成してくれました。同社は、これまで「Office」が持つ機能の10%くらいしか使われてこなかったが、ChatGPTを搭載したことで残りの90%を引き出せるようになったと謳っています。

AI(ChatGPT)がもたらすマイナスのリスクは何か?

利便性とリスクはトレードオフの関係です。大量生産方式を生み出したことで有名なフォードの1903年当時の生産能力は、1日当たり25台だったそうです。100年以上の時を経てトヨタの2021年の1日当たりの平均生産台数は12,000台です。これだけの数を生産できるということは、逆に言えば生産が停止した時の影響もそれだけ大きいということです。ChatGPTもこれだけ「便利だ」と叫ばれているということは、それだけ大きなリスクを孕んでいるに違いありません。

実際、顕在化しているリスクがあります。ごく一部ですが、具体的な事例を以下に挙げます。

要するに、リスクの種類は多岐に渡ります。これをどう捉えていくか。AIの特徴を考えることで、リスクの傾向をうかがうことができます。AIの特徴を捉えるのに一番良い方法は、公的機関が公表しているガイドラインを参照することです。例えば、米国国立標準技術研究所(NIST)が公表した「AIリスクマネジメントフレームワーク」(※)によれば、AIの信頼性を語る要素として「有効性及び信頼性」「安全性」「セキュリティと回復性」「説明及び解釈可能性」「プライバシー保護」「公平性」「説明責任と透明性」を挙げることができるそうです。これらが信頼を語る要素であるということは、その要素にこそリスクが潜んでいると言い換えることができるのではないでしょうか。

ここから見えてくるのは、(これが全てではありませんが)次の5つのリスクです。1つはプライバシーリスク。AIの能力を使えば、個人情報を推測できる可能性があります。一見、何の変哲もない情報の塊でしかなかったものが、AIの分析にかけることで、個人の特性を表す個人情報に生まれ変わり、知らないうちに企業が思っていた以上の大きなリスクを抱えていたなんてことがあるかもしれません。思い起こされるのが2019年に起きたリクナビ事件です。2019年に内定辞退率の予測データを取引先に販売していたリクルートキャリアとその利用顧客の双方が個人情報保護法違反の疑いがあるとして行政指導を受けました。

2つ目としては機密情報リスクが挙げられます。AIに限った話ではありませんが、AI技術のほとんどはクラウドサービスを使っているため、入力した自社の機密情報がAIにどのように処理されて保存されているか、追跡することは容易ではありません。また分かったとして、それら情報を消したい時に完全に消去できるかどうか、担保するのも一苦労です。これが理由でChatGPTの利用を控えている企業もあります。

3つ目は知財リスクです。AIで生成した情報でも既存の知財に抵触しないものかどうか担保されているわけではないためです。また、AI生成情報について知財の取り扱いルールが流動的で、今後、法規制がどんどん変わっていく可能性があるという点も懸念事項です。すでに、EUではAIが生成した画像や文章にAIが生成したと分かるよう、明記を求める方針を明らかにしています。

4つ目は安全性/正確性リスクです。これは、AIはたとえ間違った情報でも正しい情報であるかのように生成する可能性があるためです。人間であれば、嘘であれば自信のなさが伝わるでしょうし詐欺師でない限りは、その自信のなさは相手に自然に伝わりますが、AIは感情を持たないマシンですから、それが相手に伝わりません。AI音声アシスタントのAmazon Alexaが、「何か面白いチャレンジを提案して」とお願いした10歳の少女に対し、「携帯電話の充電器をコンセントに半分だけ差し込み、その差し込み部に見える2本の棒に小銭で触れてみて」と答えたそうです。

5つ目は悪用リスクです。便利な道具というものは、往々にして、良いことに使いたいという人にも悪いことに使いたい人にも平等に機会を与えるものです。2023年2月6日に起きたトルコ・シリア地震直後から、SNS上ではデマと見られる「原発事故」や「津波」の映像が拡散されました。AIを使わずともこうした偽動画は作れますが、AIの発達で巧妙化したフェイク映像を作り出すことができます。悪意ある者がこうした技術を手にすれば情報操作が行われ、企業側もそれを見抜くのが至難の業になっていく可能性があります。

※このフレームワークについて詳しくお知りになりたい方は、別のNAVI記事「AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)」をご覧ください

どういうリスクマネジメントが必要か?

ここまで、AIが与える影響について整理しました。さて、冒頭に提起した「AIを前にした時、私たちの付加価値とはなんであるべきなのか」の答えは見えてきたでしょうか。私自身はAIをフル活用していける人間・組織になることが、求められる付加価値を生み出すための最初の一歩だと考えています。

では、フル活用していける人間・組織になっていくためには、どうすればいいのでしょうか。4つ提案したいと思います。

  • 1. 絶対にとってはいけないリスクを明示する
  • 2. AIに関する研修を行う
  • 3. 使うのが得意な人にどんどん使わせる/議論させる
  • 4. AIに関する情報共有を促進する

まず、AIの利用について組織のトップがダイレクションを示すことです。全社に関わることはトップ自ら号令をかけないと真剣さが伝わらないからです。具体的には、自社が絶対にとってはいけないリスクを明示するのがいいでしょう。これだけ複雑な技術ですから、「あれをやるべき」「これをやるべき」という示し方をするよりも、「これだけはやらないでくれ。あとは自由にやってくれて構わない」という示し方の方が合理的です。(リスクテイクの方法については前回のボイス記事「ChatGPTをフル活用するリスクテイク文化を醸成するには」をご参照ください。)

次に、社員教育です。社員教育のテーマは3つあります。1つは、本質的なビジネス基本スキルの再教育です。ここでビジネス基本スキルとは、文章力や問題発見力、課題解決力などのスキルのことです。こういうと「えっ⁉ChatGPTのような便利技術があるのに、いまさら基本スキル?」と思うかもしれません。「便利技術から出てきたからこそ」です。喩えるなら、料理ができない人に良質な素材を渡しても美味しい料理が出来上がらないのと一緒です。AIが、私たちに良質な素材を提供してくれるようになったからこそ、私たち人間がそれを活かせるスキルを持っておかないと宝の持ち腐れになってしまいます。とりわけ問題発見力や課題解決力は重要です。なぜなら、ChatGPTに対して投げる「問い」を作るのはあなただからです。2つ目としては、今まさに、この瞬間、この文章をお読みになっているあなたが学習しているAIの特徴やリスクについて共有することです。ここに書いてある内容は、あなただけでなく社員全員が知っておきたい知識ではないでしょうか。そして3つ目は、AIのリスク評価スキルの教育です。ChatGPTなどが、社内のどこでどのような形で使われるか、想像し切ることが難しい中で、社員や部門が、自力で正しいリスク評価をして使えるようにしていくことこそが、AIリスクマネジメントの理想系だと考えます。

そういう教育をした上で、ChatGPTなど、こうした新しい技術に目がない人や、使うのが得意な人にバンバン使わせることが重要です。そのために彼らがチャレンジしやすい環境整備も視野に入れましょう。私自身、こうした技術に目がない人間の一人ですが、幸いなことに、経営に近い立場でありつつ、すぐに技術的チャレンジができる環境を与えてもらえているので、ChatGPTの社内トライアル導入などをすぐに実現させることができました。どんなにAIが組織に必要だと言われても、こうした技術にアレルギーのある人には、どうしたってハードルが高いのもまた事実です。餅は餅屋で、こういった技術が大好きな人にどんどん触らせて実験させる環境を作っていきましょう。

最後に、情報共有の場を創出することです。使いたい人や使うのが得意な人が使っているだけでは、そのナレッジはなかなか会社全体には広まりません。「こんな風に使ってるよ」「こんな風に使えそうだ」「こんなことやって痛い目を見た」「他社ではこんなことをやっているらしい」といったことを、現場、部門、事業本部、経営、取締役会など、組織内あるいは組織横断で、共有したりディスカッションしたりできる機会を設けることが大切です。

終わりに

いかがでしたでしょうか。この記事をきっかけにより真剣にAIがもたらすプラスとマイナスのリスクに向き合うことを考えていただければ幸いです。

ちなみに、今回、新たにこの記事を書こうと思ったきっかけは、書きたいことがあり過ぎたためです。AIリスクについては、数ヶ月前に一度「ChatGPTをフル活用するリスクテイク文化を醸成するには」というタイトルで記事を書かせていただきましたが、時間とスペースの都合で、書きたいことの10分の1も書けませんでした。その後、AIリスクマネジメント研修を開発することになり、書きたいことがさらに増えてしまったせいもあります。当該研修では、ここでカバーした内容はもちろんのこと、ChatGPTを具体的にどのように使うのか、どういうリスクアセスメントをすべきかなどを実演や動画も含め具体的な内容をカバーしたため、いよいよ膨大な情報の取り扱いに困ってしまった次第です。

私としては企業の皆様にとって有益な情報をまとめることができているという自負もあったので、その一部でも、なんとか伝える術はないかと考え、書いたのがこの原稿になります。ですので、少しでも多くの皆様に読んでいただけたらと思っています。

当社のWebサイトでは、サイト閲覧時の利便性やサイト運用および分析のため、Cookieを使用しています。こちらで同意をして閉じるか、Cookieを無効化せずに当サイトを継続してご利用いただくことにより、当社のプライバシーポリシーに同意いただいたものとみなされます。
同意して閉じる