ChatGPTをフル活用するリスクテイク文化を醸成するには
掲載:2023年03月28日
執筆者:取締役副社長 兼 プリンシパルコンサルタント 勝俣 良介
ニュートン・ボイス
2022年11月、オープンAIによる「ChatGPT」が登場しました。世間を騒然とさせています。
これを受け、Google社ではCode Red(緊急事態宣言)を宣言しました。このChatGPTの能力は、私たちユーザーがわざわざ「検索」せずとも、欲しい情報を提供してくれるからです。Google社の収益の8割は広告収入です。そしてそれを牽引しているのは他ならぬ世界シェア9割強を占めるGoogleサーチエンジンです。その影響の大きさに鑑みれば Code Redを出した理由も頷けます。
しかし待ってください。「さしものGoogle社も大変そうだな。ご苦労なことです」と、私たちは対岸の火事で済ませてしまっていいのでしょうか?
ChatGPTの凄まじさ
そもそもChatGPTの何がすごいのか。
AIって言ってもまだまだでしょ。何をそんなに騒いでいるの? ブロックチェーン(分散型台帳)とかNFT(非代替性トークン)とか次世代インターネットのWeb3とか、「周りがすごいすごい」って叫ぶ多くのカタカナ技術の話は、たくさん耳にしてきたけど、そうは言っても自分たちの生活に大きな影響が出ているようには感じない。どうせ新しモノ好きたちがまた騒いでいるだけでしょ?
そんな声が聞こえてきそうです。しかし、ほんの数ヶ月前に登場したサービスが世界を席巻している事実がそのすごさを端的に示しているともいえます。色々な点で、アレクサやGoogle Homeなどスマートスピーカーで見かける従来型AIと異なるのですが、以下にその具体例を挙げます。
たとえば、私たちが「りんな」のような従来型のAIと会話しようとすると次のような会話になります。ご覧の通り、会話が断片的で対話にはなりません。
私 | 「最近、コーヒーの飲み過ぎは体に良くないって聞いたんだけど。」 |
---|---|
従来AI | 「確かにー。最近は毎日飲んでる(笑)」 |
私 | 「良くないって本当なのかな?」 |
従来AI | 「え、わかんない」 |
私 | 「わかんないって何が?」 |
従来AI | 「え、何が?」 |
ところが、ChatGPTを使って同じ会話をすると次のようなやりとりになります。
私 | 「最近、コーヒーの飲み過ぎは体に良くないって聞いたんだけど。」 |
---|---|
ChatGPT | 「コーヒーには、利点と欠点が両方あります。適量を飲むことで、コーヒーは健康に良い影響を与えることがありますが、飲み過ぎると悪影響もあります。・・・(省略)・・・適量のコーヒー摂取は、一般的に1日に3~4杯程度とされています」 |
私 | 「適量をミリリットルで示すと?」 |
ChatGPT | 「約300~400ミリリットルとされています。ただし、これは目安であり、個人差があります。・・・(省略)・・・」 |
そうです。会話らしい会話になります。私が言葉を省略してもAIが文脈を理解して、答えを返してきてくれます。しかも「但し書き」までつけて教えてくれる親切ぶりです。すごいのはそれだけではありません。陸上選手に例えるなら、短距離走も長距離走も得意だし、ハンマー投げもできるし、球技もできるようなオールマイティなプレーヤーです。
具体的には「この長文を要約してくれ」と頼めば要約してくれます「これこれこういうプログラムを書いてくれ」といえば、書いてくれます。このプログラムだとこういう場合にうまく動かないから、その点を加味して書き直してくれ」と伝えると、修正してくれます。先日は、英訳ツールのDeepLの日本語訳にどうしてもしっくりこなかった英単語があり、それについて「この英文において、この単語はどういうニュアンスで使われているの?」と聞いたら、DeepLでも得られなかった欲しかった答えが返ってきました。
ChatGPTが私たちにもたらすリスク
こうしたChatGPTの影響ですが、冒頭で申し上げたGoogle社などで起きている対岸の火事は、実はすでにあなたの足元で燻っている可能性があります。そうは言ってもすぐにイメージは湧かないでしょうから、いくつかネガティブな影響例を挙げてみたいと思います。
- 社員が書いてきた記事を採用しWEBページに掲載したら、知らぬ間に誰かの著作権を侵害するフレーズを使用していたことがわかり、訴えられた(社員がAIを使って書いたらしい)
- 当社で販売していた主力商品のデザインが、実はある著名なアーティストの画風に似ていたことがわかり、訴えられた(社員がAIを使って描いたらしい)
- 人事担当者がAIを使って採用を行っていたら、知らぬ間に住所や年齢、性別など能力に関係のないところで偏向した選考していることがわかった。メディアに取り上げられ社会的なバッシングを受けた
- 社内で昇進試験を行ったところ、必ずしも能力に見合わない者が合格する例が散見された。テスト結果を調べたところ、ChatGPTが出す回答と酷似している回答者が多数いたことがわかった
- お客様に提出した調査報告書に指摘が入った。よくよく見ると、出典もデータもデタラメなものが使われていることがわかった(社員がAIで調べたデータをそのまま裏取りもせず貼り付けたらしい)
- AIに業界特有の問題について質問をしていたら、回答の一部に、当社の人間しか知らないはずの機密情報が含まれていることがわかった。どこから漏れたのか?
- 営業先で、お客様から突然、知識を問う質問を投げかけられたが、すぐに答えることができなかったところ「AIはこんなに明瞭簡潔な答えを返してくれたよ。おたくは本当にスキルあるの?」と厳しいやり取りになった
ここに挙げたリスク事例は一部です。しかも、これらリスクのいくつかはすでに顕在化しています。
ChatGPTが私たちにもたらす機会
ピンチはチャンス。そこまで優れた技術なのであれば、もたらすメリットも大きいはず。実際、マイクロソフト社はChatGPTを自社の検索サイトに組み込んだ新バージョンを発表しました。スピークイージーラボ社は、スピーキング特化型英語学習アプリにChatGPTの技術を取り込むことで、リアルな人と本当に会話をしているようなスピーキング学習を可能にしました。このほかにも、容易に想像がつくのは、すでに企業が導入しているチャットボットのChatGPTへの置き換えです。業務の効率化を促進するでしょうし、ますます電話対応に必要なオペレーター人員の削減につなげることができるかもしれません。
卑近な例で恐縮ですが、私の個人的な体験例もいくつかご紹介します。ChatGPTはプログラミングも得意とのこと。私もChatGPTを使って、ちょっとしたプログラムを書きました。従来であれば間違いなく8時間はかかったはずのところ、2~3時間程度で完了させることができました。この劇的な生産性向上には本当に驚かされました。
また、新規ビジネスに必要なアイデアを出す必要があったときに「○○というテーマに対して、試しにアイデアを30ほど出してみて」と頼んだら、瞬く間に列挙してくれました。もちろん、全部が全部、使えたものではありませんでしたが、私の思考を柔らかくする手助けになったことに間違いはありません。
ChatGPTとの付き合い方
これまでみてきましたように、ChatGPTはネガティブリスクにもなれば、ポジティブリスクにもなりえます。企業はどう付き合っていくべきでしょうか。
いち早く反応した組織の1つがフランスの名門大学です。この大学はChatGPTの使用禁止を年明けの1月末に発表していました。日本でも、最近、みずほやNECをはじめ機密情報漏洩リスク等を恐れた大手企業がChatGPTの利用禁止や制限に向けて動き始めたと報道されています。
しかし、これら利用制限という名のリスク対応策は、諸刃の剣でもあります。利用を制限すれば、本来であれば生産性向上に寄与してくれたはずの「機会(ポジティブリスク)」を失いかねないからです。しかも、怖いのは、このAIの波は止まらないということです。仮にここで「怖いから」「危ないから」と禁止にしたところで、それは鎖国をするようなもので、世の中のトレンドから取り残されてしまうリスクをはらんでいます。先の私の事例からもわかりますように、この波に乗った企業とそうでない企業の間の競争力格差は大きなものとなっていくでしょう。小中高生の適応能力の高さを考えれば、技術利用の世代間格差も広まっていくかもしれません。さらに言うならば、その技術のことを知らずして、避けてしまうこと自体もリスクです。
だとするならば重要なことは「これだけは絶対にやっちゃいけない」という禁則事項を明確にしつつ、リスクマネジメントというツールを上手に使いながら、自由かつ積極的にAI技術を利用していくことを推進することです。ここで「リスクマネジメントと言うツールを上手に使いながら」とは、自由気ままにAIを使うにしても、簡単でも現場がリスク評価をしながら、AI技術を使うと言う意味です。そんな利用推進が組織全体で浸透できたならば、その組織は強いと思います。「AIリスクについて専門家に洗い出して」とお願いすることもできるかもしれませんが、それをやったところですぐに陳腐化していきます。それ以上に重要なのは、ポジティブリスクを掴みとりにいくリスクテイク文化の醸成です。その文化醸成のためには、前段で申し上げたようなアプローチの採用がMUSTだと考えます。
うちの組織はリスク感度が低くて困ってるんだけど・・・そうおっしゃる方、たくさんいらっしゃいます。このChatGPTを見て何も感じていなかったのであれば、確かにリスク感度は高いとは言えないかもしれません。逆に言えば、今、この記事を見たこの瞬間こそが、あなたの本当のリスク感度が試される瞬間だということができるでしょう。
参考文献
おすすめ記事
- AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)
- AIネットワーク社会推進会議による「報告書2022」と別冊「『安心・安全で信頼性のある AI の社会実装』の取組事例~グッド プラクティス集~」を公表 総務省
- AIネットワーク社会推進会議が「報告書2021」を公表 総務省
- 「AI経済検討会 報告書2021」を公表 総務省
- 産学官の取り組み事例を紹介、「インターネット上の偽・誤情報対策に係るマルチステークホルダーによる取組集」を公開 総務省
- テキスト生成AI固有のリスクを特定、軽減策をまとめた「テキスト生成AI利活用におけるリスクへの対策ガイドブック」(α版)を公表 デジタル庁
- 「AIがもたらす科学技術・イノベーションの変革」を特集、令和6年版の科学技術・イノベーション白書を公開 文科省
- 大規模言語モデル(LLM)を焦点にリスクと影響を評価、初期パイロットテスト「ARIA 0.1」を公表 NIST
- 偽・誤情報などデジタル空間における情報流通の課題を議論、検討会がとりまとめ素案を公表 総務省
- 社内規則や体制整備に課題、「AI利用時のセキュリティ脅威・リスク調査 調査報告書」を公表 IPA
- 「生成AI時代のDX推進に必要な人材・スキルの考え方2024」を公表 経産省
- NISTのAIリスク管理フレームワーク「AI RMF 1.0」の日本語邦訳版を公開 AISI