AIリスクマネジメントとISO/IEC42001と認証制度
掲載:2024年10月23日
執筆者:取締役副社長 兼 プリンシパルコンサルタント 勝俣 良介
ニュートン・ボイス
AIの健全な開発や利活用促進を目指し、各国で法制化が進められており、2024年8月には欧州連合(EU)でAI規制法が施行されました。米国でも日本でも法制化が検討されています。このあたり-で改めてAIを取り巻く動きや企業にとっての望ましい動き方について書きたいと思います。
国際標準化機構(ISO)では、いち早くISO/IEC42001(※)を発行しました(2023年12月)。この規格は、情報セキュリティマネジメントシステム(ISMS)や品質マネジメントシステム(QMS)のような「ISOマネジメントシステム」のAI版であり、AIマネジメントシステム(AIMS)とも呼ばれています。そしてAIMS第三者認証制度も早々に開始される予定です。
数多くのAI関連のガイドラインや基準を見てきた者としては、ISO/IEC42001は汎用性、親和性、実践性、バランスの良さ、そして認証取得をも可能にする優れた基準の1つだと確信しています。認証疲れも多いと言われる昨今、組織が認証制度に興味がなくとも、このノウハウを活用しない手はないと思います。この規格を読めば読むほどそう感じます。
そこで本稿では、AIリスクやAIリスクのマネジメントに求められる実例を挙げながら、ISO/IEC42001のメリットや活用・学習方法について解説していきたいと思います。
※ISO/IEC42001 Information technology - Artificial intelligence - Management system(情報技術-人工知能-マネジメントシステム)
目次
なぜ、AIリスクマネジメントは難しいのか?
使い方によっては、とてもパワフルでビジネスの大きな追い風となってくれるものがAIです。さあ、全面的に採用しよう、と言いたいところですが、そうもいかないのがAIです。高い潜在能力を持ちながらも乱暴な性格を持つ暴れ馬を乗りこなすようなもので、そのパワフルさゆえに、AIのリスクを最小化し機会を最大化する統制(コントロール)が難しいため、部分的な使用から始める必要があります。
AIリスクのコントロールが難しい最大の理由は、AIの種類もAIの用途も、それらに伴うAIリスクも多岐にわたるからです。それでいて技術革新のスピードは速いときています。捉えどころがなく、今日作ったリスク対策が、明日にも役に立たなくなる可能性があるのです。
このAIの特性を具体例で追いかけてみましょう。例えば、あなたの会社が、OpenAI社のChatGPTのような生成AIを社内業務に利用し始めたとします。そこには、社員の誰かがうっかり社内の機密情報を生成AIに入力して学習されてしまうリスクが生まれます。そこであなたの会社は、機密情報がテキスト入力されてしまわないよう注意喚起を行い、技術対策を講じました。しかし、生成AIの技術開発は日進月歩です。ある日突然、テキスト以外の...つまり、PDFファイルや画像データなど別の手段による入力を可能にする機能が生成AIに追加されます(実際、そうなりました)。テキスト入力に焦点を当てた従来の対策では不十分となり、新たな注意喚起やリスク対策が必要になりました。
続いて、あなたの会社は、生成AIが便利だからと、一般的な業務に使うだけでなく、IT開発部門がアプリ開発の支援ツール、つまりコーディングツールとして使い始めることにしました。とても便利ですが、AIは皮肉にも人間同様、完璧ではありません。AIが提示するプログラムのソースコードは期待通りの動作をするものの、セキュリティ上の欠陥を持っている可能性があります。IT開発の担当者が、AIが作成したソースコードを無条件に受け入れず、そこにセキュリティ上の欠陥はないのか、それをどうやって担保するのか、検討・チェックするようにせねばなりません。こうして新たな品質・セキュリティリスク対策が必要になるのです。
話はさらに進みます。AIの便利さに味をしめたあなたの会社のある事業本部は、社内向けだけでなく、社外向けにAIを活用しようと考えました。その事業本部は医療機器の企画・製造・販売をする組織で、医療機器にAIを搭載し、医者の医療診断支援ツールに使うことを決めたのです。こうした用途では、AIが医者に間違った診断助言をしてしまうリスクがあります(実際にそのような事例があります)。また、この技術が悪用されてしまうリスクもあります。例えば、ハッカーが、医師が使用する医療診断支援ツールに細工をして、医療機関を混乱させるかもしれません。
このようにAIリスクは、利用目的や利用場面、方法などによって大きく変化するのです。そういうわけで、個社はもちろんのこと、グループ全体でAIリスクマネジメントのガバナンスをかけようと思ったら、一筋縄ではいかないことが想像できると思います。
掴みどころのないAIリスクに効果的に対応するヒントは?
多種多様なAIリスクにどのように立ち向かえばいいのでしょうか。いえ、どのようなAIガバナンスを整備・運用すべきなのでしょうか? ポイントはたくさんありますが、ここでそのいくつかをご紹介しましょう。
第一に「ポリシー」や「ガイドライン」の整備が重要になります。具体的かつ細かくルールを決めても、状況が変化して、すぐに陳腐化してしまうのなら、より広範で汎用的な指針や基準、すなわちAIポリシーやAIガイドラインを制定することが有効です。2019年に経済協力開発機構(OECD)がAI原則を発表した(※1)のも、2023年9月に日本新聞協会など世界26団体が世界AI原則(※2)を発表したのも、2024年4月に日本の経済産業省や総務省が発行した「AI事業者ガイドライン」の中で「共通の指針」が強調されているのも、このような理由からです。企業においてもAIポリシーやガイドラインの制定ができると有益でしょう。
ただし、AIポリシー策定にあたっては一点、注意すべきことがあります。それは既存の他のポリシーとの整合を図ることです。企業では、コンプライアンス指針や、品質方針、情報セキュリティ方針、人権方針など、数多くの方針をすでに設けているケースがあります。AIリスクには人権リスクもあれば、機密情報漏洩リスクなどもあり、これら既存の方針のカバー範囲と重なる部分も出てきます。AI方針やプロセスの交通整理をどうするか、注意が必要です。
第二に、AIリスクの特徴を押さえたリスクアセスメントプロセスの確立が必要です。結論から申し上げれば、AIシステム影響評価という考え方を組み込む必要があります。というのも、AIリスクは、内向きのリスクと外向きのリスクの両方を持つからです。内向きのリスクとは、もっぱら、自社に大きな影響与えるリスクを言います。一方で、外向きのリスクとは、社会に大きな影響を与えるリスクをいいます。
内向きリスクの典型例としては、機密情報漏洩やシステム障害が挙げられます。機密情報が社外に漏れれば、自社の競争力が低下し、シェアをライバルに奪われる可能性があります。主に自社にとっての痛みとなります。一方で、外向きのリスクの典型例としては人権侵害やプライバシー侵害、知的財産権の侵害、社会不安、サイバー犯罪助長などにつながるリスクを言います。例えば生成AIがリリースされた直後、全米の俳優たち16万人が加入する全米の映画俳優組合が43年ぶりのストライキを起こしました。また、AI画像が世界的な写真コンテスト「ソニー・ワールド・フォトグラフィー・アワード2023」で入賞を果たしたことで、世の中のコンテストの存在意義や運営のあり方が問われるようになりました。生成AIを開発・リリースした企業にとっての痛みというよりも、社会や個人・グループにとっての痛みになった事例です。
ちなみに、内向き・外向きに関する特性は、気候変動や人権に代表されるサステナビリティリスクのそれにも似ています。これらのリスクは必ずしも自社に対する内向きの影響だけではなく、外向きの社会影響も大きいものです。ゆえに自社への財務影響だけで課題やリスクの大きさを測らず、社会への影響も睨みながら評価し対応を検討することが求められますが、同じことがAIリスクにも言えるのです。
※1 OECDのAI原則は2024年5月に改定されました
※2 https://www.newsmediaalliance.org/global-principles-on-artificial-intelligence-ai/
AIリスクをコントロールする経営管理ツール、AIMSとは?
AIポリシーやAIシステム影響評価の話をしましたが、こうした要素を押さえた経営管理ツールこそがISO/IEC42001です。この国際規格には、効果的・効率的なAIマネジメントシステムの整備・運用を実現するための基準だけでなく、参考となる情報が書かれています。
例えば、ISO/IEC42001の第5章には、組織がどのようなAIポリシーを制定すべきかについて要求事項が記載されています。
- 5.2 AI方針
- トップマネジメントは,次の事項を満たすAI方針を確立しなければならない:
- a) 組織の目的に対して適切である;
- b) AIの目的(6.2 参照)の設定のための枠組みを示す;
- c)...省略....
出典:ISO/IEC42001 一般要求事項5.2より
合わせて、情報セキュリティリスクマネジメントや品質リスクマネジメントなど既存の仕組みとの関係性整理等についても言及しています。
品質,セキュリティ,安全性及びプライバシーなど,多くの領域がAIに関係する。組織は,徹底的な分析を検討して,現在の方針が必然的に関係する可能性があるかどうか,またどの部分が関係する可能性があるかを判断し,更新が必要な場合は,それらの方針を更新するか又はAI方針に規定を含めることが望ましい。
出典:ISO/IEC42001 付属書B AI管理策の実装のガイダンス
また、ISO/IEC42001の第6章にはAIリスクアセスメントプロセス等に関する記載があります。その中では前段で述べたAIシステム影響評価について言及されています。
- 6.1.4 AIシステムの影響評価
- 組織は,AI システムの開発,提供又は使用から生じる可能性のある,個人若しくは個人の集まり,又はその両方,及び社会に対する起こり得る結果を評価するプロセスを定義しなければならない。AIシステムの影響評価では,AIシステムの導入...省略...
出典:ISO/IEC42001 一般要求事項6.1.4より
さらに、リスクアセスメントを行った結果に対してどのようなリスク対策が考えられるのか、についても詳しく述べています。巻末の附属書Aには、AIリスクに必要とされる9カテゴリ38項目におよぶ管理策が列挙されているのです。
ところで、他にもAIリスクマネジメントの参考になるガイドラインがあるなか、ISO/IEC42001の優位性は何であるのか? という疑問の声も出そうです。確かに、日本では総務省および経済産業省から「AI事業者ガイドライン」が発行されています。米国ではNIST(米国国立標準技術研究所)が「AIリスクマネジメントフレームワーク(AI RMF)」を発行しています。いずれも一長一短がありますが、私はISO/IEC42001のメリットは、知名度、汎用性、親和性、実践性、バランスの良さ、そして認証制度の存在にあると考えます。
国際規格ですから知名度や汎用性という点についての説明は不要でしょう。また、AIMSの基本OSともいうべきISOマネジメントシステムという考え方はISO9001をはじめ、様々な規格の骨格となり、多くの企業での運用実績があるものですから、既存の活動との親和性や実践性という点も明らかです。一方で、「国際規格は汎用性が高い分、抽象性も高い」と揶揄されることがあります。しかしISO/IEC42001にいたっては「~しなければならない」という文体で書かれた「絶対に守るべき基準」のみならず、「~することが望ましい」という文体で書かれた「参考になる指針」をも附属書Bの中で多くカバーしていることから、バランスの良い規格と言って良いでしょう。最後に、企業が望めば認証取得ができる基準であるということも大きな魅力の1つです。
AIMSの整備・運用、認証取得に向けた効果的・効率的な学習方法とは?
私は規格開発組織の回し者ではありませんが、ISO/IEC42001のメリットを考えますと、AIMSの認証取得に興味のある方はもちろんのこと、AIシステムを何らかの形で取り込んでいる、または取り込む予定がある企業の方ならばISO/IEC42001に精通しておくことを強くお勧めしたいと思います。AIシステムを自社だけでなくグループ全体で活用していくのであれば、なおさらです。
具体的には、ISO/IEC42001の規格書を最低1つは購入し、読んでみることをお勧めします。その際には一般要求事項が記載された規格本編の4章から10章だけでなく、管理策が記載された附属書Aをはじめ、AI管理策の実践ガイダンスが書かれた附属書B、リスク洗い出しのヒントが書かれた附属書Cをも含めて全て読むようにしましょう。全て役に立つ情報です。ISO規格に慣れた方であれば、理解し、ヒントを得ることができるでしょう。
ただ、AIシステムのことがよくわからない方やISO規格に慣れ親しんでない方、あるいはISOマネジメントシステムの整備・運用の流れ、認証取得アプローチについてあまりご存じでない方にとっては、独力で規格のエッセンスの全てを理解するのはハードルが高いのもまた事実です。
そういう方には、当社のリスクマネジメント教育プログラム「ニュートン・アカデミー・プラス」のe-learning講座「AIマネジメントシステム認証取得編(ISO42001)」の活用をお勧めします。本稿で述べてきた「具体例に基づくポイント解説」のほか、ISOマネジメントシステムの本質、ISO/IEC42001の整備・運用の手順、認証取得ステップなどについても解説した講座となっています。一言でいえば、ISO/IEC42001に基づく整備・運用および認証取得をするために必要な基礎スキルの全てを学ぶことができます。
少しでも気になった方はこちらをご覧ください。繰り返しますが、ニュートン・アカデミー・プラスを使うかどうかはともかく、ISO/IEC42001は非常に有益な規格です。ぜひご一読ください。
おすすめ記事
- ISO/IEC 42001 情報技術 - 人工知能(AI)-マネジメントシステム‐ガイドライン解説
- AI Risk Management Framework (AIリスクマネジメントフレームワーク、AI RMF 1.0)
- AI事業者ガイドライン(第1.0版)
- 人工知能(AI)の可能性を最大限に引き出すためのガイダンス(AIの実装と拡張に役立つCOSOフレームワークと原則の適用)
- 欧州AI法案
- AI(ChatGPT)に対して企業は結局何をすべきか?
- ChatGPTをフル活用するリスクテイク文化を醸成するには
- プロンプトインジェクション
- ハルシネーション
- AIマネジメントシステム(AIMS)の国際規格「ISO/IEC 42001」が発行、「AIの目的」を実現するための管理策を示す 経産省
- 大規模言語モデル(LLM)を焦点にリスクと影響を評価、初期パイロットテスト「ARIA 0.1」を公表 NIST
- 準備から実施および改善計画の策定までを網羅的に解説、「AIセーフティに関するレッドチーミング手法ガイド」を公表 AISI
- NISTのAIリスク管理フレームワーク「AI RMF 1.0」の日本語邦訳版を公開 AISI
- ISO/IEC 42001の参照も推奨、「AIセーフティに関する評価観点ガイド」を公表 AISI
- AIガバナンスの統一指針「AI事業者ガイドライン(第1.0版)」を公表 総務省/経産省
- 生成AI関連市場の実態調査を開始、ディスカッションペーパーを公表し情報・意見を募る 公取委
- AIマネジメントシステム(AIMS)の国際規格「ISO/IEC42001」についても調査、ISMS適合性評価制度に関するアンケート調査結果を公表 ISMS-AC
- 注目トピックは虚偽情報拡散の脅威とAIセキュリティ、「情報セキュリティ白書2024」を公表 IPA