組織がAI技術を急速に採用する中で、包括的なガバナンス、リスク管理、コンプライアンスフレームワークの実装は、AIの利点を安全に実現し、潜在的なリスクと規制要件をナビゲートするために不可欠です。
AI革命が進行中で、企業は最新のAI技術がどのように彼らに利益をもたらすかを探求することに熱心です、特にGenAIの高プロファイルな能力についてです。効率と生産性の向上から優れた顧客体験の創出、イノベーションの促進まで、実生活の多くのアプリケーションを通じて、AIはビジネス界の各業界に大きな影響を及ぼすと約束しています。
組織がAIの報酬を収穫することで遅れを取りたくないのは理解できますが、リスクも存在します。これらのリスクは、プライバシーの考慮からIP保護、信頼性と精度、サイバーセキュリティ、透明性、説明責任、倫理、バイアスと公平性、労働力の懸念に至るまで多岐にわたります。
企業は、AIの危険性を明確に認識し、AIの能力を安全に最大限に活用するための慎重な計画を持って、AIに対して慎重に取り組む必要があります。AIはまた、アメリカや世界中で政府の規制や制限、法的措置の対象となっています。
AIのガバナンス、リスク、コンプライアンスプログラムは、急速に進化するAIの風景に先んじるために不可欠です。AIガバナンスは、組織内でのAIの開発と使用を監督する構造、ポリシー、手続きから成り立っています。
主要な企業がAIを採用すると同時に、彼らは最高指導層で直接関与するAIガバナンスも採用しています。最高のAIリターンを達成する組織は、マッキンゼーによれば、包括的なAIガバナンスフレームワークを持っており、フォレスターの報告によれば、テックエグゼクティブの4人に1人がAIガバナンスについて役員会に報告することになると言います。
これには十分な理由があります。効果的なAIガバナンスは、企業がAIの潜在能力を実現しながら、それを安全に、責任を持って、倫理的に使用し、法的および規制要件を遵守することを保証します。強固なガバナンスフレームワークは、組織がリスクを減らし、透明性と説明責任を確保し、内部、顧客、そして公衆との信頼を築くのに役立ちます。
AIリスクに対する保護を構築するために、企業はAIを実装する前に、包括的なAIガバナンス、リスク、コンプライアンス計画を意図的に開発する必要があります。ここから始めましょう。
AI戦略を作成する
AI戦略は、組織全体のAI目標、期待値、ビジネスケースを概説します。それは潜在的なリスクと報酬、および企業のAIに対する倫理的立場を含むべきです。この戦略は、組織のAIシステムとイニシアチブの指導星として機能するべきです。
AIガバナンス構造を構築する
AIガバナンス構造の作成は、AIガバナンスについて決定を下す人々を任命することから始まります。しばしば、これはAIガバナンス委員会、グループ、または理想的には高レベルのリーダーとAI専門家、IT、人事、法務部門などの各ビジネスユニットを代表するメンバーで構成されるボードの形を取ります。この委員会は、AIガバナンスのプロセスとポリシーを作成し、AIの実装とガバナンスの各面についての責任を割り当てる責任があります。
AI実装をサポートする構造が整ったら、委員会は企業のAIガバナンスフレームワークに必要な変更を行い、新しいAI提案を評価し、AIの影響と結果を監視し、AIシステムが倫理的、法的、規制上の基準を満たし、企業のAI戦略をサポートすることを確認する責任を負います。
AIガバナンスを開発する際、組織は米国NISTのAIリスク管理フレームワーク、英国のAI安全研究所がオープンソース化したInspect AI安全テストプラットフォーム、欧州委員会の信頼性のあるAIのための倫理ガイドライン、OECDのAI原則などの自主的なフレームワークからガイダンスを得ることができます。
組織がガバナンスリスクを徹底的に評価した後、AIリーダーはそれらを軽減するためのポリシーを設定することができます。これらのポリシーは、組織内でAIを扱うすべての人に従うべき明確なルールとプロセスを作ります。これらのポリシーは、可能な限り多くのシナリオをカバーするために詳細であるべきですが、AIの進歩とともに進化する必要があります。主要なポリシー領域には以下のようなものがあります:
プライバシー
デジタルな世界では、個人のプライバシーリスクがすでに最重要課題となっていますが、AIはそのリスクをさらに高めます。AIが使用する個人データの膨大な量により、セキュリティ侵害は現在よりもさらに大きな脅威をもたらす可能性があり、AIは個々の同意なしに個人情報を収集し、それを公開したり、悪用したりする力を持つ可能性があります。例えば、AIは個人情報を集約して個々の詳細なプロファイルを作成したり、個人データを監視に利用したりすることができます。
プライバシーポリシーは、AIシステムがデータを責任ある方法で安全に取り扱うことを保証します、特に敏感な個人データを。この分野では、ポリシーには以下のような保護措置が含まれる可能性があります:
IP保護
IPと企業の独自データの保護は、AIを採用する企業にとって大きな懸念事項です。サイバー攻撃は、貴重な組織データに対する脅威の一種を表します。しかし、商用AIソリューションも懸念を生み出します。企業が自社のデータをChatGPTのような巨大なLLMに入力すると、そのデータが露出し、他のエンティティがそれから価値を引き出すことが可能になります。
一つの解決策は、企業がサードパーティのGenAIプラットフォームの使用を禁止することで、Samsung、JP Morgan Chase、Amazon、Verizonなどの企業がこのステップを踏んでいます。しかし、これは企業が大規模LLMの一部の利点を活用する能力を制限します。そして、大規模モデルを自分で作成するリソースを持つエリート企業はほんの一握りです。
しかし、企業のデータでカスタマイズされた小さなモデルは、答えを提供することができます。これらは商用のLLMが提供するデータの幅を引き出すことはないかもしれませんが、大規模なモデルに見られる無関係で潜在的に誤った情報なしに、高品質でカスタマイズされたデータを提供することができます。
透明性と説明可能性
AIのアルゴリズムとモデルは複雑で不透明であり、その結果がどのように生成されるかを判断するのが難しいことがあります。これは信頼に影響を与え、リスクに対する積極的な対策を取ることを困難にします。
組織は、以下のようなポリシーを制定して透明性を高めることができます:
機械学習の結果を再現することも、モデルのパフォーマンスとコンプライアンスに対する信頼を築き、監査とレビューを可能にします。アルゴリズムの選択も、AIシステムを説明可能で透明にし、その開発と影響を明確にするための重要な考慮事項です。
信頼性
AIは与えられたデータとそれを訓練する人々の良さによって決まります。大量のオンラインデータを使用する大規模なLLMでは、不正確な情報は避けられません。ChatGPTのようなGenAIプラットフォームは、些細な事実の不正確さから完全に作り上げられた幻覚まで、時々不正確な結果を出すことで悪名高いです。信頼性と精度を向上させることができるポリシーとプログラムには以下のようなものがあります:
企業は、大規模な商用モデルを使用するのではなく、高品質で審査済みのデータで自社のモデルを訓練することで信頼性を高めることもできます。
エージェントシステムの使用は、信頼性を向上させるもう一つの方法です。エージェントAIは、他のエンティティのためにタスクを自律的に実行できる「エージェント」から成り立っています。伝統的なAIシステムが入力とプログラミングに依存するのに対し、エージェントAIモデルは人間の従業員のように行動するように設計されており、コンテキストと指示を理解し、目標を設定し、それらの目標を達成するために必要に応じて適応しながら自律的に行動します。これらのモデルは、システムの初期トレーニングデータを超えてユーザーの行動や他のソースから学習し、企業データに対する複雑な推論が可能です。
合成データの機能は、評価データセットを素早く生成することでエージェントの品質を向上させるのに役立ちます。これはソフトウェアテストスイートのGenAI相当物で、数分で生成できます。これにより、AIエージェントの応答品質の改善プロセスが大幅に加速し、生産までの時間が短縮され、開発コストが削減されます。
バイアスと公平性
社会的なバイアスがAIシステムに浸透することも別のリスクです。懸念されるのは、AIシステムが社会的なバイアスを永続化し、例えば人種、性別、民族性などの要素に基づいて不公平な結果を生み出す可能性があることです。これは差別を引き起こす可能性があり、特に採用、貸付、医療などの分野では問題となります。組織は、以下のようなポリシーと実践を通じてこれらのリスクを軽減し、公平性を促進することができます:
労働力
AIの自動化能力は、人間の労働力に影響を与えるでしょう。アクセンチュアによれば、銀行業、保険業、資本市場、ソフトウェア業界など、産業全体の労働時間の40%が生成型AIによって自動化または拡張される可能性があります。これは、ゴールドマン・サックスによれば、米国の職業の3分の2に影響を及ぼす可能性がありますが、同社はAIが広範な失業を引き起こすよりも、現在の労働者を補完する可能性が高いと結論付けています。人間の専門家は引き続き不可欠であり、理想的には高価値の仕事を引き受け、自動化が低価値で退屈なタスクを助けることになるでしょう。ビジネスリーダーたちは、AIを人間の従業員のライバルではなく、共同パイロットとして見ています。
それにもかかわらず、一部の従業員はAIについて興奮するよりも不安を感じるかもしれません。企業は、労働力がAIイニシアチブを恐れるのではなく、それらを受け入れるのを助けるための積極的なステップを踏むことができます。これには以下のようなものがあります:
AIは独自のガバナンス課題を提起しますが、データガバナンスと深く絡み合っています。企業はデータベース、ウェアハウス、レイク間の断片化したガバナンスに苦労しています。これはデータ管理、セキュリティ、共有を複雑にし、AIに直接影響を与えます。統一されたガバナンスは全体的な成功の鍵であり、相互運用性を促進し、規制遵守を簡素化し、データとAIのイニシアチブを加速します。
統一されたガバナンスは、データとAIの両方のパフォーマンスと安全性を向上させ、透明性を確保し、信頼を築きます。これにより、高品質で最新のデータへのシームレスなアクセスが確保され、結果の精度が向上し、意思決定が改善されます。データのサイロを排除する統一されたアプローチは、効率と生産性を向上させ、コストを削減します。このフレームワークは、規制要件とAIのベストプラクティスに合わせた明確で一貫したデータワークフローにより、セキュリティを強化します。
Databricks Unity Catalog は、Databricks データインテリジェンスプラットフォームに組み込まれた、データと AI のための業界唯一の統一されたオープンなガバナンスソリューションです。Unity Catalogを使用すると、組織はデータとAIコンポーネントの両方をシームレスに管理することができます。これにより、組織はプラットフォーム全体で信頼できるデータとAI資産を安全に発見、アクセス、共同作業することができ、データとAIの全体的な潜在能力を解放するのに役立ちます。
AIガバナンスについて深く掘り下げるためには、私たちの電子書籍、データとAIガバナンスの包括的ガイドをご覧ください。