あらゆる事業は常に効率性と生産性を得る方法を求めており、多くの場合、コンテンツを生成したり、顧客と会話をしたり、さらにはソフトウェアをビルドしたりさえするためにChatGPTなどのAIベースの大規模言語モデル(LLM)の活用を模索することは非常に有望に思えます。ただし、これとは対照的に、多くの大企業では従業員によるこれらのテクノロジーの利用を差し止めざるを得ない状況に陥っています。同業他社がこれにならうのかどうか、という点が気になるでしょう。
なぜAIを禁止すべきか?理由:生 成AIサービスはデータ入力をさらなる学習に利用しますが、その後多くの場合、外部関係者にそのデータを公開します。企業が、機微データを保有・処理する、独自の知的財産を維持する、規制の厳しい業界で活動する、あるいはクローズドソースソフトウェアを開発する場合、この種のデータ漏洩の結果は壊滅的なものとなり得るのです。
しかし、こうしたツールは大きなメリットをもたらしもします。では、CISO(最高情報セキュリティ責任者)たちはChatGPTや類似のツールを許可するべきか禁止すべきか、どのように決めればいいのでしょうか?特に、禁止することで社員の生産性が落ちるのであれば、その強制は難しく、さらに監督しきれるでしょうか?
なぜなら従業者は、ChatGPTやその他の大規模言語モデル(LLM)を業務を容易にしプロセスを効率化するものと認識する可能性があるため、無意識のうちにデータ漏洩を招く形で利用する可能性があるからです。
すべてのAIモデル同様、ChatGPTは、データを投入すればするほどより優れた結果を出すように設計されています。これらのツールはセキュアなデータ保管庫として設計されたものではないため、起こりうる意図しないデータ漏洩は必ずしも欠陥とは言えないのです。LinkedInやInstagramなどのようなソー シャルメディアプラットフォームに秘密情報を投稿することが安全でないのと同様、これらのアプリはプライベートなデータを守るようにはできていないのです。
それにもかかわらず、多くの人は、職場でAIモデルを使用する際、これらの脆弱性を念頭に入れていません。ある調査から、従業員が秘密情報または知的財産に関する情報をこうしたツールに読み込ませていることが分かりました。別のケースでは、Samsungのエンジニアが不意に秘密情報をChatGPTにアップロードして漏洩させてしまい、その結果、Samsungでの従業員によるChatGPTの使用が制限されることになりました。
あらゆるソフトウェア同様、LLMからしばしばバグが発覚され、中にはデータの漏洩につながり得るものもあります。数年前、OpenAIは、ChatGPTとのユーザーの会話の一部がバグにより他のユーザーに表示されたことがわかりました。
最後に、こうしたツールにはコンプライアンスと規制監督要件上の懸念があります。データの取り扱い方には一切の保証がなく、データ共有が企業をデータセキュリティ規制のコンプライアンスから逸脱させてしまう可能性があります。あらゆる外部アプリケーションと同様に、漏洩またはデータの処理方法の可視性の不在が一般データ保護規則 (GDPR) またはその他規制枠組みへの違反につながる可能性があります。LLMへのデータの提供も、コンプライアンスで求められるデータ監査の基準から逸脱します。
リスクを鑑み、複数の大企業が社員によるLLMの利用の禁止へと踏み切りました。
Amazonが、Amazon社外秘データに類似した情報をChatGPTの回答内に発覚した後、同社はChatGPTの利用を禁止しました。Appleは、機微情報の漏洩へに対する懸念により、ChatGPT、およびGitHubからの自動コーディングツールであるCopilotの社内利用を禁止しました。
金融業界は特に、LLMの利用禁止について積極的に取り組んできました。JPMorganChaseは、保護財務情報の漏洩リスクを懸念し、国家および業界のデータ規制違反につながる可能性がある、ChatGPTの社内利用に厳しい制限を課しました。Bank of America、Citigroup、Deutsche Bankなどの大手金融サービスプロバイダーはこの事例に追随しています。
最後に、Samsungも長期に渡りChatGPTの利用を禁止しています。同社は数回にわたり禁止措置の解除と再導入を繰り返しています。
他のものも含め、これらの事例より、社員による生成AIの利用を禁止する企業は次に挙げる主な理由により禁止に踏み切っているように思われます:
内部データの直接的な漏洩
LLMによる、アルゴリズムと応答を改善するためのデータインプットの保管、処理、活用の仕方についての懸念。プライベートな内部データを模造し、競合他社に不意に配布してしまう可能性があるため
LLMによる規制対象のデータの処理に関する記録の不在に関する懸念
実際にLLMの利用を禁止または制限したとしても、企業は、その強制がほぼ不可能であると気づくかもしれません。
セキュリティ基準を設けたところで、内部のユーザーが必ずそれに従うとは限らず、ルール自体を認識していない場合があります。企業は、リモートワークでセキュリティ対策が不十分なデバイスの利用を防いだり、またはクラウドコンピ ューティングで未認証のSaaSアプリの利用を禁止したりするのが至難の業であることに気づいています。未承認アプリの使用が「シャドーIT」と呼ばれるように、LLM禁止下での潜在的な状況は「シャドーAI」として知られています。
セキュリティ部門は、こうしたツールのIPアドレスやURLをブロックすることで特定のアプリを禁止できますが、もちろんこうした制約は完璧な効果をもたらしません。個人端末には適切なセキュリティクライアントがインストールされていないかもしれませんし、企業支給の端末でも企業外のネットワークで用いられる可能性もあります。確信犯的なユーザーは、VPNまでをも用いてファイアウォールのルールを回避し、禁止されたツールにアクセスするかもしれません。
ChatGPTと類似サービスについて確実に言える1つのことは、これらのツールは非常に人気であると言うことです。禁止すれば利用を抑えられ、これに起因するデータ漏洩を防げるかもしれません。しかし、CISO(最高情報セキュリティ責任者)は、企業または個人のデバイスであるかを問わず、社員がこうしたものを利用していることを前提とした方がいいと言えます。この点について、データ損失防止(DLP)ソリューションの採用を真剣に考えるべきです。
DLPソリューションは、機微データを検 出し、保護された環境に封じ込めておく多彩な戦略を用いています。これらの方法には、パターンマッチング、キーワードマッチング、ファイルハッシュマッチング、データフィンガープリンティングなどがあります。AIツールによるデータ漏洩を防ぐ上で最も重要なのは、コピー&ペースト、アップロード、キーボード入力の制限機能です。
(ブラウザ分離と組み合わさった)DLPソリューションは、社員によるコピーペーストを防ぎ、LLMを含めあらゆるWebアプリケーションへの機密データの入力を防ぐことができます。DLPはまた、データのアップロードをブロックし、特定のキーボード入力を止めさせ、送信されるHTTPリクエストに含まれる機密情報を検出できます。
企業は、生成AI利用を禁止したい場合も、したくない場合もあるでしょう。禁止しても、その利用を完全に止めることはできないでしょう。しかし、企業がどちらの状況下にあっても、DLPはAIの無制限な使用と禁止の両方に対する代替手段を提供します。
DLPはもちろん、データがアップロードされないことを保証するものではありません。概して、CISOはChatGPTやその他の大規模言語モデル(LLM)の使用を許可することの利点と欠点を慎重に検討するべきであり、その結論は業界によって異なります。銀行業のような規制の厳しい業界では、LLMへのコンテンツアップロードは最初から不可能かもしれま せん。その他の業界では、CIOがAIの利用をケースバイケースで評価する場合もあれば、単に自由に許可する場合もあるでしょう。
しかし、あらゆるビジネスは保護すべき機微データ存在し、DLPはそのデータがLLMデータベースに流入するのを防ぐのに役立ちます。現代の環境下におけるデータ保護の重要性から、Cloudflareは、Cloudflare AI Security Suiteの一環としてDLPを提供し、職場での生成AIツールの利用増加に伴い、データやコードの漏洩リスクを低減する支援を行っています。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
ホワイトペーパー『SaaSアプリケーションの保護方法の簡素化』を読み、企業がゼロトラストのアプローチでアプリケーションやデータを保護するのにCloudflareがどう役立つかをご覧ください。
この記事を読めば、以下が理解できます。
大規模言語モデル(LLM)がデータをリスクにさらす理由
複数の大手グローバル企業がChatGPTおよび他生成AIツールの業務利用を禁止
AIの利用をデータ損失防止(DLP)が安全にする仕組み