企业始终在寻求提升效率与生产力的途径。对众多企业而言,采用 ChatGPT 等基于 AI 的大语言模型(LLM)来生成内容、与客户交互,乃至开发软件,似乎都前景广阔。但与此相反,许多大型企业发现他们不得不限制员工使用这些技术。问题在于同行企业是否会效仿。
为什么要禁用 AI?原因在于:生成式 AI 服务将输入数据用于进一步训练,这种做法在许多情况下会导致后续向外部泄露数据。对于拥有或处理敏感数据、维护专有知识产权、在受到高度监管的行业工作,或生产闭源软件的组织而言,这种数据泄露可能会带来灾难性后果。
但是,这些工具也会带来巨大的好处。那么,CISO 如何确定是否应该允许或禁止使用 ChatGPT 及其他类似工具?特别是考虑到这样的禁令可能会抑制员工的生产力,难以执行,以及员工可以找到规避或绕过禁令的方法?
因为员工可能认为 ChatGPT 和其它 LLM 可以让其工作更轻松、流程更高效,他/她们可能在不知情的情况下使用这些产品,进而导致数据泄露。
与所有 AI 模型一样,ChatGPT 的设计原理决定了其训练数据越丰富,输出质量也越高。这类工具可能引发的无意数据泄露不一定是缺陷所致,因为这些工具本身并非被设计为安全的数据金库。与此类似的是在 LinkedIn 或 Instagram 等社交媒体平台上发布机密信息也会造成安全隐患,因为这些应用并不是为保护私人数据而构建。
然而,许多人在工作场所使用 AI 模型时并没有考虑到这些漏洞。一项研究发现,员工将受监管的机密信息或知识产权粘贴到这些工具中。在另一个案例中,Samsung 工程师在将机密数据上传至 ChatGPT 后导致数据意外泄露,因此 Samsung 限制员工使用 ChatGPT。
与任何软件一样,LLM 通常包含逻辑错误,其中一些错误可能会导致数据泄露。几年前,OpenAI 披露,某个错误导致用户与 ChatGPT 的部分对话内容向其他用户显示。
最后,这些工具还存在合规和监管方面的问题。数据处理方式缺乏保障,而且数据共享可能会导致公司违反数据安全法规。如同任何外部应用程序一样,数据泄露或数据处理方式缺乏透明度可能会导致违反《通用数据保护条例》(GDPR) 或其他监管框架。将数据传递至 LLM 也会破坏合规要求的数据审计跟踪。
鉴于上述风险,几家大型公司已经采取行动,全面禁止员工使用 LLM。
Amazon 在发现 ChatGPT 的回复与其内部数据相似后,要求员工禁用该工具。Apple 也禁止员工在内部使用 ChatGPT 和 Copilot(GitHub 推出的一款自动化编码工具),担心这些工具会泄露敏感信息。
金融行业在阻止使用 LLM 方面表现得特别积极。摩根大通严格限制员工在内部使用 ChatGPT,担心因泄露受保护的财务信息而导致违反国家和行业数据保护法规。美国银行、花旗集团, 以及德意志银行等大型金融服务机构也效仿这种做法。
最后,Samsung 也长期禁用 ChatGPT。他们曾多次取消并重新实施该禁令。
根据这些以及其他示例,公司之所以禁止或限制员工使用生成式 AI,主要原因有以下几点:
直接泄露内部数据
担心 LLM 以何种方式存储、处理并利用数据输入来改进其算法和回复,可能会模仿内部私有数据并导致意外传播竞争情报
担心缺乏关于 LLM 以何种方式处理受监管数据这方面的记录
即便组织决定禁用或限制 LLM 的使用,也往往会发现相关措施几乎无法有效执行。
制定安全标准并不意味着内部用户就会遵循该标准,或是意识到规则的存在。由于云计算技术,组织已经发现难以阻止员工使用不安全的个人设备进行远程办公,或阻止员工使用未经授权的 SaaS 应用。未经批准的应用被称为“影子 IT”,而在 LLM 禁令下可能出现的情况被称为“影子 AI”。
安全团队可以通过阻止这些工具的 IP 地址或 URL 来禁用某些应用,但是毫无疑问,这些限制措施并非完全有效。例如:个人设备可能没有安装适当的安全客户端;在非公司网络上使用公司设备。顽固的用户甚至可能使用 VPN 来规避防火墙规则并访问被禁用的工具。
关于 ChatGPT 和类似服务,有一点可以确定,那就是:这些工具都非常流行。禁令可能有助于减少使用量及相关的数据泄露。但 CISO 可能会假设其员工在公司设备或个人设备上使用此类工具。为此,他们必须认真考虑采用数据丢失防护 (DLP) 解决方案。
DLP 解决方案使用各种策略来检测敏感数据,并防止这些敏感数据离开受保护的环境。这些方法包括模式匹配、关键字匹配、文件哈希匹配和数据指纹识别。但最重要的是限制复制并粘贴、上传和键盘输入功能,以防在使用 AI 工具时造成数据泄露。
DLP 解决方案(与浏览器隔离搭配使用时)应该能够阻止员工执行复制并粘贴操作,阻止员工将敏感数据输入 Web 应用(包括 LLM)。DLP 还可以阻止数据上传,阻止某些键盘输入,以及检测传出 HTTP 请求中的机密数据。
组织可能希望或不想禁用生成式 AI。即便是实施禁令的组织,可能也无法完全阻止其使用。但无论是哪一种情况(自由使用 AI 工具与禁止使用 AI 工具),DLP 都会提供一种平衡方法,保护数据安全。
当然,DLP 并不能保证数据不会被上传。总体而言,CISO 必须权衡允许使用 ChatGPT 及其他 LLM 的利弊,并且 CISO 的结论因行业而异。在受到严格监管的行业(例如银行业),将内容上传至 LLM 可能行不通。而在其他行业,CISO 可能会根据具体情况评估 AI 使用风险,或者直接允许自由使用。
但每个企业都有敏感数据需要保护,DLP 有助于防止员工将敏感数据无意纳入 LLM 数据库。由于数据保护在当今环境中非常重要,Cloudflare 提供了 DLP 解决方案,作为 Cloudflare AI Security Suite 的一部分,即使在企业办公场景中生成式 AI 工具使用日益广泛的情况下,也能帮助您降低数据与代码泄露风险。
Cloudflare 就影响当今技术决策者的最新趋势和主题发布了系列文章,本文为其一。
获取《简化我们保护 SaaS 应用的方式》 白皮书,了解 Cloudflare 如何帮助组织采用 Zero Trust 方法保护应用和数据安全。
阅读本文后,您将能够了解:
为什么大型语言模型 (LLM) 会使数据面临风险
多家跨国公司已禁止在内部使用 ChatGPT 和其他生成式 AI 工具
数据丢失防护 (DLP) 如何为 AI 使用提供安全支持