theNet by CLOUDFLARE

Você deve proibir o uso de IA pelos funcionários?

Examinando os benefícios e riscos dos LLMs


As empresas estão sempre procurando maneiras de ganhar eficiência e produtividade e, para muitas, se aprofundar no uso de grandes modelos de linguagem (LLMs) baseados em IA, como ChatGPT, para gerar conteúdo, conversar com clientes e até mesmo construir software parece promissor. Mas, ao contrário disto, muitas grandes empresas descobriram que são forçadas a recuar e impedir que os funcionários utilizem estas tecnologias. A questão é se outras empresas em seus setores seguirão o exemplo.

Por que banir a IA? A razão: os serviços de IA generativa utilizam entradas de dados para treinamento contínuo, revelando, em muitos casos, os dados a terceiros posteriormente. Para organizações que possuem ou processam dados sensíveis, mantêm propriedade intelectual proprietária, trabalham em setores altamente regulamentados ou produzem software de código fechado, os resultados desse tipo de vazamento de dados podem ser desastrosos.

Mas essas ferramentas também oferecem enormes benefícios. Então, como os CISOs podem determinar se devem permitir ou proibir o ChatGPT e similares? Especialmente considerando que tal proibição pode sufocar a produtividade dos funcionários, é difícil de aplicar e é propícia à subversão?



Por que o ChatGPT e outras ferramentas de IA não são seguros?

Como os funcionários podem perceber que o ChatGPT e outros LLMs facilitam o seu trabalho e tornam os processos mais eficientes, eles podem usá-los de maneiras, sem o seu conhecimento, que resultam em vazamento de dados.

Como todos os modelos de IA, o ChatGPT foi projetado para produzir melhores resultados à medida que é alimentado com mais dados. O vazamento de dados não intencional que pode resultar não é necessariamente uma falha, pois essas ferramentas não foram projetadas para serem cofres de dados seguros. Da mesma forma que a publicação de informações confidenciais em plataformas de mídia social como LinkedIn ou Instagram é insegura, esses aplicativos não foram desenvolvidos para proteger dados privados.

Ainda assim, muitas pessoas não levam em consideração essas vulnerabilidades ao usar modelos de IA no local de trabalho. Um estudo descobriu que funcionários colavam informações confidenciais regulamentadas ou propriedade intelectual nessas ferramentas. Em outro caso, os engenheiros da Samsung vazaram acidentalmente dados sensíveis após fazer o upload deles no ChatGPT, resultando na restrição do uso do ChatGPT pelos funcionários pela Samsung.

Como acontece com qualquer software, os LLMs geralmente contêm bugs, alguns dos quais podem resultar em vazamento de dados. Há alguns anos, a OpenAI revelou que um bug fazia com que partes das conversas dos usuários com o ChatGPT fossem mostradas a outros usuários.

Finalmente, existem preocupações regulatórias e de conformidade associadas a essas ferramentas. Não há garantias sobre a forma como os dados são tratados, e o compartilhamento de dados pode colocar uma empresa fora de conformidade com os regulamentos de segurança de dados. Assim como acontece com qualquer aplicativo externo, vazamentos ou a falta de visibilidade de como os dados são processados podem resultar em uma violação do Regulamento Geral sobre a Proteção de Dados (RGPD) ou de outras estruturas regulatórias. A transferência de dados para um LLM também interrompe o registro de auditoria de dados exigido para fins de conformidade



As proibições: quem e por quê

Dados os riscos, várias grandes empresas tomaram medidas para impedir que os seus funcionários utilizassem os LLMs.

A Amazon implementou a proibição do ChatGPT depois de descobrir respostas do ChatGPT que pareciam se assemelhar a dados internos da Amazon. A Apple implementou sua própria proibição do uso interno do ChatGPT e do Copilot, uma ferramenta de codificação automatizada do GitHub, devido a preocupações de que as ferramentas pudessem vazar informações confidenciais.

O setor financeiro tem sido particularmente proativo em interromper o uso de LLMs. O JPMorgan Chase impôs severas restrições ao uso interno do ChatGPT, preocupado com o possível vazamento de informações financeiras protegidas, o que poderia levar a violações das regulamentações de dados nacionais e do setor. Grandes provedores financeiros como Bank of America, Citigroup e Deutsche Bank seguiram o exemplo.

Finalmente, a Samsung também baniu o ChatGPT durante um longo período. Eles removeram e reintroduziram sua proibição várias vezes.

Com base nestes e em outros exemplos, as empresas que proíbem ou restringem o uso de IA generativa pelos funcionários parecem fazê-lo pelas seguintes razões principais:

  • Vazamento direto de dados internos.

  • Preocupações sobre como os LLMs armazenam, processam e aproveitam entradas de dados para melhorar seus algoritmos e respostas, o que pode imitar dados internos privados e levar à distribuição acidental de informações competitivas.

  • Preocupações em torno da falta de registro de como os LLMs processam dados regulamentados.



Desafios à proibição

Mesmo que uma organização decida proibir ou restringir o uso de LLMs, poderá descobrir que a fiscalização é praticamente impossível.

Definir um padrão de segurança não significa que os usuários internos vão seguir esse padrão, ou mesmo estar cientes da regra. As organizações já têm dificuldade em bloquear a utilização de dispositivos pessoais não seguros para trabalho remoto ou impedir a utilização de aplicativos SaaS não autorizadas graças à computação em nuvem. Enquanto o uso de aplicativos não aprovados é chamado de "TI invisível," a possível situação sob uma proibição de LLM passou a ser conhecida como "IA não autorizada."

A segurança pode proibir certos aplicativos bloqueando os endereços de IP ou URLs dessas ferramentas, mas é claro que essas restrições não são perfeitamente eficazes. Os dispositivos pessoais podem não ter os clientes de segurança corretos instalados; os equipamentos da empresa podem ser usados em redes que não sejam da empresa. Alguns usuários podem até usar uma VPN para contornar regras de firewall e acessar ferramentas proibidas.


Uma alternativa à proibição: prevenção contra perda de dados

Uma coisa que pode ser dita com certeza sobre o ChatGPT e serviços semelhantes é que essas ferramentas são imensamente populares. Uma proibição pode ajudar a reduzir o uso e o vazamento de dados associado. Mas os CISOs podem presumir que seus funcionários estão usando essas ferramentas, seja em um dispositivo corporativo ou pessoal. Assim, devem considerar fortemente a aplicação de uma solução de prevenção de perda de dados (DLP).

As soluções de DLP usam uma variedade de táticas para detectar dados sensíveis e evitar que saiam de um ambiente protegido. Esses métodos incluem correspondência de padrões, de palavras-chave, de hash de arquivos e impressão digital de dados. Mas o mais relevante para evitar o vazamento de dados para ferramentas de IA é a capacidade de restringir copiar e colar, fazer uploads e entradas de teclado.

As soluções DLP (quando combinadas com o isolamento do navegador) devem ser capazes de impedir a cópia e colagem pelos funcionários, impedindo-os de inserir dados confidenciais em qualquer aplicativo web, incluindo LLMs. O DLP também pode bloquear uploads de dados, interromper determinadas entradas do teclado e detectar dados confidenciais em solicitações HTTP de saída.

As organizações podem ou não querer proibir o uso da IA generativa. Aquelas que o fizerem podem não conseguir parar completamente o seu uso. Mas para organizações em qualquer situação, o DLP oferece uma alternativa tanto ao uso irrestrito de IA quanto às proibições dela.


As empresas deveriam proibir o uso do ChatGPT pelos funcionários?

É claro que o DLP não garante que o upload de dados não será feito. No geral, os CISOs terão que pesar os prós e os contras de permitir o uso do ChatGPT e de outros LLMs, e suas conclusões serão diferentes de acordo com o setor. Em setores altamente regulamentados, como o bancário, o upload de conteúdo para LLMs pode ser inviável. Em outros setores, os CISOs podem avaliar o uso de IA caso a caso, ou simplesmente permiti-lo livremente.

Mas toda empresa tem dados sensíveis para proteger, e o DLP pode ajudar a manter esses dados fora dos bancos de dados de LLMs. Devido à importância da proteção de dados no ambiente atual, a Cloudflare oferece o DLP como parte do Cloudflare AI Security Suite para ajudar a reduzir o risco de exposição de dados e códigos, mesmo com o uso crescente de ferramentas de IA generativa no local de trabalho.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Saiba mais sobre esse assunto.

Obtenha o artigo técnico Simplificar a forma de proteger aplicativos SaaS para saber como a Cloudflare ajuda as organizações a proteger seus aplicativos e dados com uma abordagem Zero Trust.





Principais conclusões

Após ler este artigo, você entenderá:

  • Por que os modelos de linguagem ampla (LLMs) colocam os dados em risco

  • Várias empresas globais proibiram o uso interno do ChatGPT e outras ferramentas de IA generativa

  • Como a prevenção contra perda de dados (DLP) pode permitir o uso da IA com segurança


Recursos relacionados

Receba um resumo mensal das informações mais populares da internet.