Las empresas están siempre a la búsqueda de formas de ganar eficiencia y productividad, y para muchos, la idea de utilizar los modelos lingüísticos de gran tamaño (LLM) basados en la IA como ChatGPT para generar contenido, chatear con clientes e incluso desarrollar software parece prometedora. Sin embargo, muchas grandes empresas han descubierto, por el contrario, que no tienen otra opción que impedir a sus empleados el uso de estas tecnologías. La pregunta es si otras empresas de su sector seguirán el mismo camino.
¿Por qué prohibir la IA? La razón: los servicios de IA generativa utilizan la entrada de datos para su entrenamiento posterior, lo que en muchos casos implica revelar los datos a partes externas más adelante. En el caso de aquellas organizaciones que poseen o procesan datos confidenciales, mantienen propiedad intelectual patentada, operan en sectores muy regulados o producen software de código cerrado, los resultados de este tipo de fuga de datos podrían ser desastrosos.
Sin embargo, estas herramientas también ofrecen enormes beneficios. Entonces, ¿cómo pueden los CISO determinar si deberían permitir o prohibir ChatGPT y herramientas similares? Considerando, en especial, que tal prohibición podría restringir la productividad de los empleados, ¿es difícil su implementación y se presta a la subversión?
Los empleados podrían considerar que ChatGPT y otros LLM les facilitan sus tareas y mejoran la eficiencia de sus procesos, y podrían utilizar estas herramientas de tal forma que, sin ellos saberlo, resulten en la fuga de datos.
Como todos los modelos de IA, ChatGPT está diseñado para producir mejores resultados a medida que se le proporciona más datos. La fuga de datos involuntaria que puede ocurrir no es necesariamente un defecto, ya que estas herramientas no se han diseñado para ser bóvedas seguras de datos. Al igual que no sería segura la publicación de información confidencial en plataformas de redes sociales como LinkedIn o Instagram, estas aplicaciones no se han creado para proteger los datos privados.
Sin embargo, muchas personas no tienen en cuenta estas vulnerabilidades cuando utilizan modelos de IA en el lugar de trabajo. Un estudio ha revelado que los empleados pegan información confidencial regulada o propiedad intelectual en estas herramientas. En otro caso, ingenieros de Samsung filtraron accidentalmente datos confidenciales tras cargarlos en ChatGPT, lo que llevó a Samsung a restringir el uso de ChatGPT entre sus empleados.
Como cualquier software, los LLM a menudo contienen errores, algunos de los cuales pueden provocar fugas de datos. Hace unos años, OpenAI reveló que un error había causado que partes de las conversaciones de los usuarios con ChatGPT se mostraran a otros usuarios.
Por último, algunas preocupaciones sobre estas herramientas están relacionadas con el cumplimiento y la regulación. No existen garantías sobre cómo se manejan los datos, y compartir información podría llevar a una empresa al incumplimiento de las normativas de seguridad de los datos. Al igual que con cualquier aplicación externa, las filtraciones o la falta de visibilidad sobre cómo se procesan los datos pueden dar lugar a un incumplimiento del Reglamento General de Protección de Datos (RGPD) o de otros marcos normativos. Enviar datos a un LLM también interrumpe el registro de auditoría de datos necesario para el cumplimiento normativo.
Dado los riesgos, varias empresas grandes han decidido prohibir el uso de LLM por completo entre sus empleados.
Amazon implementó una prohibición de ChatGPT tras detectar respuestas de ChatGPT que parecían similares a datos internos de Amazon. Apple implementó su propia prohibición sobre el uso interno de ChatGPT y Copilot, una herramienta de codificación automática de GitHub, debido a la preocupación por las posibles filtraciones de información confidencial en estas herramientas.
El sector financiero ha sido especialmente proactivo en cuanto a bloquear el uso de los LLM. JPMorgan Chase ha impuesto restricciones estrictas sobre el uso interno de ChatGPT, debido a las preocupaciones por la posible filtración de información financiera protegida, lo que podría llevar al incumplimiento de normativas nacionales y de datos del sector. Grandes proveedores financieros como Bank of America, Citigroup y Deutsche Bank han seguido su ejemplo.
Para finalizar, Samsung también ha prohibido el uso de ChatGPT durante largos períodos de tiempo. Han eliminado y reimplantado su prohibición en varias ocasiones.
Basándose en estos y otros ejemplos, las empresas que prohíben o restringen el uso de la IA generativa por parte de los empleados parecen hacerlo por estas razones principales:
Fugas directas de datos internos
Preocupaciones sobre cómo los LLM almacenan, procesan y utilizan las entradas de datos para mejorar sus algoritmos y respuestas, lo que puede imitar datos internos privados y llevar a la distribución accidental de información competitiva
Preocupaciones sobre la falta de registro de cómo los LLM procesan datos regulados
Incluso si una organización decide prohibir o restringir el uso de los LLM, la aplicación de esta prohibición podría resultarles prácticamente imposible.
Establecer un estándar de seguridad no garantiza que los usuarios internos sigan ese estándar o incluso que estén al tanto de la regla. Las organizaciones ya tienen dificultades para bloquear el uso de dispositivos personales no seguros para el trabajo remoto o para impedir el uso de aplicaciones SaaS no autorizadas gracias a la informática en la nube. Aunque el uso de aplicaciones no aprobadas se denomina "Shadow IT", la posible situación sujeta a una prohibición sobre los LLM se conoce como "Shadow IA".
La seguridad puede prohibir ciertas aplicaciones al bloquear las direcciones IP o URL de estas herramientas, pero, por supuesto, estas restricciones no son completamente efectivas. Los dispositivos personales pueden no tener instalados los clientes de seguridad adecuados; el equipo de la empresa puede utilizarse en redes que no pertenecen a la empresa. Usuarios decididos podrían incluso utilizar una VPN para eludir las reglas del firewall y acceder a herramientas prohibidas.
Algo que se puede afirmar con certeza sobre ChatGPT y servicios similares es que estas herramientas son inmensamente populares. Una prohibición puede ayudar a frenar el uso y la fuga de datos asociada. Sin embargo, los CISO pueden querer asumir que sus empleados lo están utilizando, ya sea en un dispositivo corporativo o personal. Para ello, deberían considerar seriamente aplicar una solución de prevención de Data Loss Prevention (DLP).
Las soluciones DLP utilizan distintas tácticas para detectar los datos confidenciales y evitar que salgan de un entorno protegido. Estos métodos incluyen la coincidencia de patrones, la coincidencia de palabras clave, la coincidencia de hash de archivos y la huella digital de datos. Sin embargo, la función más relevante para evitar la fuga de datos en las herramientas de IA es la capacidad de restringir las acciones de copiar/pegar, cargar y entrada de teclado.
Las soluciones de DLP (cuando se combinan con el aislamiento de navegador), deberían ser capaces de evitar el copiado y pegado por parte de los empleados, impidiéndoles ingresar datos confidenciales en cualquier aplicación web, incluyendo los LLM. Los DLP también pueden bloquear las cargas de datos, detener ciertas entradas del teclado y detectar datos confidenciales en las solicitudes HTTP salientes.
Las organizaciones pueden querer prohibir o no el uso de la IA generativa. Es posible que aquellas que decidan hacerlo no sean capaces de impedir totalmente su uso. No obstante, sea cual sea la decisión de estas organizaciones, la DLP les ofrece una alternativa tanto al uso descontrolado de la IA como a la prohibición de su uso.
Por supuesto, la DLP no garantiza que los datos no se carguen. En general, los CISO tendrán que sopesar los pros y contras de permitir el uso de ChatGPT y de otros LLM, y sus conclusiones variarán según el sector. En sectores muy regulados como la banca, cargar contenido en los LLM podría ser completamente inadmisible. En otros sectores, los CISO pueden evaluar el uso de la IA caso por caso, o simplemente permitirlo sin restricciones.
Sin embargo, todas las empresas tienen datos confidenciales que deben proteger, y la DLP puede ayudarles a evitar que esos datos lleguen a las bases de datos de los LLM. Debido a la importancia de la protección de datos en el entorno actual, Cloudflare ofrece DLP como parte de Cloudflare AI Security Suite. El objetivo es ayudar a reducir el riesgo de exposición de datos y de código, incluso a pesar del aumento del uso de las herramientas de IA generativa en el lugar de trabajo.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Descarga el documento técnico "Simplificamos la protección de las aplicaciones SaaS", para descubrir cómo Cloudflare ayuda a las organizaciones a proteger sus aplicaciones y datos con un enfoque Zero Trust.
Después de leer este artículo podrás entender:
Por qué los modelos lingüísticos de gran tamaño (LLM) ponen los datos en riesgo
Varias empresas globales han prohibido el uso interno de ChatGPT y otras herramientas de inteligencia artificial generativa
Cómo Data Loss Prevention (DLP) puede permitir de forma segura el uso de la IA