©2022 - Todos os Direitos Reservados

Checklist Indispensável para Segurança Cibernética de LLMs: Protegendo sua Organização

Checklist Indispensável para Segurança Cibernética de LLMs: Protegendo sua Organização

À medida que a adoção de Inteligência Artificial Generativa (GenAI) e Grandes Modelos de Linguagem (LLMs) se acelera em todo o mundo, as organizações se encontram em um território inexplorado ao lidar com os riscos e desafios de segurança cibernética associados a essas poderosas tecnologias. Os LLMs apresentam oportunidades emocionantes de inovação, eficiência e vantagem competitiva, mas também trazem sérias preocupações em termos de ameaças adversárias aprimoradas, novos vetores de ataque e desafios regulatórios e de governança.

Neste artigo, exploraremos a Lista de Verificação de Segurança Cibernética e Governança para Aplicações de Grandes Modelos de Linguagem (LLMs) publicada pelo projeto OWASP Top 10 for LLM Applications. Esta lista de verificação abrangente visa orientar organizações e profissionais de segurança cibernética na criação de estratégias robustas para adotar LLMs de forma segura e responsável, mitigando riscos e aproveitando os benefícios dessas tecnologias transformadoras.

Entendendo os Desafios dos Grandes Modelos de Linguagem

Os Grandes Modelos de Linguagem (LLMs) enfrentam vários desafios únicos e sérios. Um dos mais importantes é que, ao trabalhar com LLMs, os planos de controle e dados não podem ser estritamente isolados ou separáveis. Outro grande desafio é que os LLMs são não determinísticos por design, produzindo resultados diferentes quando solicitados ou consultados. Os LLMs empregam pesquisa semântica em vez de pesquisa por palavras-chave, o que representa uma mudança significativa em relação à forma como os consumidores usavam anteriormente a tecnologia, impactando a consistência e confiabilidade dos resultados.

Além disso, os "devaneios" ou "alucinações", que surgem das lacunas e falhas de treinamento nos dados nos quais o modelo é treinado, são um resultado desse método. Existem maneiras de melhorar a confiabilidade e reduzir a superfície de ataque para ataques de "jailbreaking", enganação de modelos e alucinações, mas há um trade-off entre restrições e utilidade, tanto em custo quanto em funcionalidade.

A adoção de LLMs aumenta a superfície de ataque de uma organização. Alguns riscos associados aos LLMs são únicos, mas muitos são questões conhecidas, como a lista de materiais de software (SBoM), cadeia de suprimentos, proteção de perda de dados (DLP) e acesso autorizado. Há também riscos aumentados não diretamente relacionados à GenAI, mas a GenAI aumenta a eficiência, capacidade e eficácia dos atacantes que atacam e ameaçam organizações, indivíduos e sistemas governamentais.

Princípios Fundamentais de Segurança

Embora os LLMs introduzam um novo tipo de ataque e superfície de ataque, sendo vulneráveis a complexos bugs de lógica de negócios, como injeção de prompt, design inseguro de plug-ins e execução remota de código, as melhores práticas existentes são a melhor maneira de resolver esses problemas. Uma equipe interna de segurança de produtos que entenda revisão segura de software, arquitetura, governança de dados e avaliações de terceiros é essencial. A equipe de segurança cibernética também deve verificar quão fortes são os controles atuais para encontrar problemas que possam ser agravados pelos LLMs, como clonagem de voz, suplantação de identidade ou bypass de captchas.

É recomendado incluir profissionais experientes em aprendizado de máquina, Processamento de Linguagem Natural (PLN), Compreensão de Linguagem Natural (NLU), Aprendizado Profundo e, mais recentemente, LLMs e GenAI, junto com as equipes de segurança cibernética e DevOps. Sua expertise não apenas auxiliará na adoção dessas tecnologias, mas também no desenvolvimento de análises e respostas inovadoras para os desafios emergentes.

Incorporando Segurança de LLM aos Controles e Processos Existentes

Embora a IA e a IA Generativa adicionem uma nova dimensão à segurança cibernética, resiliência, privacidade e atendimento aos requisitos legais e regulatórios, as melhores práticas que existem há muito tempo ainda são a melhor forma de identificar problemas, encontrar vulnerabilidades, corrigi-las e mitigar potenciais problemas de segurança.

Confirme que a gestão dos sistemas de IA está integrada às práticas organizacionais existentes. Certifique-se de que os sistemas de IA seguem as práticas existentes de privacidade, governança e segurança, com práticas específicas de privacidade, governança e segurança de IA implementadas quando necessário.

Ao integrar a segurança cibernética de LLMs aos controles, processos e procedimentos de segurança cibernética estabelecidos de uma organização, é possível reduzir sua vulnerabilidade a ameaças. A checklist do OWASP fornece orientações valiosas sobre como realizar essa integração de maneira eficaz.

A Lista de Verificação OWASP para Segurança Cibernética e Governança de LLM

A Lista de Verificação de Segurança Cibernética e Governança para Aplicações de LLM do OWASP é um recurso abrangente que aborda diversas áreas críticas que as organizações devem considerar ao adotar LLMs. Vamos explorar alguns dos principais tópicos abordados na lista de verificação.

Determinando a Estratégia de LLM

Antes de implementar soluções de LLM, é essencial determinar a estratégia adequada para sua organização. A lista de verificação do OWASP fornece orientação sobre as diferentes opções de estratégia de implantação, que variam desde o uso de aplicativos públicos de consumo até o treinamento de modelos proprietários em dados privados.

Modelagem de Ameaças

A modelagem de ameaças é altamente recomendada para identificar ameaças e examinar processos e defesas de segurança. A lista de verificação orienta sobre como modelar ameaças para ataques acelerados por GenAI e antes de implantar LLMs, uma das maneiras mais eficazes em termos de custos para identificar e mitigar riscos, proteger dados, proteger a privacidade e garantir uma integração segura e compatível com o negócio.

Inventário de Ativos de IA

A manutenção de um inventário preciso de ativos de IA, incluindo serviços, ferramentas, fontes de dados e suas respectivas sensibilidades, é fundamental para gerenciar riscos e implementar controles adequados. A lista de verificação fornece orientações sobre como catalogar esses ativos de maneira eficaz.

Treinamento em Segurança e Privacidade de IA

O treinamento é essencial para garantir que todos os funcionários entendam os riscos e as melhores práticas ao lidar com LLMs. A lista de verificação enfatiza a necessidade de treinamento em ética, responsabilidade, questões legais, conscientização sobre segurança relacionada à GenAI e muito mais.

Governança

A governança corporativa em LLMs é necessária para fornecer transparência e responsabilidade às organizações. A lista de verificação orienta sobre como estabelecer políticas, definir funções e responsabilidades, gerenciar dados e garantir o uso aceitável de ferramentas de GenAI.

Considerações Legais

Os LLMs apresentam várias implicações legais indefinidas e potencialmente muito onerosas. A lista de verificação aborda questões críticas, como garantias de produto, contratos, propriedade intelectual, responsabilidade, privacidade e muito mais, incentivando uma parceria estreita entre TI, segurança e equipes jurídicas.

Requisitos Regulatórios

À medida que as regulamentações de IA evoluem, as organizações devem estar cientes das obrigações específicas em suas jurisdições. A lista de verificação orienta sobre como determinar os requisitos de conformidade relacionados à IA, incluindo privacidade do consumidor, monitoramento de funcionários, reconhecimento facial e muito mais.

Implementação de Soluções de LLM

Ao implementar soluções de LLM, a lista de verificação enfatiza a importância de modelar ameaças nos componentes e arquitetura de LLM, implementar controles de acesso e validação de entrada robustos, monitorar e responder a incidentes, realizar testes abrangentes e avaliar a segurança da cadeia de suprimentos.

Testes, Avaliação, Verificação e Validação (TEVV)

O processo contínuo de TEVV (Testes, Avaliação, Verificação e Validação) é essencial ao longo do ciclo de vida do modelo de IA. A lista de verificação recomenda estabelecer esse processo, fornecendo métricas e atualizações executivas regulares sobre a funcionalidade, segurança, confiabilidade e robustez do modelo de IA.

Cartões de Modelo e Cartões de Risco

Os cartões de modelo e cartões de risco são elementos fundamentais para aumentar a transparência, responsabilidade e implantação ética dos Grandes Modelos de Linguagem (LLMs). A lista de verificação orienta sobre como revisar esses cartões e estabelecer um processo para rastreá-los e mantê-los atualizados.

Otimização de LLM e Red Teaming de IA

A lista de verificação discute abordagens como Geração Aumentada por Recuperação (RAG) para otimizar os LLMs e a necessidade de incorporar testes de equipe vermelha (red teaming) como prática padrão para modelos e aplicativos de IA.

Recursos Adicionais

Além da lista de verificação detalhada, o documento fornece vários recursos valiosos, incluindo uma visão geral dos principais conceitos de IA responsável e confiável, taxonomias de vulnerabilidade e mitigação, e links para padrões, estruturas e ferramentas relevantes do OWASP, MITRE e outras organizações líderes.

Conclusão:

À medida que as organizações avançam em direção a um futuro impulsionado pela IA, a Lista de Verificação de Segurança Cibernética e Governança para Aplicações de LLM do OWASP oferece uma orientação essencial para navegar com segurança pelos desafios e aproveitar as oportunidades dos Grandes Modelos de Linguagem. Ao seguir as melhores práticas delineadas nesta lista de verificação abrangente, as organizações podem criar estratégias robustas para adotar LLMs de forma responsável, mitigando riscos, protegendo dados e privacidade, e garantindo conformidade regulatória.

À medida que a adoção de LLMs continua a crescer, é imperativo que os profissionais de segurança cibernética permaneçam vigilantes, educados e proativos. Esta lista de verificação oferece um recurso valioso para ajudar as organizações a se prepararem para o futuro da IA Generativa, capacitando-as a inovar com confiança e segurança. Juntos, podemos moldar um futuro onde a IA é uma força para o bem, impulsionando o progresso e o avanço da humanidade, ao mesmo tempo em que protegemos nossa segurança, privacidade e valores fundamentais.

Quer amadurecer seu programa de segurança cibernética? Conheça a EcoTrust, a plataforma CAASM que prioriza riscos cibernéticos críticos para o negócio. Agende uma demo aqui