Originalmente publicado por Shahar Fermon no blog da XM Cyber, parceira da Bravo para soluções de cibersegurança e líder global em segurança de nuvem híbrida.
Na era digital atual, a cibersegurança se tornou essencial para as operações de todas as organizações e parte integrante de nossa consciência como indivíduos. Com o número cada vez maior de ameaças cibernéticas e sistemas críticos sendo invadidos ou descobertos como vulneráveis, são necessárias abordagens inovadoras para proteger ativos confidenciais de atores maliciosos.
Um dos avanços mais recentes na área foi alavancar a inteligência artificial (IA) ou o uso de modelos generativos. O uso de IA pode ser potencialmente útil, não apenas para o CISO/CSO (Chief Information Security Officer/Chief Security Officer) e a equipe de segurança, mas também para a equipe de sistema, de rede e outras equipes em toda a organização.
Compreendendo a Inteligência Artificial Generativa
Você já deve saber disso, mas caso não saiba, aqui está uma breve explicação: a Inteligência Artificial Generativa, ou IAG, se refere a um subconjunto de técnicas de IA que visam criar saídas, como textos ou imagens, que imitam respostas semelhantes às humanas. Com algoritmos avançados e processos de treinamento, os modelos de IAG ganharam atenção significativa devido à sua capacidade de gerar conteúdo realista e apropriado ao contexto.
Plataformas de IA proprietárias, como OpenAI e AI21Labs, fizeram progressos notáveis no desenvolvimento de modelos de IA generativos como o GPT-3. Vimos crianças em idade escolar usando-o para fazer suas tarefas e professores usando-o para verificar as tarefas das crianças, os médicos o usam para obter diagnósticos melhores e mais rápidos, e os advogados o usam para entender e provar precedentes em casos. Obviamente, há um milhão de outras maneiras pelas quais ele está sendo aproveitado, mas, aqui na XM Cyber, nossa equipe de segurança experimentou o ChatGPT para resolver certos problemas de cibersegurança e, para nossa alegria, ele produziu excelentes resultados.
Formas como a IAG pode ser usada na cibersegurança
Na XM Cyber, estamos atualmente usando IA em vários casos de nossos clientes. Por exemplo, quando nossa análise de caminho de ataque encontra pontos de estrangulamento (choke points), ela recomenda maneiras de remediar. No entanto, muitas vezes, a área de TI não consegue realizar a remediação, devido a diversos possíveis motivos. Com o uso da IAG, as equipes de segurança podem obter a capacidade de negociar com o TI, localizando múltiplas remediações alternativas que fornecem os mesmos resultados.
Ao mesmo tempo, estamos trabalhando para ter uma rede neural GPT (sigla em inglês que significa ‘transformadores pré-treinados generativos’) dedicada a cada cliente, permitindo que o CISO e a equipe de segurança perguntem sobre suas entidades mais arriscadas e como mitigar esses riscos.
Mas podemos ter um problema…
No entanto, a utilização de plataformas de IA proprietárias em produtos de cibersegurança levanta algumas preocupações. Embora esses modelos ofereçam um imenso potencial para automatizar várias tarefas, como codificar softwares ou ajudar as equipes de segurança a mitigar problemas e até mesmo escrever este texto (!!!), eles também apresentam novos desafios em relação à privacidade e segurança. Aqui, compartilharemos as preocupações de privacidade que tivemos que abordar durante a pesquisa que conduzimos e por que acreditamos que usar projetos de código aberto, como NanoGPT e LlamaIndex, ou soluções privadas, como aleph-alpha, é uma abordagem melhor do que usar alternativas como o famoso OpenAI (e seu ChatGPT) ou AI21Labs, para garantir a privacidade de dados de nossos clientes.
Mas, para entender o problema de privacidade apresentado, vamos imaginar uma empresa. Essa empresa compartilha dados com sua plataforma de IA escolhida para resolver um problema persistente, como tentar corrigir ou localizar um determinado bug que está afetando o desempenho. Como os dados prontos são armazenados, eles podem ser compartilhados fora da organização, quando outras organizações usam a ferramenta para realizar suas próprias pesquisas — que foi exatamente o que aconteceu na Samsung alguns meses atrás.
Então contar à IA sobre seu problema de cibersegurança e pedir uma solução pode resultar na IA contando a outra pessoa sobre o seu problema. Pode demorar tempo até implementarem uma solução e, até lá, a IA irá “conversar” sobre seu problema com todos que perguntarem. (E, a propósito, caso você esteja se perguntando, não, você não pode pedir à IA para “esquecer” o que foi perguntado.)
O vazamento de dados é apenas uma preocupação entre muitas. Existem muitas outras maneiras pelas quais a segurança pode ser impactada negativamente pelo uso de IA, como a alucinação de dados (data hallucination).
Preservando a privacidade e a segurança com módulos dedicados
Para abordar as preocupações com privacidade e vazamento de informações, começamos a pesquisar e desenvolver um módulo privado, que é treinado internamente e, depois, executado como um serviço dedicado por um cliente. A utilização desse método de isolamento elimina qualquer vazamento de dados entre clientes e fornece melhores respostas a longo prazo, não apenas para a equipe de segurança, mas também para outras equipes, e ajuda a mitigar os riscos de privacidade e segurança. Isso significa que nós — e nossos usuários — podemos aproveitar os imensos recursos da IA, sem medo de divulgar informações confidenciais para outros usuários.
A IA pode me substituir?
Outra coisa que nos pegávamos pensando com frequência era se a IA eventualmente nos substituiria. Estou feliz em informar que, com o tempo, tornou-se mais do que evidente que a IA serve mais como uma ferramenta de apoio, ao invés da alternativa, fornecendo feedback excelente e informações úteis, mas não realmente executando, ou mesmo fornecendo, a resposta inteira para um determinado problema.
E assim, nossa equipe de segurança aprendeu a “dirigir” o sistema e fornecer instruções melhores para outras equipes, como a equipe de sistema/TI ou equipes de DevOps, para melhorar o fluxo de informações entre a segurança e outras equipes de suporte. À medida que vimos esse “relacionamento” de IA, Segurança e TI, por exemplo, crescer, começamos a planejar como fornecer esse feedback diretamente a outras equipes dentro da organização.
Conclusão
Existem várias empresas por aí que adotaram um estilo “a todo vapor” (ou pelo menos dizem que sim) quando se trata de IA e suas capacidades. Nossa visão é que é promissor e é possivelmente o futuro de uma cibersegurança melhor. Estamos ansiosos para usá-lo para obter formas mais rápidas, precisas e, simplesmente, MAIS formas de remediar. Ao mesmo tempo, ela deve ser usada de forma responsável e com uma visão completa das potenciais armadilhas. À medida que o cenário de cibersegurança evolui, fornecedores privados de IA e iniciativas de código aberto, como o NanoGPT, serão cruciais para capacitar as empresas a adotar defesas baseadas em IA sem comprometer a privacidade e segurança de dados.