Tornou-se cada vez mais evidente que as complexidades e os desafios que definiram o cenário de riscos em 2023 quase certamente persistirão ao longo de 2024 e além. As empresas continuarão a enfrentar um cenário de riscos implacável e intrincado; em vez de lidar com ameaças isoladas, elas são confrontadas com uma teia complexa de desafios interconectados. Alguns consideram a inteligência artificial (IA) na Gestão de Riscos como uma solução notavelmente potente, capaz de enfrentar de frente os desafios mais urgentes. Na Everbridge, mantemos uma postura mais cautelosa, enquanto avaliamos diligentemente o uso da IA no cenário geral de Gestão de Riscos.
Estamos em uma era de policrise e permacrise. Eventos climáticos severos aumentaram em frequência, intensidade e imprevisibilidade. Agitações civis e protestos dispararam. A instabilidade geopolítica é iminente.
O surgimento da tecnologia deepfake, esquemas de ransomware-for-hire (cibercrime em que hackers oferecem serviços de ransomware a outros criminosos) e novas formas de manipulação e fraude aumentam a complexidade da situação. Com vídeos e imagens deepfake, é possível replicar imagens e vozes de indivíduos confiáveis para disseminar informações falsas ou induzir à tomada de decisões imprudentes. Da mesma forma, a proliferação de desinformação e informações falsas complica ainda mais os desafios que enfrentamos.
À medida que enfrentamos esses desafios interligados e persistentes, é evidente que, embora a tecnologia, especialmente a inteligência artificial para Gestão de Riscos, tenha desempenhado um papel fundamental no agravamento do problema, ela também pode ser a chave para mitigar essas complexidades.
Vantagens da IA
Para deixar claro, a detecção moderna de ameaças nas empresas seria muito difícil sem a assistência da IA e do processamento algorítmico. Identificamos pelo menos quatro (4) áreas em que a automação e o processamento algorítmico são superiores ao julgamento e ao esforço humano:
- Detecção precoce de indicadores e sinais fracos.
- Análise inicial e triagem de sinais de eventos potenciais (em larga escala).
- Orientação geoespacial rápida.
- Geração/sumarização de texto.
Detecção precoce de indicadores e sinais fracos
Sistemas baseados em IA podem detectar assinaturas sutis ou indicadores de ameaças e riscos potenciais dentro de grandes conjuntos de dados, ajudando as organizações a identificar padrões emergentes ou anomalias que podem significar possíveis ameaças. Ao analisar continuamente os dados e detectar essas assinaturas, a IA pode fornecer alertas antecipados e permitir respostas proativas para mitigar os riscos de maneira eficaz.
Análise inicial e triagem de sinais de eventos potenciais (em larga escala)
Sistemas movidos por IA são extremamente proficientes em realizar análises rápidas de grandes volumes de sinais de eventos potenciais. Esses sistemas utilizam algoritmos avançados para triagem automática de dados recebidos, rapidamente identificando e priorizando possíveis ameaças ou incidentes com base em critérios predefinidos. Além de simplificar o processo de análise inicial, os sistemas podem oferecer categorias de ameaças e níveis de gravidade.
Orientação geoespacial rápida
A IA utiliza gazetteers (diretórios geográficos) e Sistemas de Informação Geográfica (GIS, na sigla em inglês) para rapidamente aproximar e sugerir a localização geográfica de possíveis eventos de risco. Essa capacidade permite que as organizações se orientem rapidamente no contexto espacial de ameaças ou incidentes emergentes.
Geração e sumarização de texto
Sistemas de IA podem analisar o conteúdo e os metadados de postagens em redes sociais e notícias relacionadas a eventos de segurança. O objetivo é identificar e extrair informações relevantes para a natureza da ameaça. A partir disso, os sistemas mais avançados podem analisar e sintetizar os dados brutos em resumos concisos.
Entretanto, os sistemas têm dificuldade com o pensamento de segunda ordem e o esforço adicional necessário para garantir inteligência de alta precisão, especialmente quando encarregados de categorizar ameaças com precisão em diferentes níveis de urgência. Confiar exclusivamente na IA traz limitações, como ao tentar mapear ameaças com um alto grau de fidelidade ou interpretar sinais sutis que podem ser facilmente mal compreendidos. Embora avançados, os sistemas de IA estão longe de serem ideais — fornecendo inteligência de confiança baixa a moderada, o que pode levar a erros quando decisões críticas são tomadas com base apenas nesses dados.
Limitações da IA
Identificamos pelo menos quatro (4) áreas em que o julgamento e o esforço humano superam a automação e o processamento algorítmico (por enquanto) no campo da inteligência de risco:
- Precisão e exatidão geoespacial.
- Classificação de eventos e determinação de gravidade.
- Precisão temporal.
- Qualidade da fonte.
Precisão e exatidão geoespacial
Com metadados estruturados, os sistemas de IA conseguem posicionar bem os eventos em um mapa. No entanto, a maioria dos sinais é sutil e complexa; nesses casos, os sistemas de IA frequentemente recorrem ao centro geográfico da fronteira administrativa mais próxima — centro da cidade ou da província. Frequentemente, esse é o melhor resultado que o sistema pode produzir. Analistas humanos, por outro lado, utilizam uma variedade de ferramentas de inteligência obtida a partir de fontes de dados abertas e públicas (OSINT – Open Source Intelligence, em inglês) e de orientação geográfica que exigem entradas mais detalhadas. O esforço humano, portanto, permite posicionar o evento com precisão.
Classificação de eventos e determinação de gravidade
Algoritmos são bons em ‘sentir’, mas muitas vezes não em ‘dar sentido’. Compreender uma situação para determinar os níveis adequados de gravidade e a caracterização da ameaça exige contexto. O profissional de inteligência considerará as narrativas básicas (atuais e históricas) no local e avaliará características geográficas aproximadas para fatores que possam agravar ou aliviar a situação.
Essa interpretação sutil vai além das capacidades da IA, que geralmente pontua e classifica ameaças com base apenas em algoritmos programados e não possui a capacidade humana de considerar as sutilezas que podem alterar a gravidade de uma situação.
Precisão temporal
Sistemas automatizados ainda se confundem com sinais atuais que se referem a eventos passados — às vezes de anos antes. Para a inteligência e resposta de segurança atuais, é crucial saber se o evento está ocorrendo agora ou se aconteceu dias atrás.
Qualidade da fonte
Atores geopolíticos, adversários, grupos criminosos e até adolescentes entediados têm interesse em fomentar conflitos e criar divisões. Campanhas de desinformação corroem o discurso público e aprofundam brigas políticas ou culturais.
Embora alguns sistemas de IA façam um bom trabalho de identificar padrões que correspondem à assinatura de grandes campanhas de desinformação, em situações mais sutis, os sistemas de IA frequentemente são enganados por esses esforços e não conseguem identificar ou suprimir informações falsas. Analistas treinados se saem melhor do que as máquinas ao avaliar a confiabilidade de uma fonte e a credibilidade das informações fornecidas.
Desafios da IA na Gestão de Riscos
Embora os sistemas de IA tenham feito avanços significativos na categorização de eventos de risco, eles ainda enfrentam vários desafios e limitações. Uma das principais limitações é a dificuldade em interpretar com precisão sinais sutis ou pistas contextuais que podem ser cruciais para entender a gravidade ou a natureza de uma ameaça. Os sistemas de IA também podem ter dificuldades em detectar e mitigar riscos emergentes ou desconhecidos, pois dependem de dados históricos para treinamento e podem não reconhecer novos padrões ou tendências. Além disso, os vieses inerentes aos dados de treinamento podem resultar em avaliações de risco tendenciosas ou imprecisas.
Além disso, a privacidade dos dados pode representar uma preocupação significativa na Gestão de Riscos impulsionada por IA. Como os sistemas de IA dependem fortemente de grandes quantidades de dados para treinamento e tomada de decisões, garantir a privacidade e a segurança dessas informações torna-se crucial. Questões como acesso não autorizado, vazamentos de dados e uso indevido de informações pessoais podem comprometer a integridade e a confiabilidade das avaliações de risco feitas por IA. Integrar medidas robustas de privacidade nos sistemas de IA é essencial para mitigar os possíveis riscos associados ao manuseio de dados.
Modelo Centauro para inteligência de risco
O Modelo Centauro é uma abordagem colaborativa para a análise de inteligência que combina as forças de analistas humanos com as capacidades de algoritmos de IA. Na mitologia grega, um centauro é uma criatura com a parte superior do corpo de um humano e a inferior de um cavalo, simbolizando a fusão da inteligência humana com o poder de processamento das máquinas.
No Modelo Centauro, analistas humanos fornecem pensamento crítico, intuição e compreensão contextual, enquanto os algoritmos de IA se destacam no processamento rápido e eficiente de grandes volumes de dados. Juntos, formam uma relação simbiótica em que cada um complementa as forças do outro e mitiga as fraquezas.
O Centro de Monitoramento de Inteligência de Risco (RIMC, na sigla em inglês) da Everbridge adota totalmente o Modelo Centauro.
No cenário de inteligência atual, há uma pressão dupla emergindo dos consumidores: 1) o medo de perder informações e 2) preocupações com a qualidade dos dados ser comprometida por um processamento inadequado ou pela injeção deliberada de desinformação ou má-informação.
Equilibrar essas pressões é essencial para obter inteligência precisa e acionável. A IA sozinha pode trazer muitos dados para o usuário, mas esses sistemas frequentemente passam bastante ruído junto com o sinal. A supervisão humana é crucial para garantir precisão, compreensão contextual e considerações éticas que impulsionarão decisões de alta qualidade e confiança.
A fadiga de sinais é um desafio significativo na inteligência de risco, quando o influxo de sinais irrelevantes ou não acionáveis pode sobrecarregar as equipes. O Modelo Centauro aborda essa questão ao aproveitar o julgamento humano para filtrar e priorizar sinais, reduzindo o risco de perder informações críticas.
À medida que a IA continua a evoluir, o Modelo Centauro permanece equilibrado. Ele defende uma abordagem colaborativa, em que os humanos orientam os algoritmos de IA, fornecendo julgamento e intuição especializados. Isso garante que os esforços de inteligência de risco sejam abrangentes, precisos e acionáveis, mesmo diante de ameaças em constante evolução.
À medida que navegamos pela era da policrise e permacrise, o Modelo Centauro se destaca como um farol de inovação na inteligência de risco. Ao integrar de forma fluida os algoritmos de IA com a expertise humana, ele oferece uma abordagem transformadora para a avaliação de riscos, reformulando o futuro da Gestão de Riscos para melhor.
Saiba mais sobre como a Everbridge, parceira da Ambipar ESG, pode ajudar a sua empresa: