PT EN ES
Fale conosco

Uma abordagem organizacional para uma inteligência artificial responsável

Para projetar uma transformação digital bem-sucedida com IA, as empresas devem adotar uma nova abordagem para o uso responsável da tecnologia

20 de outubro de 2022
Bravo GRC
Artigo Uma abordagem organizacional para uma inteligência artificial responsável

O Fórum Governança 4.0 é uma coprodução de MIT Sloan Review Brasil e Bravo GRC. Publicado originalmente no Fórum Governança 4.0.

À medida que a tecnologia avançou e se tornou onipresente em nossas vidas, uma questão filosófica comum se apresenta: a tecnologia em si é neutra? Há muitos bons argumentos a serem feitos de que ela é – e que é a partir do momento que a tecnologia é usada e implantada que cria resultados bons ou ruins para indivíduos, empresas e sociedade.

Essa questão é importante para a transformação digital que afeta os negócios hoje. Com os dados atuando como combustível para a inteligência artificial (IA), os problemas em torno da privacidade do cliente e do rastreamento de dados têm aumentado. Organizações e governos reconhecem essa preocupação, o que foi evidenciado pelo Regulamento Geral de Proteção de Dados da União Europeia (GDPR, na sigla em inglês), que entrou em vigor em 2018 para proteger a privacidade dos cidadãos europeus.

A IA difere de muitas outras ferramentas de transformação digital e levanta diferentes preocupações porque é a única tecnologia que aprende e consegue mudar seus resultados. Assim, pode cometer erros mais graves mais rapidamente do que um humano poderia. Apesar do risco amplificado de sua velocidade e escala, a IA também pode ser tremendamente valiosa nos negócios. A PwC, a partir do estudo global Exploiting the AI Revolution, estima que a IA pode contribuir com até US$ 15,7 trilhões para a economia global em 2030.

Em diferentes graus, todas as empresas precisarão se tornar “empresas de inteligência artificial” para que possam aproveitar os benefícios que podem ser obtidos por meio de um maior conhecimento de seus clientes, explorar novos mercados e neutralizar outras empresas orientadas por IA que possam buscar sua participação no mercado. Como exemplo disso, nos últimos anos, vimos como a Netflix ultrapassou a posição da ExxonMobil em valor – um lembrete para as empresas construídas em outro contexto que o uso de uma estratégia que contempla inteligência artificial e uso de dados é a chave para abraçar uma nova visão do futuro.

Para se beneficiar da IA e, ao mesmo tempo, reduzir os riscos inerentes ao seu uso, as empresas devem ser suficientemente ágeis para adotar as melhores práticas de uma transformação responsável com a IA. Muitas ferramentas estão agora disponíveis para ajudar líderes e organizações a navegar pelo uso complexo do conceito. Como base, as companhias devem transformar sua maneira de pensar sobre sua organização, força de trabalho, design de produto, desenvolvimento e uso da IA para projetar seu sucesso.

Um exemplo é o trabalho da plataforma de inteligência artificial no Fórum Econômico Mundial, criada para fornecer recomendações para empresas sobre o uso responsável da tecnologia. A plataforma identifica três mudanças fundamentais que são importantes para as empresas que desejam implantar a IA de maneira responsável. Quando tais mudanças são negligenciadas no processo de transformação digital, as empresas correm o risco de fracassar e prejudicar sua reputação. Os três princípios da IA responsável são:

  1. Toda a organização deve estar engajada com a estratégia de IA, que envolve uma revisão organizacional total e possíveis mudanças.
  2. Todos os colaboradores precisam conhecer e receber treinamento para entender como a IA é usada na empresa. Assim, diversas equipes podem ser criadas para gerenciar o seu design, seu desenvolvimento e seu uso. Além disso, os funcionários devem entender como o uso afetará seu trabalho e poderá potencialmente ajudá-los.
  3. A responsabilidade pelos produtos de IA não termina no ponto de vendas: as empresas devem realizar auditorias periódicas em suas plataformas, responsabilizando-se por todas as ideias e produtos antes do desenvolvimento e implantação.

IA responsável e a experiência do colaborador

Além de oferecer melhores resultados do ponto de vista ético e proteger a confiança das partes interessadas, a IA responsável é uma boa aposta para empresas que querem economizar dinheiro. O Gartner estimou que 85% de todos os algoritmos fornecerão resultados errados até 2022, devido aos vieses nos dados e das equipes que os criam. As companhias podem se proteger contra esse risco fornecendo melhor treinamento e tomando medidas adequadas para lidar com o viés em algoritmos.

Outras áreas em que os vieses de inteligência artificial têm se mostrado prejudiciais são a contratação e a retenção – no entanto, muitas empresas estão correndo para implementar tecnologia para esses fins. As organizações precisam observar as possíveis desvantagens que alguns algoritmos trazem para o processo de triagem e contratação, uma vez que podem reproduzir um mesmo modelo profissional indefinidamente, o que pode ter um impacto direto em resultados como diversidade e inclusão.

Quando se trata de requalificar e reter funcionários, a IA pode ser útil quando implantada para busca interna e treinamento de funcionários para novos cargos. Muitos funcionários têm habilidades que podem ser construídas para serem usadas em uma nova posição, mas os negócios – muitas vezes – não percebem toda a capacidade de seus colaboradores.

Empresas que buscam atrair e reter funcionários com habilidades de IA podem levar vantagem neste processo de construção de cultura, pois os mais talentosos profissionais da área valorizam posições éticas e transparentes. Há tão poucos designers qualificados em meio à enorme demanda por produtos que o desenvolvimento de um programa de IA responsável pode reforçar a estratégia de recrutamento de uma empresa e fornecer uma vantagem competitiva.

IA responsável para clientes e stakeholders

À medida que a sociedade é afetada pela inteligência artificial, o público se mostra mais preocupado com a tecnologia e seus usos. Cerca de 88% dos europeus e 82% dos norte-americanos acreditam que a IA precisa ser cuidadosamente gerenciada.

É mais importante do que nunca que os negócios desenvolvam estratégias em torno do uso responsável e as comuniquem bem aos stakeholders internos e externos, a fim de manter a responsabilização. As empresas também devem ter em mente que uma abordagem única nem sempre funciona com tecnologia emergente; em vez disso, precisa combinar a solução certa de IA com os clientes certos e criar ofertas de negócios que estejam alinhadas com suas necessidades.

As organizações também devem se antecipar e lembrar que tudo o que traz algum tipo de ruptura, como é o caso da IA, exigirá, provavelmente, mais regulação. Em 2021, a União Europeia propôs novas regras e regulamentos para a IA que teriam implicações para as organizações em todo o mundo. Trata-se de uma abordagem baseada em potenciais riscos, e todas as empresas que usam IA na Europa devem se preparar para cumprir. É claro que, como em toda a legislação, deve ser um primeiro passo, não a última palavra, uma vez que ainda há muito a construir.

Outra área em desenvolvimento é a adição de IA responsável à agenda ESG (o trio de questões ambiental, social e de governança). Cada vez mais os investidores querem saber sobre o uso da inteligência artificial e como as empresas respondem responsavelmente a ele. Da mesma forma, investidores de capital de risco começam a questionar se é uma boa ideia colocar dinheiro em startups que não pensaram na IA responsável. Isso afeta os negócios tradicionais de três maneiras:

  1. Startups com estratégias de IA responsáveis serão mais valiosas.
  2. O tipo de abordagem quanto à inteligência artificial de um investidor pode condicionar a compra de uma startup, ainda que esta faça uso responsável de IA.
  3. Os investidores podem se recusar a comprar ações de empresas que não tenham IA responsável. De fato, pode haver um aumento de investidores ativistas neste espaço.

IA responsável precisa de suporte no topo da organização

Para ganhar força em uma organização, o apoio à IA responsável precisa vir de sua liderança. Infelizmente, muitos membros do conselho e equipes executivas não têm conhecimento sobre o recurso.

O Fórum Econômico Mundial criou um kit de ferramentas para os conselhos aprenderem sobre as diferentes responsabilidades de supervisão nas empresas envolvidas com a IA. Eles podem usá-lo para entender como a ação responsável pode ser adotada em diferentes áreas do negócio – incluindo estratégias de marca, competitividade e clientes, cibersegurança, governança, operações, recursos humanos e responsabilidade social corporativa – e evitar que surjam questionamentos à ética da organização.

O uso responsável da inteligência artificial é importante demais para ser deixado nas mãos de um único executivo do topo, independentemente da área. Em lugar disso, requer uma colaboração e compreensão compartilhadas dos riscos e benefícios de todos. Se cada empresa tende a se tornar uma empresa de IA, então toda organização deve ter um conselho e um grupo dirigente com conhecimento e compreensão das melhores práticas de compliance.

A maioria das organizações ainda tem muito a percorrer em suas jornadas de IA, mas, ao adotar práticas responsáveis de aplicação, os benefícios para empresas, funcionários, clientes e sociedade podem ser de longo alcance.

a360


a360


close-link

uma empresa