Inteligência Artificial Confiável – Considerações sobre privacidade e uso ético

Parte 4 – Como os líderes de IA estão trabalhando com questões de ética e transparência, o Estado da IA Responsável em 2021

Pesquisa: How 100 C-level AI Leaders are Ensuring AI is Used Ethically, Transparently, Securely and in their Customers’ Best Interests

Uma pesquisa global com 100 líderes C-Level de dados realizada pela FICO, plataforma de fraud score, detalhou como estes líderes pretendem preparar suas organizações para o uso ético dos seus dados. Os entrevistados foram selecionados de empresas globais com mais de 100 milhões de dólares de receita anual, a pesquisa foi realizada entre fev/2021 à mar/2021.

Em contraponto com as normas debatidas pelos governos, existem ainda muitos desafios para o uso confiável da inteligência artificial pelas empresas.

Cito alguns destaques da pesquisa, apontando a necessidade de melhoria e investimentos em esforços para uma IA confiável:

  • 77% concordam que existe risco de uso inadequado da IA
  • 65% dos gestores não conseguem detalhar como seus modelos de IA realizam decisões ou previsões;
  • 78% dos gestores afirmam que é difícil priorizar práticas da IA responsáveis e éticas;
  • 90% concordam que os processos para monitoramento dos modelos são ineficientes;
  • Somente 22% afirmaram que suas organizações possuem um conselho para discutir usos éticos da IA;

A conclusão é que apesar dos gestores considerarem que existe risco no uso da inteligência artificial, a maioria não sabe como seus modelos funcionam e como priorizar o desenvolvimento de modelos responsáveis.

Apesar disso, a maioria das empresas têm aumentado o uso de modelos de IA. Conforme infográfico abaixo, quase 50% das empresas aumentaram os recursos e 40% aumentaram o poder de previsão dos seus modelos de IA.

Segundo a pesquisa, não existe um consenso sobre a responsabilidade das empresas no uso da IA. Abaixo um detalhamento sobre os usos de IA e seu potencial de uso irresponsável.

Os executivos, porém, argumentam que não existe uma compreensão adequada dos limites do uso da IA, e dos parâmetros para uma IA confiável e sustentável, 41% deles não possuem um modelo de governança para uso ético dos dados da IA.

Conforme o diagrama abaixo, em 2021, os executivos estão priorizando a acurácia dos modelos, e as preocupações em transparência e modelos explicáveis diminuíram se comparados à pesquisa de 2020. Somente 35% dos entrevistados conseguiram explicar como as decisões de IA são feitas.

A pesquisa abordou também a forma que a governança e compliance estão sendo utilizadas para permitir o uso responsável da IA. Mais de 40% das empresas têm uma documentação focada em uso ético da IA e profissionais responsáveis pela governança dos sistemas e IA, porém menos de 30% asseguram que os modelos são usados para propósitos éticos.

A segurança dos sistemas de IA

Tem crescido o número de empresas que sofrem ataques nos seus sistemas, incluindo o ataque denominado “Adversarial AI Attack”, ataques de adversários, que buscam tomar controle ou manipular sistemas de IA.

O gráfico abaixo, compara a quantidade de ataques, por tipo, em 2020 e 2021, a quantidade de empresas que reportaram ataques aumentou em 150%.

Somente metade das grandes empresas segue uma metodologia de security by design e menos de 1/3 delas monitora os dados visando antecipar um ataque “adversarial”.

As companhias têm o dever de proteger a privacidade dos seus clientes mantendo os dados seguros e usando-os para os interesses dos clientes.

Entendendo os riscos relacionados ao uso de IA

Como vimos anteriormente, as leis e normas para governança de sistemas de IA têm sido publicadas pela OCDE, União Europeia e Brasil. Porém, as empresas não estão preparadas para garantir o uso ético, confiável, transparente e sustentável dos seus sistemas de IA em aderência às novas regulações.

Adicionalmente, existem riscos de impactos negativos na imagem e continuidade de negócio, pois com a utilização massiva de sistemas de IA, qualquer possível ataque que prejudique a velocidade, confiabilidade ou automação de um sistema de IA, poderá comprometer sua operação.

Neste momento, todas as organizações devem se debruçar na formalização dos processos de governança e definição de uma arquitetura que propicie confiabilidade e segurança aos sistemas de IA.

Importante destacar também, que a pesquisa entrevistou somente empresas com USD 100 milhões de receita anual, portanto devemos assumir que as demais empresas estão num nível de maturidade ainda menor. Atualmente, milhares de startups desenvolvem algoritmos com uso de IA, com menos recursos disponíveis para investimentos em segurança e transparência.

Referências:

https://www.fico.com/en/latest-thinking/market-research/state-responsible-ai-2021