Parte 4 – Como os líderes de IA estão trabalhando com questões de ética e transparência, o Estado da IA Responsável em 2021
Pesquisa: How 100 C-level AI Leaders are Ensuring AI is Used Ethically, Transparently, Securely and in their Customers’ Best Interests
A FICO entrevistou 100 líderes C-Level de empresas globais, detalhando como planejam usar dados eticamente, entre fevereiro e março de 2021. Em contraponto com as normas debatidas pelos governos, é considerado ainda muitos desafios para o uso confiável da inteligência artificial pelas empresas. Cito alguns destaques da pesquisa, apontando a necessidade de melhoria e investimentos em esforços para uma IA confiável:
- 77% concordam que existe risco de uso inadequado da Inteligência artificial
- 65% dos gestores não conseguem detalhar como seus modelos de IA realizam decisões ou previsões;
- 78% dos gestores afirmam que é difícil priorizar práticas da IA responsáveis e éticas;
- 90% concordam que os processos para monitoramento dos modelos são ineficientes;
- Somente 22% afirmaram que suas organizações possuem um conselho para discutir usos éticos da IA;
A conclusão é que apesar dos gestores considerarem que existe risco no uso da inteligência artificial, a maioria não sabe como seus modelos funcionam e como priorizar o desenvolvimento de modelos responsáveis.
Apesar disso, a maioria das empresas têm aumentado o uso de modelos de IA. Conforme infográfico abaixo, quase 50% das empresas aumentaram os recursos e 40% aumentaram o poder de previsão dos seus modelos de IA.
Segundo a pesquisa, não existe um consenso sobre a responsabilidade das empresas no uso da IA com privacidade e uso ético. Abaixo um detalhamento sobre os usos de Inteligência Artificial e seu potencial de uso considerado irresponsável.
Os executivos, porém, argumentam que não existe uma compreensão adequada dos limites do uso da IA, e dos parâmetros para uma IA confiável e sustentável, 41% deles não possuem um modelo de governança para uso ético dos dados da IA.
Conforme o diagrama abaixo, em 2021, os executivos estão priorizando a acurácia dos modelos, e as preocupações em transparência e modelos explicáveis diminuíram se comparados à pesquisa de 2020. Apenas 35% dos entrevistados conseguem explicar como fazem as decisões de IA.
A pesquisa abordou também a forma que a governança e compliance estão sendo utilizadas para permitir o uso responsável da IA. Além disso, mais de 40% das empresas documentam o uso ético da IA e designam profissionais responsáveis pela governança dos sistemas e IA. No entanto, menos de 30% garantem que os modelos são usados para propósitos éticos.
A segurança dos sistemas de IA
Tem crescido o número de empresas que sofrem ataques nos seus sistemas, incluindo o ataque denominado “Adversarial AI Attack”, ataques de adversários, que buscam tomar controle ou manipular sistemas de IA.
O gráfico abaixo, compara a quantidade de ataques, por tipo, em 2020 e 2021, a quantidade de empresas que reportaram ataques aumentou em 150%.
Somente metade das grandes empresas segue uma metodologia de security by design e menos de 1/3 delas monitora os dados visando antecipar um ataque “adversarial”.
As companhias têm o dever de proteger a privacidade dos seus clientes mantendo os dados seguros e usando-os para os interesses dos clientes.
Entendendo os riscos relacionados ao uso de IA
Como vimos anteriormente, as leis e normas para governança de sistemas de IA têm sido publicadas pela OCDE, União Europeia e Brasil. Porém, as empresas não estão preparadas para garantir o uso ético, confiável, transparente e sustentável dos seus sistemas de IA em aderência às novas regulações.
Adicionalmente, existem riscos de impactos negativos na imagem e continuidade de negócio, pois com a utilização massiva de sistemas de IA, qualquer possível ataque que prejudique a velocidade, confiabilidade ou automação de um sistema de IA, poderá comprometer sua operação.
Nesse sentido, todas as organizações devem considerar se debruçar na formalização dos processos de governança e definição de uma arquitetura que propicie confiabilidade e segurança aos sistemas de IA.
Importante destacar também, que a pesquisa entrevistou somente empresas com USD 100 milhões de receita anual, portanto devemos assumir que as demais empresas estão num nível de maturidade ainda menor. Atualmente, milhares de startups desenvolvem algoritmos com uso de IA, com menos recursos disponíveis para investimentos em segurança e transparência.