Inteligência Artificial Confiável Parte 1 – Privacidade e Uso Ético

O Uso de IA na OCDE e na União Europeia

Equilíbrio e proteção de direitos fundamentais

Em 6 de setembro de 2019, escrevi um artigo (referência 1) sobre a necessidade de equilíbrio entre o uso de novas tecnologias de inteligência artificial e o direito à privacidade. Após o início da pandemia, quando a humanidade se tornou mais conectada, às preocupações com a privacidade e uso ético dos dados em sistemas de inteligência artificial tem aumentado. Este tema é complementar às legislações sobre proteção de dados como GDPR, da Europa, e a lei geral de proteção de dados, LGPD no Brasil.

Os benefícios potenciais da Inteligência Artificial ​​para nossa sociedade são múltiplos e embora, de acordo com a European Comission, a maioria dos sistemas de IA apresentem risco baixo ou nenhum, certos sistemas criam riscos que precisam ser tratados para evitar resultados indesejáveis. Por exemplo, a opacidade de muitos algoritmos proporciona incerteza e dificulta a aplicação efetiva da legislação existente sobre segurança e direitos fundamentais.

Em resposta a estes desafios, é necessária ação legislativa para garantir um mercado interno de sistemas de IA que funcione bem, a fim de que tanto os benefícios como os riscos sejam devidamente tratados. A regulamentação da IA visa garantir a proteção dos direitos fundamentais e da segurança dos utilizadores, bem como o aumento da confiança no desenvolvimento e aceitação da IA.

A utilização indevida da IA gerará insegurança jurídica para as empresas e, potencialmente acarretará uma adoção mais lenta de tecnologias de IA por empresas e cidadãos, devido à falta de confiança.

Recomendações da OCDE

A OCDE, Organização para a Cooperação e Desenvolvimento Econômico (OECD, na sigla em inglês), criou uma recomendação em 21 de maio de 2019, visando garantir que os atores de IA devem respeitar alguns fundamentos, tais como: o estado de direito, os direitos humanos e os valores democráticos em todo o ciclo de vida do sistema de IA, isso inclui pilares como liberdade, dignidade e autonomia, privacidade e proteção de dados, não discriminação e igualdade, diversidade, justiça, justiça social e direitos trabalhistas internacionalmente reconhecidos.

Além dos valores centrados no ser humano e justiça, a OCDE pontuou os seguintes princípios:

  • Crescimento inclusivo, desenvolvimento sustentável e bem-estar;
  • Transparência e explicabilidade; 
  • Robustez, segurança e proteção;
  • Auditabilidade e prestação de contas (accountability).

Posteriormente a OCDE recomendou algumas ações por parte dos membros, dentre as quais destaco a necessidade elencada no item 2.3 da recomendação, objetivando moldar um ambiente político-normativo favorável para IA.

2.3 – Os governos deverão promover um ambiente político que apoie uma transição ágil do estágio de pesquisa e desenvolvimento para o estágio de implantação e operação de sistemas de IA confiáveis. Para esse efeito, eles devem considerar o uso de experimentação para fornecer um ambiente controlado no qual os sistemas de IA possam ser testados e ampliados, conforme apropriado. Além de revisar e adaptar, conforme apropriado, suas políticas e estruturas regulatórias e mecanismos de avaliação conforme se aplicam aos sistemas de IA para estimular a inovação e a competição por IA confiável.

Estrutura Regulatória na União Européia

Recentemente, em 26 de abril de 2021, foi atualizado pela European Comission o novo arcabouço regulamentar denominado “New rules for Artificial Intelligence – Questions and Answers – A new regulatory framework on AI”, descrevendo as principais questões e com a criação de categorias de risco para tratamento de dados com inteligência artificial.

A Comissão propôs uma abordagem baseada no risco, com quatro níveis de risco:

  • Risco mínimo
  • Risco limitado
  • Alto risco
  • Risco inaceitável

A quase totalidade dos sistemas de Inteligência Artificial atuais se encontra nas categorias de risco mínimo e risco limitado, não sofrendo limitações pela regulamentação.

O risco mínimo ocorre quando sistemas de IA são desenvolvidos e usados ​​de acordo com a legislação existente, sem obrigações legais adicionais. A grande maioria dos sistemas de IA atualmente usados ​​na UE se enquadram nesta categoria. Voluntariamente, os fornecedores desses sistemas podem optar por aplicar os requisitos para IA confiável e aderir a códigos de conduta voluntários.

O risco limitado é atribuído a certos sistemas de IA, cujos requisitos de transparência específicos são impostos, por exemplo, quando há um risco claro de manipulação (por exemplo, através do atendimento virtual). Os usuários devem estar cientes de que estão interagindo com uma máquina.

Porém, para sistemas de alto risco, existem sanções específicas. Um número limitado de sistemas de IA, que podem criar um impacto adverso na segurança das pessoas ou nos seus direitos fundamentais (conforme protegidos pela Carta dos Direitos Fundamentais da UE) são considerados de alto risco.

Existem ainda sistemas de IA com risco inaceitável, um conjunto muito limitado de usos particularmente prejudiciais de IA que infringem os valores da UE porque violam direitos fundamentais (por exemplo, classificação social por governos, exploração de vulnerabilidades de crianças, uso de técnicas subliminares e – sujeito a exceções limitadas – biometria remota ao vivo sistemas de identificação em espaços acessíveis ao público usados ​​para fins de aplicação da lei), estes serão proibidos.

A classificação de risco é baseada na finalidade pretendida do sistema de IA, de acordo com a legislação de segurança de produtos da UE em vigor. Isso significa que a classificação do risco depende da função desempenhada pelo sistema de IA e da finalidade e modalidades específicas para as quais o sistema é utilizado.

Os critérios para esta classificação incluem:

  1. a extensão da utilização da IA e sua finalidade;
  2. o número de pessoas potencialmente afetadas;
  3. a dependência do resultado;
  4. irreversibilidade dos danos;
  5. medidas eficazes para prevenir ou minimizar substancialmente esses riscos.

Uma lista de certos campos críticos ajuda a tornar a classificação mais clara, identificando essas aplicações nas áreas de identificação e categorização biométrica, infraestrutura crítica, educação, recrutamento e emprego, prestação de serviços públicos e privados importantes, bem como aplicação da lei, asilo e migração e justiça.

Finalmente, todos os sistemas de reconhecimento de emoção e categorização biométrica estarão sempre sujeitos a requisitos de transparência específicos. Eles também serão considerados aplicativos de alto risco caso se enquadrem nos casos de uso identificados como tal, por exemplo, nas áreas de emprego, educação, aplicação da lei, migração e controle de fronteiras.

Antes de colocar um sistema de IA de alto risco no mercado da UE ou de outro modo colocá-lo em serviço, os fornecedores devem submetê-lo a uma avaliação de conformidade. Isso permitirá que eles demonstrem que seu sistema está em conformidade com os requisitos obrigatórios para IA confiável (por exemplo, qualidade de dados, documentação e rastreabilidade, transparência, supervisão humana, precisão e robustez). Caso o próprio sistema ou a sua finalidade sejam substancialmente modificados, a avaliação deverá ser repetida.

Para certos sistemas de IA, um organismo independente também terá de estar envolvido na avaliação de conformidade. Para os sistemas que são componentes de segurança de produtos abrangidos pela legislação setorial da União Europeia e também para sistemas de identificação biométrica, uma avaliação de conformidade de terceiros será necessária.

Os fornecedores de sistemas de IA de alto risco também terão que implementar sistemas de gestão de qualidade e risco para garantir sua conformidade com os novos requisitos e minimizar os riscos para usuários e pessoas afetadas, mesmo depois que um produto é colocado no mercado.

As autoridades de fiscalização irão apoiar o monitoramento pós-comercialização através de auditorias, oferecendo aos fornecedores a possibilidade de comunicarem incidentes graves ou violações das obrigações dos direitos fundamentais de que tenham conhecimento.

A União Europeia criou também algumas penalidades, que envolvem multas financeiras, a criação de uma comissão específica e um plano de coordenação responsável por liderar as iniciativas de Inteligência Artificial confiáveis internacionalmente.

No próximo artigo sobre inteligência artificial, comentarei como está a regulamentação no Brasil e as similaridades com a norma Europeia.

Referências:

https://www.linkedin.com/pulse/privacidade-bigdata-inova%C3%A7%C3%A3o-intelig%C3%AAncia-artificial-e-erik-mattfeldt/

https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449

https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683