O Uso de IA na OCDE e na União Europeia
Equilíbrio e proteção de direitos fundamentais
Em 6 de setembro de 2019, escrevi sobre inteligência artificial e privacidade. A pandemia aumentou preocupações sobre privacidade e ética em dados devido à maior conectividade. Este tema é complementar às legislações sobre proteção de dados como GDPR, da Europa, e a lei geral de proteção de dados, LGPD no Brasil.
Embora a IA ofereça benefícios, a Comissão Europeia alerta que devemos gerenciar os riscos apresentados por certos sistemas para evitar problemas. Por exemplo, a opacidade de muitos algoritmos proporciona incerteza e dificulta a aplicação efetiva da legislação existente sobre segurança e direitos fundamentais.
A ação legislativa é necessária para um mercado de IA funcional, abordando riscos, protegendo direitos e aumentando a confiança dos usuários.
O uso inadequado da IA causa insegurança jurídica para empresas, potencialmente retardando a adoção de tecnologias por empresas e cidadãos, devido à desconfiança.
Recomendações da OCDE
A OCDE criou uma recomendação para garantir que sistemas de IA respeitem princípios como direitos humanos, democracia, privacidade, não discriminação, justiça e proteção de dados.
Além dos valores centrados no ser humano e justiça, a OCDE pontuou os seguintes princípios:
- Crescimento inclusivo, desenvolvimento sustentável e bem-estar;
- Transparência e explicabilidade;
- Robustez, segurança e proteção;
- Auditabilidade e prestação de contas (accountability).
Posteriormente, a OCDE recomendou ações para membros, destacando a necessidade do item 2.3, que visa criar um ambiente político-normativo favorável para a IA.
2.3 – Os governos deverão promover um ambiente político que apoie uma transição ágil do estágio de pesquisa e desenvolvimento para o estágio de implantação e operação de sistemas de IA confiáveis. Para esse efeito, eles devem usar experimentação para criar um ambiente controlado onde possamos testar e expandir os sistemas de IA conforme apropriado. Além de revisar e adaptar, conforme apropriado, suas políticas e estruturas regulatórias e mecanismos de avaliação conforme se aplicam aos sistemas de IA para estimular a inovação e a competição por IA confiável.
Estrutura Regulatória na União Européia
Em 26/04/2021, a Comissão Europeia atualizou o arcabouço regulamentar “New rules for Artificial Intelligence”, abordando questões e categorias de risco para IA.
A Comissão propôs uma abordagem baseada no risco, com quatro níveis de risco:
- Risco mínimo
- Risco limitado
- Alto risco
- Risco inaceitável
A quase totalidade dos sistemas de Inteligência Artificial atuais se encontra nas categorias de risco mínimo e risco limitado, não sofrendo limitações pela regulamentação.
O risco mínimo ocorre quando desenvolvemos e usamos sistemas de IA de acordo com a legislação existente, sem a necessidade de obrigações legais adicionais. A grande maioria dos sistemas de IA atualmente usados na UE se enquadram nesta categoria. Voluntariamente, os fornecedores desses sistemas podem optar por aplicar os requisitos para IA confiável e aderir a códigos de conduta voluntários.
O risco limitado é atribuído a sistemas de IA com requisitos de transparência e privacidade específicos, como em casos de manipulação clara, por exemplo, em atendimento virtual. Os usuários devem estar cientes de que estão interagindo com uma máquina.
Porém, para sistemas de alto risco, existem sanções específicas. Consideramos de alto risco um número limitado de sistemas de IA que podem criar um impacto adverso na segurança das pessoas ou em seus direitos fundamentais, conforme protegidos pela Carta dos Direitos Fundamentais da UE.
Assim, proibiremos sistemas de IA com risco inaceitável que violam privacidade, direitos fundamentais e valores da UE, como classificação social por governos e biometria remota ao vivo em espaços públicos para aplicação da lei, com algumas exceções limitadas.
Baseamos a classificação de risco na finalidade pretendida do sistema de IA, conforme a legislação de segurança de produtos da UE em vigor. Isso significa que classificamos o risco de acordo com a função desempenhada pelo sistema de IA e suas finalidades e modalidades específicas.
Critérios para esta classificação
- a extensão da utilização da IA e sua finalidade;
- o número de pessoas potencialmente afetadas;
- a dependência do resultado;
- irreversibilidade dos danos;
- medidas eficazes para prevenir ou minimizar substancialmente esses riscos.
Uma lista de certos campos críticos ajuda a tornar a classificação mais clara, identificando essas aplicações nas áreas de identificação e categorização biométrica, infraestrutura crítica, educação, recrutamento e emprego, prestação de serviços públicos e privados importantes, bem como aplicação da lei, asilo e migração e justiça.
Finalmente, todos os sistemas de reconhecimento de emoção e categorização biométrica estarão sempre sujeitos a requisitos de transparência e privacidade específicos. Eles também serão considerados aplicativos de alto risco caso se enquadrem nos casos de uso identificados como tal, por exemplo, nas áreas de emprego, educação, aplicação da lei, migração e controle de fronteiras.
Antes de colocar um sistema de IA de alto risco no mercado da UE ou de outro modo colocá-lo em serviço, os fornecedores devem submetê-lo a uma avaliação de conformidade. Isso permitirá que eles demonstrem que seu sistema está em conformidade com os requisitos obrigatórios para IA confiável (por exemplo, qualidade de dados, documentação e rastreabilidade, transparência, supervisão humana, precisão e robustez). Caso o próprio sistema ou a sua finalidade sejam substancialmente modificados, a avaliação deverá ser repetida.
Conformidade, Monitoramento e Penalidades na União Europeia
Para certos sistemas de IA, um organismo independente também terá de estar envolvido na avaliação de conformidade. Nesse sentido, para os sistemas que são componentes de segurança de produtos abrangidos pela legislação setorial da União Europeia e também para sistemas de identificação biométrica, uma avaliação de conformidade de terceiros será necessária.
Os fornecedores de sistemas de IA de alto risco também terão que implementar sistemas de gestão de qualidade e risco para garantir sua conformidade com os novos requisitos e minimizar os riscos para usuários e pessoas afetadas, mesmo depois que um produto é colocado no mercado.
Ademais, as autoridades de fiscalização irão apoiar o monitoramento pós-comercialização através de auditorias, oferecendo aos fornecedores a possibilidade de comunicarem incidentes graves ou violações das obrigações dos direitos fundamentais de que tenham conhecimento.
A União Europeia criou também algumas penalidades, que envolvem multas financeiras, a criação de uma comissão específica e um plano de coordenação responsável por liderar as iniciativas de Inteligência Artificial confiáveis internacionalmente.
No próximo artigo sobre inteligência artificial, comentarei como está a regulamentação no Brasil e as similaridades com a norma Europeia.
Referências:
https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449
https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683
Por Erik Mattfeldt