Inteligência Artificial e Direito - Ed. 2020

Inteligência Artificial e Direito - Ed. 2020

Inteligência Artificial e Direito - Ed. 2020

Inteligência Artificial e Direito - Ed. 2020

O Princípio da Precaução na Regulação de Inteligência Artificial: Seriam as Leis de Proteção de Dados o Seu Portal de Entrada?

O Princípio da Precaução na Regulação de Inteligência Artificial: Seriam as Leis de Proteção de Dados o Seu Portal de Entrada?

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Autores:

Bruno Ricardo Bioni

Maria Luciano

1.Introdução e apontamentos metodológicos

Concessões de crédito, apólices de seguro, direcionamento de anúncios em redes sociais, autocorretor em aplicativos de mensageria, reconhecimento facial e etc. Decisões automatizadas estão cada vez mais presentes no dia a dia das pessoas. Elas compreendem uma das técnicas de Inteligência Artificial (IA), que, em geral, procuram identificar padrões a partir da análise de dados por meio de uma lógica matemática (algoritmo) e aprendizado de máquina ( machine learning ).

Contudo, acreditar que algoritmos sejam isentos de subjetividade, erro ou manipulação é uma “ficção cuidadosamente construída” (GILLESPIE, 2014). A escolha de quais dados importam e por que importam nesse processamento depende de suposições prescritas a esses sistemas. Problemas decorrentes de algoritmos enviesados têm sido frequentes. 1 Eles parecem indicar o abismo entre os desenvolvedores desse tipo de tecnologia e aqueles que são impactados por ela. Dentre as razões para isso têm sido apontadas a falta de regulação, monopólios no setor de IA, estruturas de governança insuficientes dentro de empresas de tecnologia, assimetrias de poder entre empresas e usuários, a distância cultural entre os responsáveis por pesquisas em tecnologia e a diversidade das populações nas quais essa tecnologia é utilizada (AI NOW, 2018). Esse diagnóstico tem suscitado demandas sociais por maior transparência no uso de IA.

Como o emprego dessa tecnologia, em geral, demanda o processamento de dados pessoais, essas questões têm sido endereçadas em leis de proteção de dados. A Lei Geral de Proteção de Dados no Brasil (Lei 13.709/2018 – LGPD), por exemplo, prevê o fornecimento informações sobre o tratamento desses dados, incluindo os critérios utilizados, e a possibilidade de solicitar revisão de decisões automatizadas. Nesse sentido também a Regulação Geral de Proteção de Dados da União Europeia (RGPD) prevê o fornecimento de informações sobre a lógica do processamento automatizado, seu significado e consequências para o titular.

A discussão de transparência nesse caso, contudo, não parece tão simples. A transparência pura e simples dos sistemas automatizados empregados parece gerar outros problemas: perpetuação dos problemas caso as informações apreendidas não sejam utilizadas para mudança, podendo aprofundar assimetrias de poder já existentes; danos à privacidade e exposição de grupos já marginalizados; fornecimento de informações pouco úteis que podem se sobrepor a informações realmente úteis; criação do falso binário segredo/transparência; a invocação de modelos liberais que pressupõem plena capacidade de todos os indivíduos entenderem e processarem as informações fornecidas; a crença na causalidade, ainda pouco comprovada empiricamente, de que a transparência, sozinha, aumenta a confiança nas instituições; a impossibilidade de se disponibilizar todas as informações, sem considerá-las em seus contextos e histórias específicas; a preferência por ver uma informação em vez de entendê-la ; a desconsideração de que, por vezes, existem limitações técnicas à transparência (ANANNY; CRAWFORD, 2018). A accountability desses sistemas parece demandar, assim, um tipo de transparência qualificada . E, nesse cenário, o princípio da precaução, há muito invocado no campo da proteção ambiental, parece um framework útil para se pensar essa questão.

Nesse sentido, o presente artigo pretende investigar se leis gerais de proteção de dados são possíveis vetores de entrada para a aplicação do princípio da precaução como parte da empreitada regulatória de Inteligência Artificial. Para tanto, analisa-se se o princípio da accountability , relatórios de impacto à proteção de dados pessoais e o direito à revisão de decisões automatizadas carregam consigo expressões normativas do princípio precaução. Em particular, qual é o grau de abertura nos processos de tomadas de decisão quanto ao emprego dessa tecnologia, bem como na ação ou inação em lançar mão de IA frente aos riscos que lhes são subjacentes. Analisa-se, ainda, a regulação efervescente de tecnologias de reconhecimento facial como um caso de fronteira que atrai diversos graus de aplicação do princípio da precaução.

O artigo está dividido em duas seções. A primeira delas mapeia o debate normativo em torno do princípio da precaução, buscando compreender sua racionalidade e verificar a procedência, ou não, das críticas feitas a ele. E a segunda seção pretende averiguar de que forma o princípio da accountability , relatórios de impacto à proteção de dados pessoais, o direito à revisão de decisões automatizadas poderiam servir como ferramentas à aplicação concreta desse princípio e, por fim, de que forma e a regulação de tecnologias de reconhecimento facial também internaliza conotações normativas do referido princípio.

2.Aplicação do Princípio da Precaução em Discussões Regulatórias: definindo os termos do debate

Durante a década de 1970, desenvolveu-se na Europa um movimento em defesa de políticas públicas baseadas em evidência (“ evidence-based policy ”). Buscava-se com isso a promoção de análises rigorosas de políticas, com vistas a fornecer informação e conhecimento aos reguladores para sua implementação. Contudo, o reconhecimento de que essas discussões ocorrem em uma arena política, permeada por valores, persuasão e negociação entre diversos atores, em que evidências e conhecimento científico são inevitavelmente valorados e ressignificados, requalificou o debate. Mais recentemente, muitos autores e instituições internacionais passaram a adotar a expressão “política públicas informadas por evidências” (evidence-informed policy”) (Head, 2016).

Ademais, as incertezas e limitações do conhecimento científico acabam dificultando esse tipo de abordagem, impondo novos desafios a práticas regulatórias. O conceito de “incerteza” é mais complexo do que aparenta. Para além da falta de dados ou inadequação de modelos de avaliação de risco, ele também abarca a “indeterminação” (quando não se conhece todas as relações causais), a “ambiguidade” e a “ignorância” ( unknow unkowns ) (Science for Environment Policy, 2017). Os …

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
2 de Julho de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969645/o-principio-da-precaucao-na-regulacao-de-inteligencia-artificial-seriam-as-leis-de-protecao-de-dados-o-seu-portal-de-entrada-inteligencia-artificial-e-direito-ed-2020