Inteligência Artificial (Ia) - Ed. 2021

Inteligência Artificial (Ia) - Ed. 2021

Inteligência Artificial (Ia) - Ed. 2021

Inteligência Artificial (Ia) - Ed. 2021

Capítulo 6. Concepções de Explicação e do Direito à Explicação de Decisões Automatizadas

Capítulo 6. Concepções de Explicação e do Direito à Explicação de Decisões Automatizadas

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Juliano Maranhão

Fábio Gagliardi Cozman

Marco Almada

1. Introdução

O uso ético da inteligência artificial é um dos grandes desafios da sociedade atual. Em resposta aos benefícios e aos riscos associados às diversas aplicações de tecnologias inteligentes, 1 governos e a sociedade civil hoje buscam formas de maximizar os benefícios que essas tecnologias podem trazer, bem como evitar, ou ao menos mitigar, os riscos associados a aplicações nocivas ou inadequadas. Trata-se de equilíbrio difícil de alcançar, quando se considera também o risco de imposições restritivas em nome da confiança na tecnologia impedir o desenvolvimento da tecnologia e seus efeitos benéficos.

Como essas aplicações podem ocorrer nos mais variados setores e contextos, há pouco consenso em relação ao significado, ao alcance e à aplicabilidade desses princípios que deveriam pautar o uso da inteligência artificial, 2 embora haja algum consenso em relação a enunciados abstratos de princípios éticos fundacionais para uma inteligência artificial confiável. Alguns princípios são compartilhados pela vasta maioria das diretrizes éticas propostas para guiar o uso da inteligência artificial, entre eles o objeto do presente capítulo: o princípio da transparência.

Por que a transparência é necessária para o uso da inteligência artificial? Sistemas de inteligência artificial podem interagir com humanos ou ao menos, de alguma forma, fazer escolhas que possam afetar seus interesses, direta ou indiretamente. Como o sistema de IA pode estar embarcado em diferentes interfaces de interação e os sistemas estão cada vez mais sofisticados para travar relações e comunicações com humanos, a primeira faceta da transparência é dar ciência ao indivíduo que este interage com uma máquina, de modo a ajustar suas expectativas. A segunda faceta diz respeito à transparência quanto à forma da escolha adotada pelo sistema de IA, que não só podem afetar interesses como direitos individuais. Nessa acepção a transparência aparece como exigência contrária a que uma pessoa seja submetida a decisões tomadas por sistemas caixa-preta, isto é, de sistemas que empregam critérios que não sejam visíveis ou inteligíveis ao público, destinatário direto, ou indireto daquela decisão. 3 Por exemplo, uma pessoa eliminada de um processo seletivo após uma análise automatizada não terá como saber se sua candidatura foi descartada por motivos legítimos ou porque o sistema de análise foi construído a partir de exemplos discriminatórios, ou ainda, se houve alguma forma de inacurácia. 4 No caso de um sistema transparente, essa dúvida poderia ser sanada pela análise dos critérios relevantes de decisão e a possibilidade de sua retificação ou discussão de critérios adicionais favoráveis. A depender da forma de organização do processo, essa possibilidade estaria, em tese, aberta na interação com uma tomada de decisão por humano. Ou seja, a não ser por restrições institucionais, um julgador humano poderia expor critérios inteligíveis empregados e debater a oportunidade de novos critérios. Em um sistema que contenha critérios inacessíveis ou um modelo humanamente ininteligível de decisão, tais alternativas para eventual revisão do resultado não estariam disponíveis. Com isso, não só a pessoa afetada por uma decisão imprópria encontra obstáculos para saber se houve de fato uma lesão aos seus interesses, como a avaliação jurídica dessa lesão – por exemplo, em um processo judicial – pode demandar mais tempo e esforço.

Um desdobramento ético da transparência dos sistemas de IA reside na confiança gerada pelo sistema em sua relação de interação com humanos, sejam seus destinatários, sejam seus operadores. Por exemplo, um juiz que utilize um sistema de IA para classificar seus casos por similaridade ficará mais confortável em utilizar o agrupamento gerado pelo sistema se for capaz de entender os critérios de similaridade adotados ou os mecanismos usados pelos sistemas para comparar e agrupar casos. A falta de compreensão dos critérios ou mecanismos pelos quais os casos são reunidos por similaridade pode gerar desconfiança e o impulso para revisão dos outputs gerados, o que pode minar a utilidade do sistema.

Visando a evitar os impactos negativos que podem surgir do uso de sistemas caixa-preta, a Lei Geral de Proteção de Dados ( LGPD) 5 estabelece, ao longo de seu texto, diversos requisitos para a prestação de informações a respeito de sistemas que realizem …

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
4 de Julho de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1394839597/capitulo-6-concepcoes-de-explicacao-e-do-direito-a-explicacao-de-decisoes-automatizadas-inteligencia-artificial-ia-ed-2021