Inteligência Artificial e Direito - Ed. 2020

Novas Perspectivas Sobre Ética e Responsabilidade de Inteligência Artificial - Parte I - Compreensão da Inteligência Artificial e dos Seus Pressupostos de Controle e Regulação

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Autores:

Eduardo Magrani

Priscilla Silva

Rafael Viola

1.Introdução

Ao pretendermos discutir ética e responsabilidade de inteligência artificial, tendo em vista o novo cenário de hiperconectividade e Internet das Coisas, 1 temos por objetivo pensar sobre os parâmetros que nortearão nossa sociedade cada vez mais moldada pela tecnologia.

Analisaremos o avanço das coisas inteligentes cada vez mais autônomas e simbióticas às relações sociais, com o intuito de compreendermos melhor o grau de influência que artefatos não humanos podem exercer sobre nós, incluindo nesta perspectiva as discussões sobre algoritmos e inteligência artificial, pensando sob um ponto de vista regulatório.

A inteligência artificial merece destaque nessa discussão, porque trata justamente da tentativa de se criarem mecanismos capazes de “pensar” e agir de forma cada vez mais autônoma. Apesar de o paradigma fundamental do Direito atual ser o antropocentrismo de matriz iluminista, o crescente avanço tecnológico abre a possibilidade para a criação de artefatos mais racionalmente inteligentes que os humanos, o que poderá ser determinante para uma ruptura de paradigma, a partir da qual precisaremos de novas lentes ontológicas e epistemológicas. Segundo Marco Aurélio Castro Júnior 2 :

“É lícito afirmar que se outro ente for encontrado dotado desses mesmos elementos a conclusão lógica é a de se lhe atribuir o mesmo status jurídico de pessoa. [...] Hoje as legislações vigentes em Portugal e no Brasil aboliram adjetivos dos seus conceitos de pessoa, abrindo a porta para que se compreenda como pessoa, como dotado de personalidade jurídica, não apenas o Homem, mas à moda da visão oriental sobre a equiparação da dignidade de todos os seres com o Homem, dando chances à teoria do direito animal e, assim, também a do direito robótico para que um robô seja juridicamente qualificado como Pessoa.”

Na mesma linha, o Parlamento Europeu editou recentemente uma resolução com recomendações da Comissão Europeia (2015/2103-INL) 3 propondo a criação de uma personalidade eletrônica para robôs inteligentes, entre outras propostas de regulamentação jurídica. Em sua justificativa, lê-se: “Even if robots are not yet commonplace, the time has come to legislate”.

Apesar de interessante a proposta, este tipo de regulação não pode ser precipitada, devendo passar amplamente pelas esferas deliberativas da sociedade. Defendemos, portanto, que o avanço jurídico-regulatório seja acompanhado de perto por um debate ético e jurídico maduro e inclusivo nas esferas públicas. A importância destas questões está em termos maior clareza e pensarmos sobre o tipo de ética que deve nortear os avanços tecnológicos, bem como que tipo de responsabilidades devemos atribuir a agentes humanos e não humanos neste contexto, tendo em vista seu potencial impacto na sociedade. Exploraremos todas essas questões a partir de agora.

2.Ética e responsabilidade de inteligência artificial

O uso da tecnologia, com enfoque na Inteligência Artificial, pode gerar consequências imprevisíveis e incontroláveis, de modo que, muitas vezes, a única solução é desativar o sistema. Fica claro, portanto, o ganho de autonomia e complexidade dos novos artefatos técnicos, visto que são dotados de agência incrementada, capaz de influenciar e serem influenciadas na rede de maneira significativa, compondo muitas vezes sistemas sociotécnicos ainda mais autônomos e imprevisíveis.

Embora não exista um sistema de inteligência artificial que seja completamente autônomo, imagina-se que, com o desenvolvimento da tecnologia, é possível que sejam criadas máquinas que terão a capacidade de tomar decisões de forma cada vez mais autônoma, o que levanta questões acerca de quem seria o responsável pelo resultado de suas ações e por eventuais reparações pelos danos gerados.

A habilidade de acumular experiências e aprender com base em processamentos massivos de dados, somada à capacidade de agir de forma independente e fazer escolhas de maneira autônoma podem ser consideradas pré-condições para a responsabilidade por danos. Contudo, como não se reconhece hoje a Inteligência Artificial como um sujeito de direito, ela não pode ser considerada individualmente responsável pelos potenciais danos que pode causar. Com base nessa perspectiva, segundo parte da doutrina, uma pessoa (natural ou uma entidade) em nome de quem um programa foi criado deveria, em última análise, ser responsável por qualquer ação gerada pela máquina. Esse raciocínio pauta-se pela noção de que uma ferramenta não possui vontade própria.

Sob outro ângulo, no caso de danos causados por atos de uma inteligência artificial, um tipo de responsabilidade aventada é aquela que faz uma analogia com a responsabilidade atribuída aos pais pelas ações de seus filhos quando incapazes, ou a responsabilidade de donos de animais quando estes geram danos. Dessa forma, adotando-se essa perspectiva, a responsabilidade pelos atos de uma AI poderia recair não somente sobre seu produtor, mas também sobre seus usuários ou programadores, responsáveis pelo seu “treinamento”.

Outra possibilidade é o modelo que foca na habilidade de os programadores ou usuários preverem o potencial de ocorrência desses delitos. Conforme este segundo modelo, uma pessoa pode ser considerada responsável por um delito se ele representa uma consequência natural e provável da conduta daquela pessoa. Ele requer apenas que o programador ou usuário tenha agido com dolo ou tenha sido negligente em face de um resultado que seria previsível.

Em complemento, a respeito da responsabilidade civil, George S. Cole trata de quatro tipos: (i) a responsabilidade por produto, (ii) a responsabilidade por serviço, (iii) imperícia, e (iv) negligência. 4 O autor afirma que a disciplina da responsabilidade de produto é, no melhor dos casos, apenas parcialmente aplicável. Os elementos básicos para a sua aplicabilidade seriam: (i) a AI deve ser um “produto”; (ii) o réu deve ser um vendedor da AI; (iii) A AI deve alcançar a parte prejudicada sem alteração substantiva; (iv) a AI deve ser defeituosa; e (v) o defeito deve ser a origem do dano. Já a responsabilidade por serviço seria, na visão do autor, melhor aplicada, mas pouco definida. 5 Por outro lado, o autor sustenta que a aplicação da disciplina da responsabilidade por imperícia, por sua vez, possui grande potencial. 6 Encontraria-se, dessa forma, entre a responsabilidade objetiva e a negligência. O standard, nesse caso, deveria ser fixado pela comunidade profissional. 7

No entanto, enquanto o campo se desenvolve, para Cole, o modelo da negligência seria o mais aplicável. Porém, ele pode ser difícil de ser implementado, principalmente quando alguns erros são totalmente imprevisíveis ou até mesmo inevitáveis. Até hoje, os tribunais ainda não formularam uma definição clara do dever envolvido na criação de AIs que, caso não observado, deveria ensejar uma responsabilidade por negligência. 8

A distinção entre o uso da negligence rule ou da strict liability rule pode ter impactos distintos no tratamento do tema e, especialmente, no nível de precaução que se pretende impor seja em relação à vítima, seja em relação àquele que desenvolve a AI. Nesse sentido, o recurso ao estudo econômico pode contribuir significativamente para entender a melhor forma de regulação 9 .

A economia tem como escopo o bem-estar social, de modo a maximizar os escassos recursos na sociedade, isto é, buscar a eficiência das relações econômicas 10 . A fórmula do bem-estar social, por sua vez, segundo os economistas, é definida a partir da ideia de utilidade, ou seja, da satisfação individual. Contudo, como não existe uma medida objetiva de utilidade, pois não é possível aferir o nível de satisfação de uma determinada pessoa, torna-se necessário encontrar uma escala alternativa, sendo usualmente utilizada a riqueza. Assim, a eficiência consiste na busca pela maximização da riqueza 11 . A partir dessa análise de eficiência e maximização de riqueza, é possível que a regulação imposta tenha incentivos distintos na esfera jurídica tanto da vítima como do ofensor, no caso o desenvolvedor de uma AI.

Ao se estabelecer a responsabilidade objetiva, cria-se um incentivo significativo para que o ofensor atue diligentemente, de modo a reduzir os custos de expectativa de dano. De fato, no modelo econômico da responsabilidade objetiva, o ofensor responde ainda que adote um nível de precaução alto. Isso não significa que não há interesse na adoção de um comportamento precavido. Explica-se: existe um nível de precaução em que o ofensor, no âmbito da responsabilidade objetiva afastará a ocorrência de dano. …

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
25 de Maio de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969635/novas-perspectivas-sobre-etica-e-responsabilidade-de-inteligencia-artificial-parte-i-compreensao-da-inteligencia-artificial-e-dos-seus-pressupostos-de-controle-e-regulacao