Inteligência Artificial e Direito - Ed. 2020

Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial (Ia): Autonomia, Imputabilidade e Responsabilidade

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Autor:

Caitlin Mulholland

1.Introdução

Em seu livro Eu, Robô, Isaac Asimov apresentou as três Leis da Robótica, que ditam as regras básicas para a convivência pacífica entre robôs e humanos. De acordo com a primeira lei, “um robô não pode ferir um ser humano ou, por ócio, permitir que um ser humano sofra algum mal”. Já a segunda lei registra que “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei”. A terceira lei, por sua vez, institui que “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira e Segunda Leis”. A essas três regras soma-se uma quarta lei, desenvolvida posteriormente à publicação das primeiras, conhecida como Lei Zero. Por essa regra, Asimov estabeleceu um paradigma para a tutela da coletividade humana ao afirmar que “um robô não pode fazer mal à humanidade e nem, por inação, permitir que ela sofra algum mal”, ampliando a interpretação da primeira lei.

Ainda que o livro seja ficcional e trate especificamente de robótica, 1 essas leis são usadas comumente como base para os fundamentos éticos a serem perseguidos pelos humanos no desenvolvimento de quaisquer ferramentas de Inteligência Artificial (IA), além daquelas representadas por robôs. Na falta de uma regulação jurídica específica sobre o tema, 2 princípios éticos têm sido considerados a baliza dos progressos em IA, constituindo-se em limite interno – no desenvolvimento dos sistemas – e externo – nas aplicações e usos da tecnologia. 3 Tem-se, assim, que as luzes da Ética e as leis de Asimov servem como ponto de partida para o estudo sobre os impactos jurídicos do desenvolvimento e da aplicação de ferramentas que utilizam IA. Essas leis são especialmente relevantes, pois reforçam a aplicação dos princípios da responsabilidade civil – especialmente o princípio da solidariedade social 4 – no campo da Inteligência Artificial.

As questões ético-jurídicas se tornam ainda mais complexas quando os processos realizados por sistemas de IA tornam-se independentes em relação a atividades e condutas humanas. Com a autonomia da IA e o desenvolvimento de capacidades independentes de tomadas de decisão com base em aprendizado de máquina (machine learning), iniciam-se intensos debates que percorrem questões relacionadas à atribuição de personalidade – e imputabilidade – a “robôs” e à adoção de sistemas de seguridade obrigatória e universal para reparação de danos causados na aplicação concreta de IA, como alternativa à responsabilização civil. Esses questionamentos são da mais alta relevância, especialmente neste último caso, para a reflexão e a busca de soluções a respeito da imputação e atribuição da obrigação de indenizar. Ressalte-se, contudo, que ainda não existem mecanismos que concedem autonomia total decisória às máquinas. O debate atual – em que existem aplicações concretas de IAs semiautônomas – diz respeito ao comportamento errático da máquina, que se comporta de maneira diversa daquilo que havia sido inicialmente projetado pelos programadores. Porém, nesses casos, existe não só a possibilidade de identificação de erro humano na programação, mas também a manutenção da capacidade decisória quanto ao uso da IA por um humano.

O presente artigo pretende investigar as premissas e os elementos caracterizadores da responsabilidade civil decorrente de danos causados por decisões autônomas em sistemas de Inteligência Artificial. O cerne do debate é centrado na delegação total de processos decisórios por parte de agentes empresariais, por meio da automação de IA. Trata-se de contribuição inicial e teórica para discussões que ainda estão por vir, a partir do surgimento e desenvolvimento desses sistemas e de sua principal característica: a capacidade de decidir sem a interferência de humanos no processo. 5

O objetivo desta pesquisa é enfrentar duas questões fundamentais. Na ocorrência de danos injustos causados por processos de automação total em sistemas de IA: (i) a quem será atribuído o dever de reparação?; (ii) qual será o fundamento da responsabilidade civil? Para alcançar respostas adequadas a essas questões, será primeiramente delimitado o âmbito da investigação deste artigo, conceituando e caracterizando o que se entende como decisões totalmente autônomas em IA. Depois, serão conceituados e analisados os princípios, a natureza e os elementos da responsabilidade civil, investigando-os por meio da perspectiva das novas tecnologias e da autonomia das máquinas.

2.Automação total em processos decisórios em sistemas de IA: conceito e implicações jurídicas iniciais

As aplicações concretas de sistemas de Inteligência Artificial são infinitas. Algumas são utilizadas em nosso cotidiano, a exemplo dos buscadores e tradutores on-line, dos assistentes pessoais (como Siri, Alexa e Duplex), dos serviços de streaming (como Netflix) e dos gerenciadores de e-mail (como o Google). 6 Um sistema de Inteligência Artificial é formado por uma série de técnicas algorítmicas 7 que utilizam e gerenciam dados em grande escala (big data) com o objetivo de gerar conclusões – por meio de inferências probabilísticas – baseadas no tratamento daqueles dados. 8 Quanto mais dados forem inseridos, absorvidos ou tratados pela IA, maior é a capacidade de “racionalização” e processamento desses dados e, por consequência, melhores serão os resultados obtidos, beneficiando – em tese – os usuários de tal tecnologia. Os dados e os algoritmos são, portanto, os insumos da IA, sem os quais seria inviável desenvolver a tecnologia. Com base na qualidade dos algoritmos e dos dados coletados, será possível proporcionar experiências adequadas para as pessoas que utilizam a IA para as mais diversas funções. 9

O conceito de algoritmos, por sua vez, é comumente confundido com as técnicas de aprendizado por máquinas. Contudo, são metodologias diferentes para realizar análise de big data. A técnica conhecida como machine learning (aprendizado por máquinas) se configura como qualquer metodologia e conjunto de técnicas que utilizam dados em grande escala (input) para criar conhecimento e padrões originais e, com base neles, gerar modelos que são usados para predição a respeito dos dados tratados (output). 10 É elemento conceitual do aprendizado por máquinas a sua capacidade de definir e modificar regras de tomadas de decisão de forma autônoma, isto é, sem a necessidade de interferência humana. Por meio da metodologia do machine learning, a IA desenvolve a aptidão para ampliar experiências, aferindo delas conhecimentos, por meio de um ciclo contínuo e crescente de aprendizagem. 11 A IA, portanto, só é plenamente eficiente porque se apropria desses métodos de análise dos dados. Uma forma mais desenvolvida de machine learning é o chamado deep learning, que utiliza as mesmas premissas, mas tem a capacidade de processar diferentes tipos de dados de maneira bastante semelhante a um cérebro humano. O software aprende a reconhecer padrões por meio de representações de imagens, sons e outros tipos de dados, imitando a capacidade cerebral de processamento e inferências do ser humano. 12

Por meio do uso dessas técnicas – machine learning e deep learning –, uma das aplicações mais interessantes – e, eventualmente, problemática – é a que se concretiza por meio da delegação total de processos decisórios para a IA. Inteligências Artificiais que estabelecem tomadas de decisão podem ser utilizados em uma variedade de modelos, desde os mais simples, como os utilizados em ODRs (online dispute resolutions), que substituem as decisões “humanas” em mediação de conflitos, 13 até os utilizados em sistemas de polícia preditiva que identificam potencialidade criminosa e probabilidade geográfica de atividade criminosa. 14 Existem outros usos menos conhecidos da automoção total da IA e que constituem fonte potencial de danos por violação de direitos personalíssimos. São sistemas de IA que podem decidir autonomamente se uma pessoa terá ou não concedido um empréstimo bancário; determinar se, na execução penal, será ou não conferido algum benefício que permita a liberdade condicionada; e recomendar se um paciente é candidato a um tipo de tratamento médico.

Para Lee, a IA autônoma representa o ápice do desenvolvimento das metodologias de IA predecessoras (dependente e semiautônomas), a partir do momento em que consegue fundir suas duas atribuições fundamentais, quais sejam, a habilidade de otimizar os resultados pretendidos com base na análise de complexos sistemas de dados e o seu renovado poder sensorial e de resolução. 15 Tendo por base essas premissas, duas são as características essenciais da automação total de mecanismos decisionais 16 em IA: (i) a absoluta independência da interferência humana para alcançar resultados e, como consequência, (ii) a imprevisibilidade dos efeitos obtidos. Considerando que a IA permite associar a tecnologia de aprendizado por máquinas à criatividade – no sentido estrito de criação –, o resultado dessa capacidade de decidir autonomamente, sem mediação humana no seu desenvolvimento, impossibilita a previsibilidade antecipada dos resultados, seja porque desconhecidos, seja porque difíceis de explicar. 17 De acordo com Vladeck, nas tomadas de decisão totalmente autônomas por IA, a tecnologia abandona a tradicional função de ferramenta a serviço dos humanos para transformar-se em um sistema que atuará independentemente de instruções diretas humanas, sendo baseado na informação que ele próprio adquire e analisa. Esse sistema, por sua vez, tomará decisões altamente significantes, em circunstâncias que podem ou não ser antecipadas ou diretamente associadas aos seus desenvolvedores. 18

As preocupações com questões relacionadas ao desenvolvimento de IAs autônomas já estão sendo endereçadas pela Comunidade Europeia, por meio da Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103 (INL)). Por meio dessa resolução foi elaborada uma série de orientações a serem seguidas pelos Estados-Membros a respeito dos danos causados por IAs autônomas. A resolução considerou, em sua cláusula AA, que a autonomia de um robô – leia-se IA – pode ser definida como a capacidade de tomar decisões e de aplicá-las no mundo exterior, independentemente do controle ou da influência externa. Essa autonomia possui natureza puramente tecnológica e o seu grau depende de como foi concebido o nível de sofisticação da interação de um robô com o seu ambiente. Em continuação, na cláusula AB, a resolução reconheceu que, quanto mais autônomos os robôs são, menos podem ser encarados como simples instrumentos nas mãos de humanos. Como consequência dessa expansão de estruturas tecnológicas baseadas na autonomia da IA – verdadeiras caixas-pretas 19 –, a potencialidade e probabilidade danosas serão incrementadas, em decorrência da imprevisibilidade dos resultados alcançados pela IA e da inimputabilidade da tecnologia, duas características essenciais que poderiam, em tese, afastar a obrigação de indenizar. Considerando essas premissas – imprevisibilidade danosa e inimputabilidade tecnológica –, mostra-se fundamental retomar dois conceitos basilares para a atribuição de responsabilidade civil, quais sejam, a personalidade e a autonomia, para indagar sobre a necessidade de resignificá-las diante do desenvolvimento da IA autônoma.

Afirma-se que, para que seja conferida responsabilidade – sob qualquer fundamento teórico –, é necessário identificar uma pessoa a quem se pode imputar a obrigação de reparar um dano. A atribuição de personalidade jurídica é pressuposto, portanto, para a responsabilização. Ainda quando o dano for ocasionado por uma coisa – isto é, um bem, desprovido, portanto, de personalidade –, a obrigação de indenizar deve ser deferida a uma pessoa física ou jurídica, únicas figuras do Direito Civil a quem se concede a capacidade de atuação jurídica. 20

De outro lado, a responsabilidade e a autonomia – liberdade – são faces de uma mesma moeda. Só há atribuição de responsabilidade àquele a quem é conferida liberdade. Para que uma pessoa seja obrigada a reparar um dano injusto, é fundamental que ela tenha a autonomia de atuação, isto é, tenha a capacidade de reconhecer a licitude ou ilicitude de sua conduta e, ao mesmo tempo, a habilidade de identificar e prever a potencialidade danosa desta. Dois questionamentos são realizados: (i) a IA pode ser considerada pessoa, para fins de atribuição de responsabilidade?; (ii) se a resposta for negativa, quem poderá ser responsável pelo dano causado autonomamente pela IA, portanto, sem interferência de uma pessoa? Pretende-se responder a essas indagações nos próximos itens.

3.Danos causados por IAs autônomas: injustiça do dano, solidariedade social e risco do desenvolvimento

Em um evento de robótica – Living Robots – ocorrido na Inglaterra em 2002, foi demonstrada uma atividade em que robôs eram colocados em uma arena e divididos em grupos nos quais eram atribuídos papéis específicos por meio de programação, via machine learning. Numa “caçada robótica”, enquanto um grupo cumpria a função de servir como presa, outro realizava o encargo de caçador. O objetivo da demonstração era validar o aprendizado autônomo da Inteligência Artificial por meio do desenvolvimento de novos métodos de sobrevivência. Tudo corria bem até que um robô, Gaak, que havia sido separado do grupo das presas para a realização de reparos, “fugiu” de seu confinamento, quebrando uma parede e encontrando seu caminho para a rua. Ficou demonstrado que Gaak desenvolveu, por meio da aprendizagem contínua, uma alternativa inesperada e não programada para a sua subsistência na caçada. Mas o robô, ao fim e ao cabo, não foi capaz de manter-se “vivo”, pois, ao chegar à rua, foi atropelado não intencionalmente pelo carro de um dos visitantes do evento. O carro sofreu danos consideráveis. 21 Com base nessa narrativa, pergunta-se: o dano sofrido pelo proprietário do veículo...

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
29 de Janeiro de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969655/responsabilidade-civil-e-processos-decisorios-autonomos-em-sistemas-de-inteligencia-artificial-ia-autonomia-imputabilidade-e-responsabilidade