Inteligência Artificial e Direito - Ed. 2020

A Utilização de Inteligência Artificial em Decisões Empresariais: Notas Introdutórias Acerca da Responsabilidade Civil dos Administradores

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Autores:

Chiara Spadaccini de Teffé

Filipe José Medon Affonso

“By far the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.” 1

1.Inteligência artificial e responsabilidade civil

Nos últimos anos, muito se tem discutido sobre as possibilidades de interação entre o ser humano e a inteligência artificial (IA), bem como acerca da regulação de novas tecnologias. Sistemas e robôs comandados por IA vêm sendo utilizados diretamente em espaços públicos e domésticos, como também em ambientes empresariais, e a tendência é que essa interação se torne cada vez mais presente e sofisticada, fazendo parte tanto do dia a dia quanto das mais variadas relações humanas. A pandemia da Covid-19 trouxe incontáveis exemplos de como os robôs já estão transformando nossa realidade e tendem a permanecer em voga. 2 Diante disso, eventualmente, tais tecnologias terão que tomar decisões e definir caminhos, os quais, muitas vezes, esbarrarão em questões éticas 3 e de responsabilidade dos agentes envolvidos. 4

Questiona-se, com frequência, se seria necessário criar normas e institutos específicos para tratar de matérias relativas à inteligência artificial e robôs ou se deveriam ser aplicadas as normas já existentes para as novas situações. Os regimes de responsabilidade civil existentes seriam suficientemente maleáveis para lidar com os novos conflitos frutos da relação humano-IA? Ao mesmo tempo em que a tecnologia traz inquestionáveis benefícios, ela vem acompanhada de diversos questionamentos que se mostram bastante presentes na seara jurídica. Falar em IA é mais do que falar em automação e numa possível perda de empregos: é também falar de danos e, sobretudo, de quem responde por eles e por qual razão.

Contudo, essa tarefa nem sempre é simples, em razão da falta de amostras adequadas e dados confiáveis sobre os efeitos e interações das novas tecnologias em longo prazo na sociedade, nos mais variados ambientes e entre diversos sujeitos. A principal razão para isso é que nem sempre se tem dados, experiência e imaginação suficientes para prever quais impactos negativos podem ser associados a um determinado robô ou IA 5 , o que prejudica, em parte, eventuais intervenções em termos normativos e regulatórios. De todo modo, entende-se que as aplicações das normas jurídicas deverão se dar em diálogo com os debates mais recentes e de caráter multissetorial que estejam ocorrendo sobre o assunto e demais temas correlatos, como proteção de dados e cibersegurança.

No âmbito do Direito, parece adequada uma atuação tanto preventiva, buscando-se evitar ou minorar a ocorrência de danos, quanto a posteriori, isto é, quando o dano já foi causado e é preciso indenizar a vítima. Para isso, é necessário avaliar os deveres dos agentes envolvidos no desenvolvimento e aplicação da IA, bem como o regime e a estrutura de responsabilidade civil adequados nos casos de danos oriundos da IA. Exemplo desse trabalho pode ser realizado na hipótese de uma IA influenciar a tomada de decisões por parte de administradores de sociedades empresárias, as quais poderão impactar profundamente a estrutura da empresa, seus funcionários e seu valor no mercado.

Antes de se adentrar nesse debate, cabe ressaltar, porém, que a possibilidade de responsabilização, de um lado, poderá incentivar o desenvolvimento de bens e tecnologias mais seguros, claros e eficientes, mas, de outro, poderá acabar impactando negativamente as taxas de desenvolvimento de inovação e a adoção de novos negócios e tecnologias, o que seria nocivo para a sociedade de forma geral. Há, portanto, um delicado e importante equilíbrio de interesses a ser atingido.

Entende-se que uma abordagem jurídica pessimista para a evolução tecnológica pode prejudicar o desenvolvimento de novos instrumentos que, efetivamente, venham a atuar no sentido de melhorar a qualidade de vida da população e trazer decisões empresariais mais eficientes e de risco controlado. Adicionalmente, não é demais lembrar que a melhor estrutura de regulação para a IA não deverá contemplar apenas o Direito, devendo ser também inseridos nesse esquema o mercado, as normas sociais e a arquitetura. 6

A atuação desses quatro elementos, operando de forma conjunta e relacionada, servirá tanto para incentivar quanto desestimular comportamentos de sujeitos e organizações, moldando estruturas e regulando situações. Nesse âmbito, princípios éticos, padrões técnicos e normas de estrutura menos fechada ajudarão a garantir que o desenho e o desenvolvimento de tais tecnologias sejam orientados pela preocupação com a pessoa e busquem promover uma IA segura, justa e inclusiva.

John McCarthy, conhecido como pai do termo Inteligência Artificial, assim a define: “a ciência e a engenharia de criar máquinas inteligentes, especialmente programas de computador inteligentes. Ela está relacionada à tarefa similar de utilizar computadores para entender a inteligência humana, mas a IA não tem que se confinar aos métodos que são biologicamente observáveis.” 7 Já numa definição mais atual, de Jacob Turner, a inteligência artificial é compreendida como a habilidade de um ente não natural de fazer escolhas a partir de um processo de avaliação. 8 - 9

As duas definições, contudo, não esgotam a amplitude da IA. Basta pensar que os carros autônomos 10 , que pareciam ser uma imensa novidade, hoje já estão sendo considerados, em certa medida, uma tecnologia menos atual, assim como os drones. Fala-se em aviões sem pilotos comandados por IA 11 , os quais podem ser utilizados em contextos bélicos, por exemplo. Mas se engana quem pensa que os danos causados pela IA podem impactar apenas sistemas e robôs 12 : já se tem notícia, por exemplo, de acidentes em fábricas e ruas que foram fatais para vítimas humanas. 13

O que fazer nesses casos então? Quem será responsável pelos danos causados se os resultados das ações da máquina não eram passíveis de previsão nem mesmo por aqueles que a desenvolveram? Qual será a teoria de responsabilidade civil a ser adotada? Seria o risco criado? O risco proveito? Seria a teoria do risco do desenvolvimento aplicável? 14 Há muitas perguntas e, por enquanto, poucas respostas e certezas. Na medida que a IA se tornar mais presente na vida das pessoas e, também, nas ações judiciais, isso fica mais evidente.

Fala-se, por exemplo, na atribuição de responsabilidade a diversos sujeitos 15 , tais quais: i) o titular de direitos de propriedade intelectual sobre a IA; ii) o produtor de um objeto dirigido por IA e o projetista da IA; iii) o fornecedor, o vendedor ou o intermediário da IA; iv) o explorador da IA; v) o proprietário de um aparelho regido por IA; vi) o usuário da IA; vii) o treinador da máquina comandada por IA; e viii) os próprios robôs 16 - 17 . Diante da complexidade dos sistemas e das situações fáticas, num primeiro momento, não parece haver uma solução geral, mas sim casuística, a depender, por exemplo, dos agentes envolvidos e de seus respectivos deveres, bem como do tipo e do grau de autonomia da IA envolvida. 18

O aumento da capacidade de processamento da Inteligência Artificial, os avanços em algoritmos, e a maior disponibilidade de dados representam fatores essenciais para o desenvolvimento de ponto importante para a maior aplicação dessa tecnologia, qual seja, a velocidade para a tomada de decisões de qualidade. Afirma-se que, “[q]uanto mais avançadas e acessíveis se tornam as tecnologias de processamento e de armazenamento de dados, mais poderosos ficam os sistemas de Inteligência Artificial, simplesmente porque eles conseguem tomar decisões mais complexas em tempo hábil.” 19 Nesse cenário, se os algoritmos representam o motor, por certo os dados são o combustível dessa revolução 20 , tendo em vista o crescente volume de informações produzidas e disponíveis, as quais apresentam diversidade em termos de natureza, forma de captação e possibilidade de tratamento, insumos esses de relevância elevada para as técnicas de aprendizado de máquina.

Hoje se busca por meio de tais técnicas que a tecnologia seja autossuficiente e possa analisar uma dada situação de múltiplas perspectivas, com o máximo de dados, para tomar a melhor decisão estatisticamente comprovada. Assim, computadores e dispositivos conectados podem desempenhar suas funções sem que pareçam programados, bem como aprender durante o processo de uso, utilizando o máximo de informações que conseguirem captar e gerar.

A partir do aprendizado de máquina, muitas inteligências artificiais são capazes de se autoalimentar, criando novos padrões, o que se torna especialmente preocupante quando se percebe que, “com a habilidade de treinar a si mesma e acumular experiências, a IA pode tomar decisões independentemente da vontade de seu desenvolvedor e, inclusive, chegar a resultados sequer passíveis de previsão pelos seus programadores.” 21 Esta imprevisibilidade é, sem dúvidas, um dos atributos da IA que mais demanda atenção.

Diversos países já contam com planos e/ou regulações no campo da IA. 22 Destacam-se, dentre outros, China 23 , Índia 24 , Estados Unidos 25 - 26 e Canadá 27 . A Europa, por sua vez, já conta com estratégia para a Inteligência Artificial, adotada em abril de 2018, além de um plano coordenado elaborado com os Estados-Membros para promover o desenvolvimento e a utilização dessa tecnologia 28 . Vale lembrar que, em fevereiro de 2020, a Comissão europeia publicou o “Livro Branco sobre a inteligência artificial”, em que afirma a necessidade de se reforçar a confiança na aplicação dessa tecnologia e traçar a política europeia com base nos valores e direitos fundamentais, como a dignidade humana e a proteção da privacidade.

Diante desse cenário, diversos pesquisadores vêm afirmando que o Brasil deveria desenvolver estratégias para o tema, a partir do reconhecimento de sua importância, construindo uma política nacional própria para essa área. No início de 2019, o Ministério da Ciência, Tecnologia, Inovações e Comunicações começou a ampliar projetos sobre IA. O Brasil, em maio do mesmo ano, aderiu aos princípios da OCDE (Organização para a Cooperação e Desenvolvimento Econômico) para a administração responsável de inteligência artificial. Esse foi um dos primeiros documentos transnacionais a incluir diretrizes para que os governos adotem sistemas de IA que respeitem os direitos humanos e valores democráticos. Os cinco princípios afirmam de forma resumida que:

1. AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being. 2. AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society. 3. There should be transparency and responsible disclosure around AI systems to ensure that people understand when they are engaging with them and can challenge outcomes. 4. AI systems must function in a robust, secure and safe way throughout their lifetimes, and potential risks should be continually assessed and managed. 5. Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles. 29

Em diálogo com os princípios acima, em dezembro de 2019, o Ministério da Ciência, Tecnologia, Inovações e Comunicações lançou consulta pública para a futura Estratégia Brasileira de Inteligência Artificial. 30 O objetivo da já encerrada consulta era receber diversas contribuições para potencializar os benefícios da IA no Brasil, e resolver problemas concretos. O documento propunha seis eixos verticais (educação e capacitação; força de trabalho; pesquisa, desenvolvimento, inovação e empreendedorismo; aplicação pelo governo; aplicação nos setores produtivos; e segurança pública) e três eixos transversais (legislação, regulação e uso ético 31 ; aspectos internacionais; e governança de IA).

Como aponta Ronaldo Lemos, a IA deve ser vista como parte da infraestrutura de qualquer país, tendo em vista ser capaz de gerar externalidades positivas para as diversas atividades produtivas, tornando-as mais competitivas e eficientes. Recorda também o autor a relevância dessa tecnologia para a segurança nacional: “países que não dominam inteligência artificial ficam cada vez mais para trás no terreno geopolítico.” 32

Além disso, a ausência de orientação mais focada leva a uma sensação crescente de dúvida acerca da legislação aplicável aos danos causados pelas inteligências artificiais, bem como em relação à possibilidade ou não do desenvolvimento de certos tipos de tecnologias, cabendo, assim, à doutrina e à jurisprudência a indicação de caminhos para se discutir os danos causados pela IA e a responsabilidade civil decorrente. 33

Vale lembrar que esses danos podem ocorrer nas mais diversas áreas. Desde o chatbot que diz a uma criança que ela seria um demônio e que ele mataria toda a sua família, 34 até o carro autônomo que, efetivamente, já matou mais de uma pessoa. 35 Isso tudo sem mencionar, ainda, o papel de bots na disseminação de notícias falsas durante períodos eleitorais visando a desinformar os cidadãos. 36

Mais especificamente na seara empresarial, os danos podem ser de diversas naturezas, como se abordará de forma mais detida no próximo capítulo. Nesse sentido, pode-se falar tanto em danos causados a terceiros quanto à própria sociedade empresária. Desde smart contracts até algoritmos enviesados e preconceituosos na seleção de um currículo ou na tomada de uma decisão importante. E se os seres humanos já enfrentam dificuldades em monitorar e aplicar determinadas inteligências artificiais, o que se dirá do futuro onde milhões ou mais coexistirão juntas? 37

2.Aplicação da inteligência artificial em decisões empresariais

2.1.O uso de algoritmos e big data na tomada de decisões

Administrar ou gerenciar uma sociedade empresária envolve a tomada constante de decisões importantes. Decisões essas que podem comprometer todo um orçamento, prejudicar o bem-estar dos funcionários e ter impactos imensuráveis. Uma escolha ruim pode levar uma companhia à falência ou obrigá-la a cortar bruscamente gastos. Por isso, racionalizar os sistemas decisórios representa uma tarefa cada vez mais relevante. Sem dúvida, uma importante aliada para essa atividade é a Inteligência Artificial 38 , que, por intermédio de seus algoritmos 39 e do input de dados fornecidos, será capaz de apresentar possíveis respostas, além de propor estratégias matematicamente mais vantajosas para os problemas em pauta. A promessa é ousada: acredita-se que a máquina pode falhar menos do que o ser humano.

Ao tratar da utilização de algoritmos para fins de melhorar o processo decisório, Ana Frazão afirma que:

A exploração de algoritmos para tais fins encontra-se no contexto de um mercado multibilionário, cuja proposta é a de substituir as decisões humanas, consideradas naturalmente falhas e enviesadas, pelas escolhas algorítmicas, vistas como mais eficientes, objetivas e imparciais. Grandes empresas investem fortemente nesse segmento, não somente para ajudar clientes e consumidores – aí incluindo o próprio governo – em suas escolhas, como também para orientar seus próprios processos decisórios internos. 40

O argumento central em defesa do uso da inteligência artificial é de que a máquina faria escolhas mais eficientes, objetivas e imparciais, ao passo que as decisões humanas tenderiam ao enviesamento e estariam mais sujeitas a falhas.

Ocorre que é preciso recordar que todo algoritmo precisa de um input inicial para funcionar. Em outros termos, isso significa que “a matéria-prima utilizada pelos algoritmos para tais decisões é o big data, ou seja, a enorme quantidade de dados disponíveis no mundo virtual que, com o devido processamento, pode ser transformada em informações economicamente úteis” 41 , elas, por sua vez, “servirão como diretrizes e critérios para o processo decisório algorítmico” 42 .

E este input que forma o big data é, pelo menos no início, dado pelo ser humano. Assim, de nada adianta criar um algoritmo pretensamente neutro, se o banco de dados que o alimenta já nasce enviesado. 43 Basta pensar no recurso do Google Fotos que identificou pessoas negras como sendo gorilas. 44 Ou mesmo no caso da IA da Microsoft, Tay, que em apenas algumas horas após estrear no Twitter emitiu declarações racistas, antissemitas, sexistas, conspiratórias e revisionistas, as quais poderiam até mesmo ser qualificadas penalmente como injúrias raciais, crimes de incitação ao ódio e discriminação racial. 45

A gravidade dessa utilização de dados pode ser bem compreendida na obra Automating Inequality: How high-tech tools profile, police, and punish the poor, na qual Virginia Eubanks lança luzes sobre a transformação ocorrida nas principais decisões que determinam a vida das pessoas: desde a seleção de currículos para uma vaga de emprego, chegando até os seguros, acesso ao crédito e a serviços do governo. Decisões que, até pouco tempo, eram tomadas exclusivamente por seres humanos, acabaram sendo delegadas no todo ou em parte para sistemas automatizados de elegibilidade, algoritmos de ranking e modelos de risco preditivo, que acabam controlando desde a concessão de crédito a uma pessoa até quem tem mais chances de delinquir, com base na análise computadorizada de estatísticas. 46

Percebe-se, assim, o potencial das decisões automatizadas de violarem direitos fundamentais, se tomadas sem o cumprimento de determinados parâmetros éticos e constitucionais que garantam sua transparência, possibilidade de controle, a participação do indivíduo no âmbito do processo decisório e a correção dos dados que serviram como input do algoritmo.

Nesse contexto, alude-se ao tratamento conferido ao tema pela Lei Geral de Proteção de Dados (LGPD, Lei n. 13.709/2018) que, na tentativa de conciliar a garantia do segredo industrial e empresarial, previu o direito de o titular dos dados solicitar a revisão de decisões tomadas 47 unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. Segundo parte da doutrina, o artigo 20 da LGDP seria em certa medida a sede do “direito à explicação” 48 , o qual derivaria do princípio internacionalmente reconhecido da transparência para o tratamento de dados pessoais 49 .

Vale recordar que essa disposição na LGPD dialoga com o regulamento europeu de proteção de dados (General Data Protection Regulation - GDPR) que, em seu considerando 71, afirma que o titular dos dados deverá ter o direito de não ficar sujeito a uma decisão que avalie aspectos pessoais que lhe digam respeito, que se baseie exclusivamente em tratamento automatizado e que produza efeitos jurídicos que lhe digam respeito ou o afetem significativamente de modo similar, como a recusa automática de um pedido de crédito, por via eletrônica, ou práticas de recrutamento eletrônico sem qualquer intervenção humana.

O mencionado tratamento inclui a definição de perfis mediante qualquer forma de tratamento automatizado de dados pessoais para avaliar aspectos pessoais relativos a uma pessoa natural, em especial a análise e previsão de aspetos relacionados com o desempenho profissional, a situação econômica, saúde, preferências ou interesses pessoais, fiabilidade ou comportamento, localização ou deslocações do titular dos dados, quando produza efeitos jurídicos que lhe digam respeito ou a afetem significativamente de forma similar.

Afirma-se que tal tratamento deverá ser acompanhado de garantias adequadas, que deverão incluir informação específica ao titular dos dados e o direito de obter a intervenção humana, de manifestar o seu ponto de vista, de obter uma explicação sobre a decisão tomada na sequência dessa avaliação e de contestar a decisão. Destaca-se que essa medida não deverá dizer respeito a uma criança, cuidado esse não disposto na lei brasileira.

Por fim, o Considerando 71 do GDPR dispõe que:

A fim de assegurar um tratamento equitativo e transparente no que diz respeito ao titular dos dados, tendo em conta a especificidade das circunstâncias e do contexto em que os dados pessoais são tratados, o responsável pelo tratamento deverá utilizar procedimentos matemáticos e estatísticos adequados à definição de perfis, aplicar medidas técnicas e organizativas que garantam designadamente que os fatores que introduzem imprecisões nos dados pessoais são corrigidos e que o risco de erros é minimizado, e proteger os dados pessoais de modo a que sejam tidos em conta os potenciais riscos para os interesses e direitos do titular dos dados e de forma a prevenir, por exemplo, efeitos discriminatórios contra pessoas singulares em razão da sua origem racial ou étnica, opinião política, religião ou convicções, filiação sindical, estado genético ou de saúde ou orientação sexual, ou a impedir que as medidas venham a ter tais efeitos. A decisão e definição de perfis automatizada baseada em categorias especiais de dados pessoais só deverá ser permitida em condições específicas. 50

Esse panorama permite concluir, parcialmente, que tão ou mais importante que o algoritmo é a base de dados a ele subjacente e o enviesamento que pode vir a reboque, o que realça ainda mais a necessidade de se efetivar a cartela de direitos e princípios fundamentais estabelecidos aos titulares dos dados na LGPD.

2.2.Exemplos da aplicação de inteligência artificial na tomada de decisões empresariais

Fundadas as premissas iniciais de que a adoção da IA vem agasalhar uma necessidade crescente de maior objetividade, imparcialidade e eficiência decisória, bem como apontada a importância da base de dados que alimenta os algoritmos, cabe agora analisar possíveis exemplos da aplicação de inteligência artificial na tomada de decisões empresariais.

Para fins meramente didáticos, pode-se dividir a aplicação da IA no âmbito empresarial em duas grandes áreas: a utilização externa e a utilização interna. Isto é, pode-se utilizar a IA para fazer a interface com terceiros, a exemplo de robôs que atendem chamadas telefônicas ou chatbots em aplicativos e sites 51 , como também para processos decisórios internos. A presente análise abordará com mais detalhe a última possibilidade.

Assim, é possível se pensar na utilização da IA em diferentes áreas de uma empresa: desde o marketing, havendo a análise de padrões de comportamentos para a realização de campanhas publicitárias, até a opção de decidir com quem contratar ou como e onde investir, isto é, algoritmos que dizem, com base em dados, qual a melhor parceira para fazer negócios ou quais negócios valem o risco.

Especialistas sobre o elencaram as principais aplicações, a saber 52 : (i) melhoria na infraestrutura, soluções e serviços; (ii) aperfeiçoamento dos sistemas de defesa em cibersegurança; (iii) maiores benefícios em cuidados de saúde das pessoas;...

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
29 de Janeiro de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969663/a-utilizacao-de-inteligencia-artificial-em-decisoes-empresariais-notas-introdutorias-acerca-da-responsabilidade-civil-dos-administradores