Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros - Ed. 2020

Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros - Ed. 2020

Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros - Ed. 2020

Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros - Ed. 2020

3. Classificação dos Riscos Pelo Segurador na (Porvir) Era da Ciência dos Dados: Estratégias de Prevenção à Discriminação Racial

3. Classificação dos Riscos Pelo Segurador na (Porvir) Era da Ciência dos Dados: Estratégias de Prevenção à Discriminação Racial

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

“É uma perda de tempo tentar lutar contra a discriminação em matéria de seguro privado?” A partir dessa pergunta, Anne Danis-Fatôme desenvolve interessante estudo, ainda numa perspectiva do seguro na era atuarial, sobre o tema da discriminação tarifária. Após demonstrar algumas mudanças – fruto de uma longa e vagarosa luta por direitos iguais – ocorridas na jurisprudência francesa e europeia no combate à discriminação, a autora conclui não ser o enfrentamento em vão, pois o direito, ressalta, não se reduz a uma câmara de registros de normas técnicas, por mais sólidas que elas sejam, mas expressa um projeto de sociedade. 1

Passados alguns anos, pode-se dizer que a aludida indagação ganhou notas extras de complexidade. Se já se demonstrava desafiadora a missão de controlar a discriminação naquele contexto de perfilização humana, a transição para o seguro movido a decisões automatizadas tende a exacerbar o problema. 2 Mais do que nunca, será necessário se recordar advertência de Rodotà no sentido de que “nem tudo o que é tecnicamente possível é socialmente desejável, eticamente aceitável, juridicamente admissível”. 3

Como apontamento preliminar deste capítulo, faz-se mister esclarecer que, embora a “luta” contra a discriminação seja a mesma, as “armas” que podem ser utilizadas e os “inimigos” não são exatamente iguais. Ao não mais generalizar com base em alguns dados demográficos, mas sim considerar um grande e variado conjunto de dados, inclusive aqueles relativos aos efetivos comportamentos do (candidato a) segurado para a precificação do contrato, o seguro da era da ciência dos dados acaba por abrandar algumas críticas intrínsecas à discriminação ocorrida na era da ciência atuarial. Entre todas, destaque-se aquela de cuja precificação do seguro se assemelhava a um julgamento sem consideração das provas, ou seja, que as características pessoais únicas dos indivíduos não eram, de fato, consideradas, uma vez que importavam apenas alguns grupos nos quais eles eram reconduzidos – por exemplo, no seguro de automóvel, levando-se em conta a idade e o gênero.

Embora seja despiciendo repisar todos os pontos positivos e negativos examinados no capítulo anterior acerca da expansão do Big Data e da IA na subscrição dos seguros, bem como ecoar ressalva de que, na essencial problematização dessa expansão, não se deve romantizar a forma tradicional de definição do prêmio, duas questões merecem ser retomadas. Em primeiro lugar, a ascensão do uso de dados não tradicionais pelos seguradores, coletados pela internet e processados por algoritmos, alterando de forma inconteste o processo de contratação. E, em segundo, como consequência dessa transformação, a insuficiência da perspectiva clássica da discriminação.

No que se refere à fase pré-contratual, pode-se vislumbrar a possível troca da fonte primária de informação do segurador. O exemplo da insurtech brasileira Thinkseg, que atua no ramo do seguro de automóvel é, nesse sentido, paradigmático:

Para contratar o seguro da empresa, que trabalha em parceria com sete seguradoras (entre elas, Bradesco Seguros e Sancor), o cliente fornece só três informações: e-mail, placa do carro e CEP. Com esses dados, o algoritmo “varre” a internet (são mais de 30 fontes de informação) atrás de todos os dados necessários (para evitar fraude e o trabalho), oferecendo assim a apólice mais adequada. 4

Ainda que se questione se a empresa estaria cumprindo com os seus deveres de informação e transparência, tendo em vista que o cliente provavelmente não possuiria ciência de que a seguradora “varreria” a internet à procura de seus dados, o caso relatado parece fazer parte de uma tendência sem volta. 5 Comparada a algumas seguradoras estrangeiras, as “30 fontes de informação”, a rigor, não seriam tão expressivas. 6

Sem embargo, diversos problemas e controvérsias afloram de um pente-fino on-line do candidato a segurado por parte do segurador. Apesar de não ser a sede adequada para desenvolvê-los, registre-se que a excessiva restrição ao livre desenvolvimento da personalidade do titular de dados deve desempenhar um papel importante nessa apreciação. Pense-se, exemplificativamente, no uso de dados colhidos em rede sociais, como o Facebook. Os seguradores poderiam ter acesso às curtidas e às interações feitas pelo consumidor para avaliar o risco no momento da contratação?

Diante da efetiva possibilidade de isso se tornar real, no começo de 2019 o The Wall Street Journal deu dica curiosa aos seus leitores interessados em contratar seguros de vida: “Não poste fotos fumando em sites de mídia social. Publique fotos correndo”. 7 Em sentido semelhante, a CBS destacou em artigo publicado na sequência: “Posar na frente de um tubarão branco e balançando os pés para o lado de fora de um helicóptero pode fazer com que você ganhe curtidas no Instagram, mas apenas descurtidas pelas companhias de seguros, que poderiam considerar esses atos perigosos”. 8

Ainda que mediante o requerimento de consentimento, na quadra atual, o uso de dados de redes sociais pelos seguradores provavelmente não seria considerado merecedor de tutela, haja vista restringir de forma não razoável o livre desenvolvimento da personalidade do segurado. 9 Caso se torne comum o emprego desses dados por outros agentes de tratamentos, talvez a situação se inverta. De toda forma, crê-se que tal uso não deveria ser ilimitado. A consideração, por exemplo, das “amizades” do segurado no Facebook afigurar-se-ia extremamente problemática, uma vez que poderia restringir laços e associações entre pessoas de forma incompatível com a legalidade constitucional.

Outro “inimigo” presente na luta contra a discriminação algorítmica é a deliberada utilização de dados pessoais não relacionados ao risco garantido para a precificação do seguro, visando maximizar o número de vendas e/ou o lucro pelo segurador. Conforme já se deu nota, o acesso à grande quantidade de dados permitirá se prever a sensibilidade à variação de preço por parte do segurado, ou seja, o quanto ele estará disposto a pagar na contratação ou na renovação. Essa discriminação tarifária não baseada no risco deve, a princípio, ser considerada abusiva, especialmente se for em prejuízo de grupos vulneráveis.

Sem a pretensão de aprofundar o debate na questão, cabe apenas se transcrever tabela produzida pelo Financial Conduct Authority do Reino Unido em que se elencam, em forma de seis questões, os principais pontos que deveriam ser considerados na análise de eventual controle da discriminação tarifária em produtos e serviços:

Tabela 4: Análise de intervenção na otimização do preço em seis questões

Quem é prejudicado pela discriminação de preços?

Consumidores mais ricos - por exemplo, com pouco tempo e muito dinheiro

Consumidores com características que podem ser consideradas vulneráveis (por exemplo, baixa renda, velhice etc.)

Quanto esses indivíduos são prejudicados?

A diferença de rentabilidade entre segmentos de consumidores é mínima e imaterial para o segmento prejudicado

Diferenças de rentabilidade significativas e os danos têm um significativo efeito adverso no segmento afetado

Quão significativo é o conjunto de pessoas prejudicadas?

Minoria muito pequena

Grupo significativo de consumidores

Como as empresas discriminam os preços?

Transparentemente e baseado em comportamentos nos quais os consumidores podem mudar facilmente (por exemplo, substituir)

Ocultamente e baseado em características intrínsecas que os consumidores não podem mudar (por exemplo, características pessoais)

O produto/serviço é essencial?

O produto/serviço é considerado não essencial, mas desejado por alguns consumidores

Produto/serviço essencial (por exemplo, conta corrente ou seguro automóvel obrigatório)

A sociedade vê a discriminação de preços como flagrantemente/ socialmente injusta?

Pouca preocupação expressada sobre práticas e comportamento da empresa amplamente aceito

Preocupação amplamente expressa e persistente e comportamento da empresa visto como uma má conduta

Fonte: STARKS, Mary et al. Price discrimination in financial services: How should we deal with questions of fairness? London: Financial Conduct Authority, 2018. p. 6. (Tradução livre).

Recentemente, a imprensa britânica noticiou que o setor de seguros estava começando a ser escrutinado sobre possível viés racial indireto na precificação de seus serviços. 10 Possui especial relevo para a presente tese justamente o fato de que o tratamento de dados aparentemente “neutros”, do ponto de vista antidiscriminatório, poderá revelar informações extremamente sensíveis, ou melhor, gerar resultados – ainda que sem a intenção ou até mesmo a percepção do programador da IA – semelhantes ao tratamento mediante a utilização de dados proibidos. Se fosse para se escolher um, dir-se-ia que esse é o grande inimigo na luta contra a discriminação no âmbito do seguro na era da ciência dos dados e que, para enfrentá-lo, será necessário se contar com armas adaptadas ou originais.

Tem-se defendido, nestas linhas, que o uso de dados coletados online e o seu entrecruzamento com diversos outros bancos de dados pelo segurador tem potencial de gerar consideráveis vantagens em termos de eficiência e qualidade do serviço prestado, mas, ao mesmo tempo, permite uma discriminação silenciosa e facilmente mascarável por complexos algoritmos. Toda essa conjectura sugere que não será suficiente se concentrarem esforços na restrição à coleta e utilização de determinados dados sensíveis pelo segurador. Será necessário, outrossim, avaliar-se o impacto do uso de dados à primeira vista não ligados a consumidores vulneráveis (leia-se: membros de grupos minoritários que se encontram em persistente situação de desvantagem na sociedade, muitas vezes em virtude de atributos pessoais imutáveis), mas que reiteradamente os prejudiquem de forma desproporcional.

Em um contexto no qual todos os dados são potencialmente sensíveis, o combate ao que já foi designado como “algoracism11 requererá uma estratégia distinta da que simplesmente torna o algoritmo cego à raça; ter-se-á de incluir a prevenção à discriminação causada por atributos aparentemente neutros, mas que impactem, de forma desproporcional, os negros. Na realidade, pode-se afirmar que a linha que separa a discriminação direta da indireta ou, na perspectiva norte-americana, o disparate treatment do disparate impact, tende a se estreitar.

Com efeito, a doutrina especializada tem alertado:

Existe crescente consenso de que a distinção entre discriminação direta e indireta está-se tornando menos saliente e mais difícil de ser definida. A personalização desvia a atenção do consumidor e do regulador da participação em grupos socialmente salientes, por exemplo sexo ou raça. As decisões são cada vez mais, tomadas com base em características preditivas que não são socialmente suspeitas, como medir o estilo de direção do veículo, ou decisões sobre o estilo de vida, tais quais ingressar em uma academia de ginástica. Isso torna a avaliação de riscos menos problemática do ponto de vista da discriminação, como tradicionalmente entendida. Ao mesmo tempo, traços não socialmente salientes (por exemplo, o uso de academia) costumam ser significativamente correlacionados com a participação de grupos socialmente salientes – e essas correlações podem refletir práticas discriminatórias passadas ou atuais. 12

Nesse novo cenário de tomada de decisões automatizadas, repita-se, a estratégia de prevenção à discriminação há de ser reformulada. Para além do controle dos dados que alimentarão o sistema de IA (inputs) e da forma do seu treinamento, as inferências que se farão a partir deles e os resultados do tratamento (outputs) também deverão ser avaliados em um dificultoso processo de averiguação de ocorrência de uma das modalidades de discriminação.

No direito brasileiro, a recente introdução da aludida discriminação indireta na legalidade constitucional e os pouquíssimos casos, mormente nas relações entre privados, reconhecendo-a até o momento, temperam, de forma especial, o problema aqui versado. 13 Diga-se, porém, em abono da verdade, que, mesmo nos países que já possuem volumosa jurisprudência na matéria da discriminação indireta, a sua quase totalidade se refere a conflitos gerados por decisões humanas. Transporem-se os parâmetros utilizados nessa sede para o contexto da discriminação algorítmica requererá trabalho semelhante ao que deverá ser feito por aqui.

Sem se pretender antecipar o enfrentamento da problemática, adiante-se que a incipiente literatura no tema tem defendido, com base em uma análise integrada entre as normas de proteção de dados e antidiscriminatórias, a implementação de uma “equidade desde a concepção” (“fairness by design” ou “equal protection by design”), 14 que significaria considerar, já na coleta dos dados, a sua preparação, a concepção do algoritmo, o seu treinamento e todas as etapas subsequentes, a tentativa de mitigação da discriminação como uma missão a ser perseguida.

Dito de outra forma, caberia ao agente de tratamento, proativamente, desde a fase de modelagem e treinamento do sistema de IA até a verificação dos seus outputs, tentar diminuir os enviesamentos, conjugando, para tanto, métricas tradicionais de exame de performance dos algoritmos com outras de equidade (p. ex., mediante a análise das taxas de falso positivo e falso negativo entre grupos demográficos distintos). 15

No Brasil, a “equidade desde a concepção” poderia ser extraída, sobretudo, do art. 46, § 2º e dos princípios da prevenção e da não discriminação dispostos no art. , ambos da LGPD, do art. 3º, § 1º, inc. IX, da Resolução CNSP nº 382, de 04 de março de 2020, e, no que se refere à discriminação indireta, do dever de adaptação razoável presente em sede constitucional. 16 Impõe-se realçar, porém, que não há uma noção definitiva sobre o que configuraria um tratamento equitativo ou qual seria a adaptação razoável do algoritmo exigível do segurador para o afastamento da discriminação indireta. Mesmo que a arquitetura do sistema seja concebida para se privilegiar a equidade e que se atente à necessidade de medidas corretivas durante o seu desenvolvimento, escolhas delicadas ainda terão de ser tomadas.

Com efeito, o exame da precificação do seguro privado requer uma penosa, mas necessária apreciação, resumível em uma pergunta: qual tipo de “discriminação” o ordenamento jurídico deverá considerar tolerável? 17 Por exemplo, para além da não utilização do dado racial, deveria ser considerado equânime i) tratar-se os candidatos a segurado da forma mais próxima possível aos seus respectivos riscos, aferível pelo algoritmo independentemente de se considerarem outros elementos, ou ii) caberia acrescentar-se uma medida restritiva a possíveis diferenças significativas entre determinados grupos, como negros e brancos, oriundas de atributos aparentemente neutros? Em uma sociedade tão desigual como a brasileira, tais diferentes concepções da equidade serão muitas vezes autoexcludentes. 18

O reconhecimento de que a eliminação de tratamentos “discriminatórios” pelo segurador não diz respeito à meta realística – havendo ou não a classificação dos riscos baseada no perfil do segurado – é libertador e permite que sejam traçadas estratégias visando contê-los a um nível admissível. Na sequência, serão investigadas quatro possíveis abordagens, não necessariamente excludentes entre si, para o problema da discriminação algorítmica na subscrição do seguro. Dando início à jornada, examinar-se-á a restrição dos inputs como estratégia, por meio da proibição da classificação dos riscos (infra, item 3.1.1.) e pela exigência de prévia aprovação dos fatores de risco pela SUSEP (infra, item 3.1.2). Subsequentemente, o condicionamento dos outputs como estratégia será apreciado por duas vias: pela exigência de controle da discriminação racial indireta desde a concepção do algoritmo (infra, item 3.2.1) e pela necessidade de que as inferências resultantes do tratamento de dados sejam razoáveis (infra, item 3.2.2). 19

Antes de se prosseguir, registre-se que as medidas analisadas não esgotam os esforços necessários para o endereçamento do problema e devem ser realizadas se valendo também das ferramentas da LGPD abordadas no item 2.2.1, supra. Relembre-se, nesse sentido, dos direitos individuais do titular dos dados pessoais – e.g., direito de acesso aos dados tratados (art. 9º c/c arts. 18 e 19) e o direito à explicação e à revisão das decisões automatizadas (art. 20) –, as imposições legais de transparência, prevenção, não discriminação e accountability dos agentes de tratamento (art. 6º, incisos VI, VIII, IX, X), bem como a possibilidade de exigência, pela ANPD, de confecção de um relatório de impacto à proteção de dados pessoais (arts. 5º, inc. XVII, 10, § 3º, e 38) pelo segurador e de realização de auditoria para verificação de aspectos discriminatórios no seu tratamento de dados (art. 20, § 2º).

3.1 Discriminação algorítmica: restrição dos inputs como estratégia

3.1.1 Proibição da classificação dos riscos

A primeira e mais radical estratégia de combate à discriminação algorítmica na precificação do seguro é simplesmente proibir a cobrança de prêmios diversificados com base nos dados pessoais do candidato a segurado. Ao se cobrar de todos o mesmo valor de prêmio, garante-se, a priori, que não haverá diferenciação ilícita ou abusiva. Não necessariamente, porém, tal medida promoveria a igualdade. Conforme se deu nota acima, o tratamento igual de pessoas em situações desiguais também pode dar azo à discriminação.

Além disso, a cobrança de um mesmo valor em troca de serviços distintos se coaduna melhor com a lógica dos seguros sociais e, em muitos casos, será considerada uma atitude que se situa entre o inconveniente e o desproporcional. Cabe aqui retomar-se, em voo de pássaro, as notas feitas no tópico 1.1.2, supra, acerca dos fenômenos da seleção adversa do risco e do risco moral.

Na eventualidade de o segurador ser tolhido da possibilidade de refletir no prêmio os riscos diversos de alguns segurados, como os idosos no seguro de vida, há plausível receio de que o contrato se torne atraente apenas para o segmento da população que possua um risco acima da média e afaste outro – no caso, os jovens – que poderia contribuir para o equilíbrio da carteira. É sempre lembrado que o aumento dos sinistros poderia levar a uma espiral de aumento de prêmios e de clientes com riscos piores até que, eventualmente, o fornecimento do seguro se tornaria pouco lucrativo ou inviável ao segurador privado.

No que tange ao risco moral, parte da doutrina defende que a cobrança de prêmios equivalentes entre todos os segurados poderia gerar um incentivo à diminuição de cuidados para se evitar a ocorrência do sinistro, uma vez que não haveria qualquer consequência negativa, no momento de renovação ou em nova contratação, ao segurado “desleixado”. A depender da modalidade específica do seguro, isso poderia gerar efeitos negativos para a sociedade, como, no que toca ao seguro de automóvel, o aumento de acidentes de trânsitos.

Embora não se encaixe na noção de seguro privado, um exemplo em que não há a classificação dos riscos baseada nas características pessoais do segurado é o Seguro Obrigatório de Danos Pessoais causados por veículos automotores de via terrestre, ou, por sua carga, a pessoas transportadas ou não (Seguro DPVAT). 20 Como todos os seguros obrigatórios, ele é disposto em lei (Lei nº 6.194/1974) e não segue rigidamente os comandos do Código Civil. A falta de pagamento do seguro pelo proprietário do veículo bloqueia o licenciamento e impede a sua circulação, ou seja, além da obrigatoriedade de participação do fundo comum, há um grande incentivo para que haja a quitação de sua obrigação pelo segurado.

Tanto os valores do prêmio quanto os das indenizações são baixos, sendo que essas visam oferecer um suporte mínimo às vítimas, pessoas transportadas ou não, de acidentes automotores. 21 Relativamente à quantia cobrada dos proprietários de veículos, ela é fixada anualmente pelo Conselho Nacional de Seguros Privados (CNSP), considerando os repasses obrigatórios ao Fundo Nacional de Saúde e ao Departamento Nacional de Trânsito (respectivamente, 45% e 5% do valor arrecadado), bem como o montante necessário para a formação de reservas técnicas, quitação de sinistros e despesas administrativas, e o lucro das seguradoras que compõem os consórcios que gerem o sistema.

Convém se ressaltar que o impedimento de classificação dos riscos pelas seguradoras, ou melhor, a própria definição do valor do seguro pelo CNSP não obsta que haja uma diferenciação baseada na categoria do veículo. Assim, em 2019, para se ficar em três exemplos, foi cobrado dos proprietários de automóveis o valor de R$ 12,00 (doze reais); dos donos de caminhões, R$ 12,56 (doze reais e cinquenta e seis centavos); e, no que se refere às motocicletas, R$ 80,11 (oitenta reais e onze centavos), independentemente do modelo ou ano deles. A diferença entre as quantias está ligada ao fato de que, dentre todos os veículos – que incluem também táxis, ônibus etc. –, os acidentes com motos representam 74% dos gastos com indenizações. 22 A obrigatoriedade da contratação afasta a possibilidade de seleção adversa do risco e promove um subsídio entre segurados expostos a riscos diversos.

Nada impede o legislador de fixar a obrigatoriedade de novas modalidades de seguros ou aumentar o valor dos prêmios e das indenizações daqueles que já existam; entretanto, não se deve perder de vista que, salvo atividades envolvendo riscos especiais, talvez seja melhor relegar aos cidadãos o gerenciamento dos riscos que os circundam, por meio da contratação de um seguro privado facultativo ou outras formas.

A proibição da classificação dos riscos acaba também por diminuir a concorrência entre os seguradores e o incentivo para que forneçam um serviço de melhor qualidade; sem dizer, ainda, na possibilidade de exclusão de consumidores que, embora possuidores de um “bom risco”, não tenham renda suficiente para pagar o prêmio calculado tendo em conta o risco médio dos segurados. Em relação a esse último ponto, tem despertado controvérsia, no Brasil, a questão da precificação dos planos de saúde privados.

De acordo com pesquisa publicada em 2018 pelo Serviço de Proteção ao Crédito (SPC Brasil) e a Confederação Nacional de Dirigentes Lojistas (CNDL), 69,7% dos brasileiros não possuem planos privados de saúde – modalidades individual/familiar ou coletivo empresarial/por adesão – e, entre as classes C, D e E, esse número chega à marca de 77%. Tendo em linha de conta a precariedade do atendimento fornecido pelo Sistema Único de Saúde (SUS), o baixo número de adeptos dos planos de saúde é geralmente atribuído ao seu alto custo – em média, segundo a referida pesquisa, o brasileiro paga o valor de R$ 439,54 (quatrocentos e trinta e nove reais e cinquenta e quatro centavos) por mês para ter acesso ao serviço. 23

Sem a pretensão de se analisarem todos os aspectos que influenciam na precificação dos planos de saúde, importa, na presente sede, o fato de que, desde a promulgação da Lei nº 9.656/1998, as operadoras estão impedidas de levar em conta o perfil do consumidor para a seleção do risco e a definição dos termos contratuais. Ao que consta, era comum que isso ocorresse:

Anteriormente à regulamentação estatal do setor de saúde suplementar, em 1999, as operadoras buscavam proteção contra os efeitos do risco moral e da seleção adversa por meio da limitação e exclusão de vários procedimentos, e com a diferenciação de preço por nível de exposição ao risco. A nova legislação, entretanto, impôs várias restrições, etária, proibição de preços diferenciados por sexo e para os planos individuais, o limite de reajuste das mensalidades e impossibilidade de cancelamento dos planos por parte da operadora, além de sucessivos róis de novos procedimentos. 24

Com efeito, a lei dos planos de saúde veda, expressamente, a exclusão de cobertura às doenças e lesões preexistentes à contratação, após vinte e quatro meses de sua vigência (art. 11), 25 e, em seu art. 14, dispõe que, “em razão da idade do consumidor, ou da condição de pessoa portadora de deficiência, ninguém pode ser impedido de participar de planos privados de assistência à saúde”. O art. 15 do mesmo texto legal permite a variação das contraprestações pecuniárias em virtude da idade do beneficiário, “caso estejam previstas no contrato inicial as faixas etárias e os percentuais de reajustes incidentes em cada uma delas, conforme normas expedidas pela ANS”.

É comum que constem, na “declaração de saúde” entregue anteriormente à contratação para o preenchimento do (candidato a) beneficiário, perguntas a respeito de possíveis lesões ou doenças (v.g., diabete, osteoporose, câncer, AIDS) que o acometam e o requerimento de alguns dados pessoais (e.g., peso, altura, idade). Segundo posicionamento majoritário, porém, apenas o fator “idade” poderia ser utilizado na precificação do contrato – e, ainda assim, em conformidade com as dez faixas dispostas na Resolução Normativa nº 63/2003 da Agência Nacional de Saúde Suplementar (ANS). 26 O peso e a altura auxiliariam na verificação de uma possível obesidade, e os dados diretamente relacionados às doenças serviriam para afastar, durante o prazo de 2 anos disposto no art. 11 da Lei nº 9.656/1998, a cobertura de tratamentos cirúrgicos ou de alta complexidade exclusivamente resultantes de doenças preexistentes.

Nesse sentido, é possível se colher do site da ANS a seguinte explicação sobre a declaração em tela, para fins de contratação de planos privados de assistência à saúde:

A Declaração de Saúde tem por objetivo solicitar ao beneficiário informações a respeito de seu estado de saúde e de possíveis doenças ou lesões que saiba ser portador ou sofredor, e tenha conhecimento, no momento da contratação ou adesão contratual ao plano de saúde, para que a operadora saiba e possa, caso seja do seu interesse, oferecer cobertura parcial temporária (CPT). Não podem ser utilizadas neste formulário perguntas sobre hábitos de vida, fatores de risco, sintomas e tampouco sobre o uso de medicamentos. 27

De acordo com a Resolução ANS nº 162/2007, caso o consumidor informe, na declaração de saúde preenchida no momento da contratação, que possui doença ou lesão preexistente, à operadora caberá uma das três seguintes opções: i) contratar nos mesmos termos em que contrataria com uma pessoa saudável; ii) oferecer um plano com cobertura parcial temporária (no qual, durante um período de até 24 meses, a operadora não cobriria procedimentos cirúrgicos ou de alta complexidade, exclusivamente relacionados a doenças ou lesões preexistentes declaradas); e, ainda, iii) oferecer, se assim desejar, a opção do designado “agravo” ao consumidor, permitindo o pagamento de um valor extra para a cobertura da doença preexistente antes do prazo aludido acima. 28

A definição do que seriam “doenças ou lesões preexistentes” é complexa, inclusive no campo da medicina. De forma pragmática, o art. 2º, inciso I, da Resolução ANS nº 162/2007 define-as como aquelas que o beneficiário ou seu representante legal saiba ser portador ou sofredor, no momento da contratação ou adesão ao plano privado de assistência à saúde”. Discute-se se o agravo poderia ser cobrado em prazo superior ao da cobertura parcial temporária – o que, na prática, faria com que a doença do beneficiário acabasse interferindo na precificação do plano.

Em reiterados pronunciamentos, a ANS se posicionou no sentido da impossibilidade da consideração de características pessoais do beneficiário, à exceção da idade, para a precificação em definitivo do plano de saúde. O caráter permanente do agravo acarretaria justamente isso, e premiaria os beneficiários que não tivessem declarado a sua doença no momento da contratação. Cabe sublinhar-se, porém, que as operadoras pouco se valeram da figura do agravo; 29 não sendo difícil se encontrar julgados em que elas foram responsabilizadas civilmente por negativa ilegal de contratação ou de cobertura ao tratamento de doença. 30

Entre as relações securitárias, a discriminação nos planos de saúde privados é a única forma expressamente proibida, tanto no Estatuto da Igualdade Racial (Lei nº 12.288/2010) 31 quanto na Lei Brasileira de Inclusão da Pessoa com Deficiência (Lei nº 13.146/2015) 32 e no Estatuto do Idoso (Lei nº 10.741/2003). Esse último diploma legal gerou grande celeuma na matéria, eis que, o seu art. 15, § 3º, veda “a discriminação do idoso nos planos de saúde pela cobrança de valores diferenciados em razão da idade”, em aparente contradição ao art. 15 da Lei nº 9.656/1998 – que, relembre-se, ao tratar dos planos de saúde, permite algumas variações.

Após longos debates no STJ sobre a ocorrência ou não de discriminação no reajuste de prêmio do seguro-saúde das pessoas com idade superior a 60 anos, 33 prevaleceu o entendimento de que a “solidariedade intergeracional” presente nessa modalidade contratual não poderia ser de tal monta a criar uma “barreira à permanência” dos mais jovens. Desde que adequado e razoável (na visão da corte, “atuarialmente justificável”), previsto em contrato e de acordo com as normas da ANS, o reajuste seria permitido. Traz-se à colação breve passagem do leading case da matéria:

A abusividade dos aumentos das mensalidades de plano de saúde por inserção do usuário em nova faixa de risco, sobretudo de participantes idosos, deverá ser …

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
30 de Junho de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1199047675/3-classificacao-dos-riscos-pelo-segurador-na-porvir-era-da-ciencia-dos-dados-estrategias-de-prevencao-a-discriminacao-racial