Hoje é possível que leituras – muitas vezes precisas – sejam realizadas sobre os mais diversos tópicos: análises de currículos, análises de concessões de crédito, investigações por fraudes, probabilidades de êxito em um processo judicial e tantos outros, sem que se esgotem as possibilidades. Para isso, grosso modo, são necessárias ferramentas desenvolvidas para compreender vastos dados colhidos e armazenados (big data), extraindo deles as informações e análises que se deseja.
Portanto, nosso cotidiano se entrelaça gradativamente com tomadas de decisões que podem não estar sob os olhares de outro ser humano. Ainda assim, isso não impede que uma decisão automatizada não possua algum viés.
É sobre esse paradoxo do avanço tecnológico e atraso de mentalidade social e ética que se debruça o documentário Coded Bias, dirigido por Shalini Kantayya, no qual se reafirma a necessidade de questionamento sobre como tais leituras também podem estar eivadas de assimetrias, em razão do modo como os códigos são desenvolvidos – não de modo inesperado, por outros seres humanos.
Um exemplo válido a se analisar é a discussão incipiente na Europa sobre as possibilidades de acesso à maiores coberturas de seguro após o tratamento preditivo de dados genéticos para fins securitários (BIONI, 2019, p. 310), já que o Art. 22 da GDPR (General Data Protection Regulation) prevê a revisão de decisões automatizadas, ainda com algumas diferenças da legislação brasileira.
Em consonância com a GDPR, o Art. 20 da Lei Geral de Proteção de Dados (Lei 13.709/18) também prevê a possibilidade de revisão a partir de solicitação do titular, ao reconhecer o risco que o tratamento preditivo pode causar a uma pessoa natural que tem seus interesses atingidos em decisões automatizadas, inclusive a partir do perfilamento (profiling). Interessante notar que a revisão não deve ocorrer, necessariamente, por outra pessoa natural – como previa redação anterior do caput, modificada por meio da Medida Provisória 869/2018.
Assim, após a vigência da LGPD, o controlador deve estar preparado para “fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada”, conforme § 1º do referido artigo, quando utilizadas tais ferramentas de análise. Deve-se ressaltar que não há a necessidade de se revelar informações reconhecidas como segredo comercial. No entanto, esse fato não escusa o controlador de esclarecer para o titular alguns pontos de deliberação.
À título de exemplo, caso um titular tenha requerido empréstimo negado por decisão automatizada, o banco deverá esclarecer quais foram os dados a que tal decisão se baseou, sem, sobretudo, dizer quais algoritmos foram utilizados no ato.
Por fim, temos que, levantada a recusa de fornecer tais critérios, a Agência Nacional de Proteção de Dados (ANPD) poderá realizar auditoria para verificação de possíveis aspectos discriminatórios em tratamento automatizado, como prevê o §2º do mesmo artigo.
BIBLIOGRAFIA: BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2019, p. 310.
Comments