Introdução
A Lei Geral de Proteção de Dados Pessoais (LGPD), instituída pela Lei nº 13.709/2018, foi um marco regulatório na proteção de dados pessoais no Brasil. Inspirada em legislações internacionais como o GDPR europeu, a LGPD trouxe avanços significativos, principalmente no que tange à autonomia e autodeterminação informativa dos indivíduos. Um dos dispositivos mais debatidos, tanto no meio jurídico quanto tecnológico, é o Artigo 20, que trata do direito do titular à revisão de decisões automatizadas.
Mas, na prática, esse direito é efetivo? A revisão humana funciona como um instrumento real de controle ou é apenas uma formalidade legal? Neste artigo, examinaremos a redação do Artigo 20 da LGPD, seus desdobramentos práticos, dificuldades de implementação e possíveis caminhos para torná-lo mais funcional.

I – O que diz o Artigo 20 da LGPD?
O Art. 20 da LGPD prevê: “O titular dos dados pessoais tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais, que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.”
Ou seja, toda decisão tomada exclusivamente por algoritmos — sem intervenção humana — e que tenha impacto relevante sobre o titular (como negar um empréstimo, rejeitar um currículo ou ajustar o valor de um seguro), pode ser contestada.
Além disso, o §1º do artigo menciona que o controlador deverá fornecer, sempre que solicitado, informações claras e adequadas sobre os critérios e os procedimentos utilizados para a decisão automatizada. Já o §2º admite que a ANPD (Autoridade Nacional de Proteção de Dados) pode estabelecer normas complementares.
I.1 – Por que o Artigo 20 é importante?
Em um mundo cada vez mais mediado por algoritmos, decisões automatizadas se tornaram parte cotidiana da vida moderna. Bancos usam inteligência artificial para avaliar risco de crédito; e-commerces determinam preços com base em perfis de usuários; recrutadores usam softwares de triagem automatizada para avaliar currículos.
Nessas situações, o risco de opacidade, discriminação algorítmica e ineficiência é alto. O Art. 20 busca garantir transparência, equidade e accountability nesses processos, ao permitir que o titular questione e revise decisões que possam ser injustas ou incorretas.
I.2 – A revisão realmente funciona?
Apesar da nobreza do objetivo, há dúvidas sobre a efetividade do mecanismo, especialmente na perspectiva de funcionalidade.
Muitas empresas alegam que suas decisões envolvem algum grau de intervenção humana, ainda que mínima ou protocolar. Com isso, elas escapam da aplicação direta do artigo. Se um atendente apenas “confirma” uma decisão previamente tomada pelo sistema, isso já seria suficiente para descaracterizá-la como automatizada?
Essa interpretação dilui a força do Art. 20, pois cria uma zona cinzenta sobre o que é, de fato, uma decisão exclusivamente algorítmica. Sem clareza regulatória, empresas têm margem para restringir o direito do titular.
A LGPD não especifica como deve ser feita a revisão nem quem deve realizá-la. Não está claro, por exemplo: A revisão deve ser feita por um humano que tenha autoridade para modificar a decisão? Deve-se explicar os critérios usados pelo sistema? O revisor precisa justificar sua análise de forma detalhada?
Na ausência de regulamentação pela ANPD, muitas empresas adotam protocolos internos vagos ou meramente formais, em que a “revisão” se resume a reiterar a decisão do sistema, sem real reconsideração.
Ademais, o acesso limitado às lógicas algorítmicas tem gerado amplo debate, especialmente em razão do conflito entre propriedade industrial e transparência da tomada de decisão
O §1º do artigo exige que o titular tenha acesso a “informações claras e adequadas” sobre os critérios e procedimentos utilizados na decisão. Mas algoritmos de aprendizado de máquina, principalmente os baseados em deep learning, são muitas vezes opacos até para seus desenvolvedores.
Além disso, empresas frequentemente alegam segredo industrial ou propriedade intelectual para não revelar os detalhes do funcionamento de seus sistemas. Isso dificulta ou até inviabiliza a contestação informada por parte do titular.
Por fim, a assimetria informacional e técnica vem a tona, uma vez que o usuário, na grande maioria das vezes, se vê limitado quanto à tomada de decisão da empresa. Mesmo quando a revisão é possível, o cidadão médio não possui conhecimentos técnicos para compreender a base algorítmica de uma decisão. Termos como “rede neural convolucional” ou “clusterização baseada em K-means” são ininteligíveis para a maioria das pessoas.
Ou seja: sem educação digital e suporte jurídico ou técnico, o direito à revisão torna-se, muitas vezes, inoperante na prática.
II – Cenário internacional e comparado
Na União Europeia, o GDPR possui disposição semelhante. O modelo europeu também se assegura ao titular o direito de não se sujeitar a decisões automatizadas que produzam efeitos jurídicos significativos.
Porém, os desafios são os mesmos: a definição do que é uma decisão “unicamente automatizada”, a transparência algorítmica e a efetividade da revisão.
Alguns países como a França e a Alemanha têm avançado em regulamentações complementares e jurisprudência que reforçam o papel das autoridades de proteção de dados e dos tribunais na fiscalização dos sistemas algorítmicos.
III – A atuação da ANPD e o futuro da regulamentação
A Autoridade Nacional de Proteção de Dados ainda está em processo de regulamentar diversos dispositivos da LGPD, inclusive o Art. 20. A Agenda Regulatória 2023–2025 prevê como prioridade a elaboração de normas sobre:
- Definição clara de decisões automatizadas;
- Procedimentos mínimos de revisão;
- Transparência técnica e informacional;
- Padrões de explicabilidade para algoritmos.
Além disso, há expectativa de uma nota técnica ou resolução setorial que oriente setores mais dependentes de automação, como o financeiro, o varejo digital e o setor de saúde suplementar.
III.1 – Das mudanças esperadas
Para que o direito à revisão seja mais que um ideal abstrato, algumas medidas práticas podem ser adotadas.
A primeira delas consiste na imposição da obrigatoriedade de que toda decisão automatizada tenha intervenção humana significativa e documentada, capaz de alterar ou questionar o resultado.
Não obstante, as empresas devem fornecer explicações inteligíveis ao titular, com linguagem acessível, sobre os fatores que influenciaram a decisão. Isso não exige abrir o código-fonte, mas sim traduzir os fatores determinantes.
O acesso à justiça também deve ser observado. Ampliar o papel de ouvidorias públicas e privadas, bem como da Defensoria Pública, para intervir em revisões que envolvam populações vulneráveis ou hipossuficientes.
Por fim, a ANPD pode aplicar multas e sanções quando verificar que a revisão foi feita apenas para cumprir uma formalidade, sem qualquer poder real de reconsideração.
III. 2 – Casos práticos e jurisprudência emergente
Até o momento, a jurisprudência brasileira sobre o Art. 20 ainda é escassa. Alguns julgados tratam de negativa de crédito baseada em score, onde se discutiu a necessidade de transparência sobre os critérios adotados por birôs de crédito. No entanto, ainda não há consenso sobre o que constitui uma revisão válida nem sobre a obrigação de fornecimento detalhado da lógica algorítmica.
Com o crescimento das ações envolvendo discriminação algorítmica e vieses em recrutamento, crédito e publicidade digital, é provável que o Judiciário seja cada vez mais chamado a interpretar os limites e garantias do Art. 20.

Conclusão
O Art. 20 da LGPD representa um avanço significativo na tentativa de humanizar a era dos algoritmos. No entanto, sua eficácia está diretamente ligada à regulamentação clara, educação digital da população, transparência técnica dos sistemas e à atuação firme da ANPD e do Judiciário.
A revisão de decisões automatizadas só funcionará se for real, compreensível e vinculante — e não apenas um ritual vazio. Para isso, o Brasil precisa enfrentar os desafios tecnológicos, jurídicos e sociais impostos pela automação, sob pena de transformar um direito essencial em mera ficção normativa.

REFERÊNCIAS BIBLIOGRÁFICAS
FERNANDES, Micaela Barros Barcelos; OLIVEIRA, Camila Helena Melchior Baptista de. O artigo 20 da LGPD e os desafios interpretativos ao direito à revisão das decisões dos agentes de tratamento pelos titulares de dados. Revista de Direito e as Novas Tecnologias, 2020.
LOCATELLI, Jovair. Indelegabilidade da função jurisdicional: limites do uso da inteligência artificial e das decisões automatizadas frente ao artigo 20 da LGPD e ao direito fundamental à proteção de dados. 2023. Dissertação apresentada ao Programa de Pós-Graduação em Direito da Universidade Federal do Rio Grande do Sul.
MIZIARA, Raphael. A proteção contra despedida algorítmica no contexto laboral: consequências pelo descumprimento do direito à explicabilidade previsto no art. 20 da LGPD. Revista do Tribunal Superior do Trabalho, v. 90, n. 1, p. 230-249, 2024.
PRADO, Nathalia Estevao. Decisões automatizadas: a revisão (humana) do artigo 20 da LGPD. 2023.
SILVA, Neide Costa da. A visão dos tribunais sobre a revisão das decisões automatizadas à luz do art. 20 da LGPD. 2023.