Skip to the content Solicite demonstração

Manage your privacy program with one of
the most complete and reliable tools on the market

Test our platform
x
PrivacyTools - LGPD PrivacyTools - LGPD - Menu
  • en
    • br
Ask for demonstration Login
  • About
  • Solutions

    Marketing & Privacy UX

    • Cookies Management Manage cookies and make your portal compliant
    • Policy Management Create and manage your site policies

    Privacy Management

    • Consent Management Register and manage universal consent
    • Holders' Requests DSAR - Respect the rights of data subjects
    • Audit Management Generate monitoring reports for your projects

    Governance and Compliance

    • Incident Management React quickly and provide appropriate notifications
    • Data Mapping Promote inventory, transfers and DPIA
    • Data Discovery Discover, analyze and correct data at scale
    • ESG Define and carry out the controls, actions and strategies of your ESG program
    • AI Governance Centralize, manage, and ensure compliance for your AI projects
  • Government
  • Resources
  • Blog
  • Contact us
  • Login
  • About
  • Solutions
  • Government
  • Resources
  • Blog
  • Contact us
Imagem 29 - Privacy Tools
Categories
Blog

Decisões Automatizadas e a Nova Fronteira da Privacidade: Os Desafios da Inteligência Artificial

  • Post author By Calza Neto
  • Post date 21/10/2025
Tempo de leitura estimado (em minutos): 6

Estamos entregando decisões fundamentais sobre nossas vidas a códigos invisíveis que aprendem sozinhos. Em vez de pessoas, são algoritmos que agora avaliam, aprovam, negam e categorizam. A inteligência artificial não está chegando, ela já decide. 

De sistemas que analisam crédito e definem taxas de juros em segundos, passando por filtros automatizados que eliminam currículos de processos seletivos, até mecanismos que moldam o conteúdo consumido nas redes sociais, a sociedade testemunha uma transformação silenciosa, mas profunda: a delegação de decisões tradicionalmente humanas a máquinas.

Esses sistemas, quando baseados exclusivamente em dados pessoais e operados de forma autônoma, constituem o que se denomina decisões automatizadas. A Lei Geral de Proteção de Dados Pessoais (LGPD), em vigor desde 2020 no Brasil, reconhece o impacto desse tipo de tratamento e prevê garantias específicas para os titulares dos dados. O artigo 20 da LGPD assegura ao indivíduo o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado que afetem seus interesses, bem como o direito de receber explicações claras e adequadas sobre os critérios e os procedimentos utilizados.

Banner 3 - Privacy Tools

O avanço das tecnologias de automação não é, por si só, um problema. Pelo contrário, muitas dessas soluções promovem eficiência, padronização e economia de recursos. No entanto, quando algoritmos passam a definir se uma pessoa terá acesso a crédito, emprego ou a um serviço público, sem qualquer possibilidade de contestação ou compreensão da lógica utilizada, surgem riscos concretos à privacidade, à dignidade e à não discriminação.

A LGPD estabelece uma base legal robusta ao exigir transparência, segurança, prevenção e responsabilidade dos agentes de tratamento. Ainda assim, sua aplicação prática no contexto das decisões automatizadas permanece limitada, especialmente diante da complexidade técnica dos modelos utilizados e da ausência de regulamentação específica por parte da Agência Nacional de Proteção de Dados (ANPD).

Essa lacuna regulatória é preocupante. Modelos preditivos e classificatórios utilizados em decisões automatizadas muitas vezes operam como “caixas-pretas”, sem fornecer justificativas inteligíveis nem permitir a auditoria dos critérios aplicados. Esse cenário desafia diretamente o princípio da transparência, previsto no artigo 6º da LGPD, que impõe aos controladores o dever de fornecer aos titulares informações claras, precisas e acessíveis sobre o tratamento de seus dados.

Além da opacidade, um dos maiores riscos é a reprodução de discriminações estruturais. Algoritmos treinados com dados históricos carregam, muitas vezes, os mesmos preconceitos presentes na sociedade e, por isso, podem amplificá-los. Estudos internacionais já demonstraram, por exemplo, que sistemas de análise de risco criminal e algoritmos de contratação tendem a penalizar grupos historicamente marginalizados, como pessoas negras e mulheres. No Brasil, há denúncias semelhantes envolvendo sistemas de reconhecimento facial com taxas elevadas de erro para pessoas negras.

Outro ponto crítico é a ausência de canais efetivos para revisão das decisões. Embora a LGPD assegure esse direito, muitas empresas sequer reconhecem a existência de processos decisórios automatizados, tampouco oferecem mecanismos claros para contestação. Isso coloca os titulares em desvantagem, ao serem submetidos a decisões com efeitos significativos, como a recusa de crédito ou a exclusão de uma oportunidade de trabalho, sem saber como ou por que isso ocorreu.

A necessidade de regulação se torna ainda mais urgente diante da ascensão de tecnologias emergentes. A rápida incorporação de ferramentas baseadas em inteligência artificial generativa, biometria, modelos de linguagem natural e sistemas preditivos eleva os riscos e complexifica o cenário. Essas tecnologias operam com capacidade de autoaprendizado, grande volume de dados e lógica estatística opaca. Em muitos casos, produzem decisões ou inferências sem intervenção humana, afetando diretamente a vida de indivíduos sem que estes compreendam como foram avaliados, categorizados ou excluídos.

Os sistemas generativos, por exemplo, podem reconstruir perfis altamente sensíveis de pessoas com base em fragmentos de dados comportamentais, o que potencializa o tratamento de dados sensíveis e gera riscos de perfilamento indevido. Já os sistemas de vigilância baseados em reconhecimento facial, amplamente utilizados no setor público e privado, operam a partir de dados biométricos, cuja proteção é reforçada pela LGPD, exigindo hipóteses legais específicas, medidas de segurança adicionais e avaliação de impacto.

Ao mesmo tempo, a contratação de tecnologias emergentes como serviços terceirizados, muitas vezes sem transparência nos contratos ou garantias quanto à governança dos dados, amplia a responsabilidade dos controladores. Esses agentes precisam não apenas justificar a escolha da tecnologia, mas também demonstrar, por meio de registros e documentação, que o sistema adotado está em conformidade com a LGPD.

Nesse contexto, a transformação institucional da ANPD em agência reguladora independente representa um marco significativo. A Medida Provisória nº 1.317/2025 incorporou a ANPD ao rol das agências reguladoras federais, conferindo-lhe autonomia técnica, decisória, administrativa e financeira. Essa mudança tem o potencial de fortalecer consideravelmente sua capacidade de atuação, permitindo que a nova agência atue com maior independência frente a interesses políticos ou econômicos e aumente sua presença regulatória junto a setores que operam com alto risco à privacidade e à proteção de dados.

Com a criação de uma carreira própria de regulação e ampliação da equipe técnica, a nova agência poderá responder com mais agilidade a incidentes, intensificar fiscalizações, elaborar normas mais detalhadas e promover um ambiente de segurança jurídica tanto para titulares quanto para os agentes de tratamento. Além disso, a nova estrutura incorpora atribuições relacionadas ao Estatuto Digital da Criança e do Adolescente, ampliando a responsabilidade sobre dados sensíveis de menores no ambiente digital.

Por outro lado, os desafios não são triviais. A efetivação da autonomia institucional depende de recursos adequados, capacitação contínua e resiliência frente a possíveis pressões políticas. Há também a necessidade de coordenação regulatória com outras entidades públicas e de manter a capacidade técnica diante da velocidade com que tecnologias emergentes se desenvolvem.

Nesse cenário, a governança algorítmica torna-se um elemento indispensável. Trata-se da adoção de políticas, práticas e controles internos que assegurem a conformidade dos sistemas automatizados com os direitos dos titulares. Isso inclui a realização de avaliações de impacto, o estabelecimento de mecanismos de supervisão humana, a definição de critérios objetivos para revisão de decisões e a exigência de explicabilidade, ou seja, a obrigação de tornar compreensível a lógica por trás das decisões automatizadas, mesmo quando baseadas em modelos complexos.

A proteção de dados não deve ser vista como um entrave à inovação, mas como um componente essencial de sua legitimidade. A confiança da sociedade nos sistemas de IA depende diretamente da garantia de que seus direitos estão sendo respeitados. Isso inclui o direito de saber como as decisões são tomadas, de contestá-las e de não ser discriminado por elas.

A construção de um ecossistema ético e transparente exige ação coordenada entre setor público, iniciativa privada, academia e sociedade civil. Cabe ao legislador e à nova agência reguladora definir parâmetros claros. Às empresas, implementar estruturas de conformidade robustas. E à sociedade, cobrar responsabilidade, exigir transparência e fazer valer os direitos previstos na LGPD.

O desafio é complexo e estrutural, mas não pode mais ser adiado, garantir que as decisões tomadas por máquinas, sobre identidade, acesso, oportunidades e trajetórias, respeitem a dignidade humana, a equidade e os direitos fundamentais não é apenas uma diretriz da proteção de dados. É um compromisso democrático. Enfrentar essa realidade exige mais do que normas: requer uma cultura institucional de responsabilidade, práticas transparentes, mecanismos de governança algorítmica e participação ativa da sociedade na fiscalização dos limites éticos e legais da inteligência artificial.

Quer saber mais sobre IA? Entenda as mudanças que ela causou no universo do futebol aqui.

Autor

  • 1751569032624 - Privacy Tools
    Calza Neto

    Graduado em Direito pela Universidade Presbiteriana Mackenzie (1998). Sócio de CNK Advogados, escritório de advocacia que atua na área de Direito Direito Digital, Proteção de Dados, Cibersegurança e Compliance - DPO do Sport Club Corinthians e Sparco.

    Ver todos os posts
  • Tags anpd, IA, inteligência artificial, lgpd, privacidade, proteção de dados
Avatar of Calza Neto

By Calza Neto

Graduado em Direito pela Universidade Presbiteriana Mackenzie (1998). Sócio de CNK Advogados, escritório de advocacia que atua na área de Direito Direito Digital, Proteção de Dados, Cibersegurança e Compliance - DPO do Sport Club Corinthians e Sparco.

View Archive →

Posts relacionados

PrivacyTools - LGPD

International Data Transfer: What Has Changed with Resolution CD/ANPD...

PrivacyTools - LGPD

The logic of accountability in matters of data protection

PrivacyTools - LGPD

Find out what happened at the 1st ANPD Meeting...


← Digital ECA: what’s new, after all?





Marketing & UX

  • Cookie management
  • Policy management

Privacy management

  • Consent Management
  • Holders' requests
  • Audit

Governance and compliance

  • Incident management
  • Data mapping
  • Data discovery
  • ESG
  • AI Governance

Social networks

  • Privacy Policy
  • Cookies Policy
  • Code of Ethics

© Privacy Tools 2025 PrivacyTools - LGPD