Ícone Google
Logo Decisões



Pesquisar em
Doutrina
Boletins
Todas as Áreas
Áreas Específicas
Tribunais e Órgãos abrangidos
Repercussão Geral (STF)
Recursos Repetitivos (STJ)
Súmulas (STF)
Súmulas (STJ)
Matérias Relevantes em Julgamento


Localizar nessa página:   
 

Decidir ainda é humano: a escolha da Portaria RFB nº 647/2026 - Claudia Marchetti da Silva*

A Receita Federal inovou, e a intervenção do Estado na área da inovação exige uma leitura precisa da realidade. Dentro dos limites das regras constitucionais, e sem conflitar com a natureza e o funcionamento da tecnologia, sua atuação revela-se fundamental como agente estruturante. Em outras palavras, o direito deve ser capaz de observar as inovações tecnológicas e formular respostas que sejam compatíveis com a natureza do fenômeno.

Até pouco tempo, quando se falava em implementação de sistemas inteligentes no exercício estatal da atividade fiscalizatória e decisória na administração tributária, a conversa girava, basicamente, em torno da ampliação da conformidade tributária e da eficiência: cruzamento de dados, identificação de inconsistências e combate à evasão.

Tudo isso continua sendo verdade. Mas já não é mais suficiente.

As administrações tributárias dispõem de uma imensa quantidade de dados que pode ser processada por algoritmos de IA, permitindo uma aplicação mais eficiente do sistema tributário e a produção de atos de maior qualidade, o que tende a reforçar a segurança jurídica e a reduzir a litigiosidade. Quando orientado por parâmetros éticos claros, esse uso pode, ainda, contribuir para a manutenção da confiança dos cidadãos nas instituições, ao assegurar que seus dados sejam tratados de forma transparente e segura.

Trilhando esse caminho, recentemente, a Receita Federal do Brasil apresentou, em um fórum internacional da ONU, sua Política de IA. Não se trata apenas de mais um documento técnico. É, sobretudo, um posicionamento institucional sobre como o Estado pretende utilizar e limitar o uso dessa tecnologia na administração pública.

O modelo brasileiro tenta equilibrar três dimensões: inovação, segurança jurídica e proteção de direitos com uma arquitetura normativa bem clara.

O coração da Portaria RFB nº 647, de 5 de fevereiro de 2026, está nos artigos 4º a 6º¹, ao estabelecer um conjunto estruturante de princípios: supervisão humana, centralidade no ser humano, respeito aos direitos fundamentais, prevenção de vieses, transparência, explicabilidade, segurança, responsabilização, capacitação contínua e melhoria permanente.

Na sequência, revela-se a sua escolha mais relevante.

A inteligência artificial não decide.

Ou, sendo mais precisa, não pode decidir.

A norma afasta qualquer possibilidade de substituição do agente público. As soluções de IA não vinculam, não substituem e não transferem competências. O ato administrativo permanece humano  e, com ele, a responsabilidade. O agente público deve exercer juízo crítico independente sobre os resultados gerados pelos sistemas.

Em um contexto em que a automatização tende, silenciosamente, a deslocar o centro das decisões para os sistemas, reafirmar a centralidade do humano é, antes de tudo, uma escolha política.

O artigo 6º completa o quadro ao estabelecer limites explícitos: ficam proibidos sistemas que violem direitos fundamentais, promovam manipulação comportamental, instituam mecanismos de pontuação social ou viabilizem vigilância massiva e indiscriminada.

Por fim, a política não se encerra na formulação de princípios. Ela exige governança. Define estruturas de responsabilidade, impõe o monitoramento contínuo das ferramentas e condiciona o uso da tecnologia à capacitação permanente dos servidores.

O Brasil passa a se posicionar como referência internacional ao estruturar um modelo que combina inovação com cautela institucional. Ainda assim, o desafio permanece. Em um cenário em que os processos passam a ser desenhados para funcionar com cada vez menos intervenção humana, manter o humano no centro deixa de ser apenas uma diretriz normativa e passa a constituir um desafio concreto de implementação.

Um grande passo foi dado e precisamos reconhece-lo.

No limite, a questão não é apenas sobre o que a tecnologia pode fazer, mas sobre quem define os seus rumos.

Se deixarmos de projetar o nosso futuro, alguém o projetará por nós - não em função de nossos interesses, mas do seu próprio proveito².

__________________________
¹Portaria RFB nº 647, de 5 de fevereiro de 2026 (...) Art. 4º No uso de tecnologia de IA, deverão ser observados, cumulativamente, os seguintes princípios:
I - preservação da autonomia e da supervisão humana, de forma a assegurar que a IA apoie, e não substitua, a decisão humana;
II - adoção de abordagem centrada no ser humano, para assegurar que o uso da IA:
a) contribua para a produtividade e o bem-estar de servidores e cidadãos; e
b) não se destine à manipulação, coação ou influência indevida para promover comportamentos ou decisões específicos;
III - garantia de direitos humanos, dignidade e equidade, mediante prevenção contínua de vieses e discriminações, de forma a garantir decisões justas e imparciais;
IV - privacidade e proteção de dados, com respeito ao sigilo legal e à proteção de dados pessoais;
V - transparência, com informação clara aos usuários quando houver uso de IA e assegurar explicabilidade e auditabilidade proporcionais ao risco, priorizando soluções que viabilizem tais atributos;
VI - segurança, resiliência e não maleficência, com adoção de salvaguardas que assegurem operação segura e resiliente, prevenindo falhas, vulnerabilidades e impactos adversos aos cidadãos, aos dados protegidos e às atividades institucionais;
VII - inovação responsável e eficiência institucional, com estímulo à aplicação da IA para ganhos de eficiência e melhoria da qualidade do serviço ao cidadão, observadas as salvaguardas de segurança e ética;
VIII - responsabilização e prestação de contas, com definição clara de papéis e responsabilidades ao longo do ciclo de vida das soluções de IA;
IX - promoção de capacitação contínua sobre o uso responsável da IA, com atenção às suas capacidades, limitações, riscos e à mitigação de vieses; e
X - melhoria contínua e o compromisso permanente com a evolução das práticas de uso, desenvolvimento e governança de IA, de forma a assegurar a atualização das soluções de IA frente ao ritmo acelerado das mudanças tecnológicas na área.
Art. 5º As soluções de IA utilizadas no âmbito da Secretaria Especial da Receita Federal do Brasil não substituem, não condicionam e nem vinculam o exercício das competências legais atribuídas aos agentes públicos nos termos da legislação vigente.
Parágrafo único. A decisão final e a prática de ato administrativo decorrente do uso de solução de IA competem exclusivamente ao agente público responsável, que deverá exercer juízo crítico e independente sobre os resultados de análises, recomendações, classificações ou resultados automatizados gerados pela solução, sendo responsável pela respectiva decisão.
Art. 6º É vedado o desenvolvimento ou utilização de sistemas de IA cujo uso seja incompatível com direitos fundamentais, valores democráticos ou garantias constitucionais, por envolver práticas que causam prejuízos graves ou irreversíveis às pessoas ou à sociedade, incluindo, entre outros, sistemas voltados à manipulação subliminar de comportamento, à pontuação social ou à vigilância massiva e indiscriminada.
²Domenico De Mais


 
*Claudia Marchetti da Silva advogada, consultora tributária e pesquisadora. Doutoranda em Direito Fiscal pela Universidade de Lisboa, mestre em Direito Constitucional e especialista em Direito Tributário. Autora de livros e artigos de Direito Tributário e coordenadora da obra "Mulheres quais são seus direitos" publicado pela editora Revista dos Tribunais".