Notícias
ARTIGO
Novo olhar, novas responsabilidades: inteligência artificial e governança algorítmica na advocacia pública
O Brasil enfrenta um desafio estrutural no sistema de justiça. De acordo com o Relatório Justiça em Números[1]
, o país encerrou o ano de 2025 com 75,2 milhões de processos judiciais pendentes e 40,6 milhões de novas ações ajuizadas. Entre os vinte maiores litigantes do país, dez são entidades públicas federais. O Estado gasta mais de 1,6% do PIB com o sistema judicial e essa realidade impõe demandas crescentes sobre as advocacias públicas, que precisam gerenciar um contencioso judicial cada vez mais expressivo, com eficiência e agilidade.
Nesse contexto, a busca pela utilização de sistemas de inteligência artificial desempenha um papel relevante. E a discussão sobre como adotá-los com responsabilidade torna-se central.
Um exemplo disso é o Falcon, ferramenta em desenvolvimento na Advocacia-Geral da União, que integra jurimetria, business intelligence e inteligência artificial.
O Falcon é um protótipo de modelo algorítmico preditivo, isto é, um sistema que analisa grandes volumes de dados históricos para identificar padrões e estimar probabilidades de resultados futuros, que processa dados de decisões judiciais, tipos de ação, tribunais e resultados.
A adoção de modelos algorítmicos como o Falcon representa ganhos operacionais concretos. Profissionais podem dedicar mais tempo à análise jurídica aprofundada, formulação de estratégias e defesa do interesse público. Além disso, a inteligência artificial, ao oferecer uma visão integrada do contencioso, contribui para uniformizar a atuação institucional, tornando as decisões mais coerentes, fortalece as soluções consensuais de conflito, reduz os custos processuais e, em última análise, beneficia o cidadão.
Apesar desses benefícios, a adoção de inteligência artificial nas advocacias públicas enfrenta desafios, dentre os quais a ausência de um modelo de governança algorítmica claro e padronizado, pois no Brasil o ambiente regulatório ainda está muito fragmentado, o que nos deixa mais permeáveis aos riscos do chamado black box problem (ou caixa preta).
Black box problem (ou caixa preta) significa uma característica de modelos de inteligência artificial que apresentam opacidade, ou seja, não se compreende exatamente como o sistema opera internamente. Um algoritmo treinado com dados históricos pode, por exemplo, reproduzir e amplificar vieses já existentes nas decisões judiciais. Um sistema opaco dificulta o controle e a responsabilização. A coleta e o cruzamento de dados sensíveis levantam questões de privacidade, especialmente à luz da Lei Geral de Proteção de Dados. E a dependência excessiva de sistemas automatizados pode reduzir o papel do julgamento humano em decisões que afetam direitos fundamentais.
Não se trata de rejeitar a inovação, mas de reconhecer que novas tecnologias exigem mecanismos de controle. E nesse sentido, uma governança algorítmica ética e responsável precisa equilibrar esses dois objetivos que são complementares: fomentar a inovação e proteger direitos. Para isso, alguns princípios são fundamentais.
A transparência significa que os sistemas de inteligência artificial devem explicar, em linguagem acessível, como chegaram a determinada recomendação. A supervisão humana significativa exige que qualquer resultado gerado por inteligência artificial passe por validação humana antes de produzir efeitos concretos. Os dados utilizados no treinamento e operação desses sistemas devem ser tratados conforme a LGPD, com finalidade clara e responsáveis identificados. A rastreabilidade exige que os modelos passem por auditorias periódicas para identificar vieses ou falhas, com versões documentadas. Por fim, a responsabilização precisa definir claramente quem responde quando um sistema comete um erro que afeta um cidadão.
Esses princípios são as condições para que a utilização de sistemas de inteligência artificial se consolide como um novo paradigma de advocacia pública moderna, inovadora e eficiente.
[1] https://justica-em-numeros.cnj.jus.br/painel-estatisticas/