Portaria MGI 3.485/2026: novas regras de IA no setor público federal
Portaria MGI 3.485/2026: novas regras de IA no setor público federal
Quando vejo mudanças regulatórias profundas chegando, sinto que estamos diante de uma nova fase na relação entre tecnologia, sociedade e Estado. E foi exatamente essa sensação que tive ao ler a Portaria MGI nº 3.485/2026, publicada pelo Ministério da Gestão e da Inovação em Serviços Públicos no Diário Oficial da União. Esse é um momento marcante para quem acompanha debates sobre automação em repartições públicas e a aplicação da inteligência artificial em cenários reais, tocando temas como eficiência, transparência, privacidade e até decisões governamentais automatizadas.
Neste artigo, proponho contar o que aprendi, analisei e percebi sobre essa portaria, pensando especialmente em quem trabalha em escritórios contábeis, áreas administrativas, setores de tecnologia da informação ou simplesmente acompanha, como eu, cada transformação nos processos internos do setor público. Vou compartilhar percepções práticas, contar como as novas regras buscam proteger nossos dados e orientar servidores, explicar os desafios que prevejo e, claro, relacionar os aprendizados com o papel da Robolabs, que é referência quando o assunto é soluções de automação sob medida para processos administrativos e contábeis.
Vamos entender por que essa portaria revela muito sobre os rumos da gestão pública digital e o futuro da inteligência artificial institucional no Brasil.
O que diz a Portaria MGI nº 3.485/2026?
Ao dar meus primeiros passos na leitura do texto oficial, logo percebi que a portaria busca algo essencial: não apenas autorizar o uso de soluções baseadas em algoritmos, mas criar parâmetros claros para a sua adoção, desenvolvimento e controle, sempre à luz da Lei Geral de Proteção de Dados Pessoais (LGPD – Lei nº 13.709/2018).
A intenção central é instituir uma Política de Governança de Inteligência Artificial para o órgão, traçando diretrizes para a contratação, o desenvolvimento e o uso de IA por todo o setor público federal ligado ao Ministério.
A norma traz princípios e compromissos que, se de um lado dão segurança aos agentes públicos quanto ao que fazer, de outro também exigem uma mudança de postura: o uso da IA é permitido, desde que fundado em responsabilidade, ética, supervisão humana e respeito à legislação vigente.
Por que isso era necessário?
Eu costumo ouvir de gestores públicos e privados que a adoção de novas tecnologias pode ser um divisor de águas – porém, também traz riscos. Sem normas claras, abre-se margem para dúvidas, possíveis abusos de dados e até decisões automáticas sem a devida responsabilização.
Assim, vejo na portaria uma resposta preventiva, antecipando problemas e criando uma trilha segura para que a transformação digital avance de modo saudável, protegendo tanto o cidadão quanto a administração pública. Estas são preocupações conhecidas também na Robolabs, quando desenhamos RPAs para clientes que dependem da segurança da informação e da aderência à lei. Aliás, muitas ideias da portaria convergem para o que vivenciamos no contato com nossos clientes, que querem inovação sem abrir mão da responsabilidade.
Princípios obrigatórios para a IA na administração federal
Um dos pontos que mais me chamaram atenção foi o cuidado ao elencar princípios que devem orientar todas as etapas relacionadas à inteligência artificial, do planejamento ao uso prático das soluções. Vou destacar os mais relevantes:
- Transparência: O cidadão e o servidor têm direito de saber quando uma decisão é automatizada ou influenciada por IA, e ainda como funciona o sistema responsável por tal decisão.
- Proteção de dados pessoais: Seguir a LGPD não é opcional. O tratamento de qualquer dado precisa ser autorizado, justificado e seguro.
- Segurança da informação: Ferramentas precisam impedir vazamentos, acessos não autorizados e garantir rastreabilidade das ações.
- Respeito aos direitos fundamentais: Preservar os direitos à privacidade, à não discriminação e à dignidade humana faz parte da atuação dos agentes públicos.
- Supervisão humana obrigatória: Apesar da automação, sempre deve haver uma pessoa capaz de revisar e responder por decisões tomadas de forma automática.
- Responsabilização: Se algo sair do esperado, a responsabilização segue existindo, inclusive para eventuais falhas da IA.
São questões que dialogam diretamente com a rotina de escritórios contábeis que já usam automações, inclusive os que contam com a expertise da Robolabs para criar soluções personalizadas. É preciso deixar claro como as decisões são tomadas, definir limites e identificar quem responde por cada etapa.
O alcance da nova política
Muitos pensam que se trata de uma norma restrita, só para departamentos de TI. Mas, analisando o texto, vejo que a abrangência é bem maior. A portaria atinge todas as áreas do Ministério da Gestão e da Inovação em Serviços Públicos. E vai além: se um órgão faz uso de serviços de tecnologia compartilhados sob responsabilidade do MGI, tais como plataformas de automação ou análise de dados, também estará sob essas novas regras.
Essa definição amplia o impacto da portaria, atingindo centenas de servidores, gestores, técnicos e usuários dos sistemas públicos. Um cenário parecido acontece para quem adota robôs de automação empresarial em diferentes departamentos, como já vi em várias iniciativas apoiadas pela Robolabs. A uniformidade de critérios reduz ruídos e aumenta a segurança para todos os envolvidos.
Estrutura de governança nova: quem decide e supervisiona?
O texto legal determina que toda solução ou prática envolvendo aplicações inteligentes agora deve contar com camadas bem definidas de gestão e acompanhamento. Em minhas anotações durante a leitura, destaquei três esferas:
- Alta Administração – responsável por aprovar grandes diretrizes e decidir sobre temas estratégicos relativos à digitalização avançada;
- Comitê de Governança Digital e Segurança da Informação – responsável por avaliar riscos, propor normas complementares, aprovar controles específicos e monitorar a execução das ações;
- Subcomitê de IA – formado por profissionais de diferentes áreas. É o responsável por propor padrões, construir indicadores sobre riscos e benefícios, além de analisar impactos sociais, éticos e legais dos sistemas inteligentes aplicados.
Na prática, essa governança é montada para que nunca falte uma instância revisora – algo obrigatório quando se trata de algoritmos capazes de influenciar decisões públicas.
Decisão automatizada não funciona sem revisão constante.
Quais as funções desses grupos?
Entre as atribuições, vejo tarefas como:
- Definir o que pode e o que não pode ser implementado;
- Acompanhar a execução de projetos de IA do início ao fim;
- Avaliar e classificar riscos de acordo com os casos de uso;
- Propor planos de ajustes diante de novidades técnicas;
- Padronizar exigências de proteção de dados e transparência.
Essa estrutura me lembra os ritos adotados por empresas inovadoras, como é o caso aqui da Robolabs, onde projetos de RPA e automação passam por etapas semelhantes de análise, fiscalização e atualização constante.
Divisão de responsabilidades: quem faz o quê?
A portaria vai além dos princípios e da governança. Ela dispõe claramente que a responsabilidade pelo uso seguro, ético e legal da tecnologia é compartilhada.
Em minha análise, a divisão ficou assim:
- Gestores de Tecnologia da Informação: São responsáveis por validar conformidade técnica, avaliar fornecedores, e acompanhar o ciclo de vida das ferramentas.
- Controlador de Dados Pessoais: Exige-se análise constante do impacto sobre direitos de titulares dos dados.
- Gestor de Segurança da Informação: Cabe assegurar atualização dos protocolos de proteção e atuar diante de incidentes.
- Responsáveis pelo controle interno: Os auditores internos terão que revisar o cumprimento das normas e emitir recomendações.
- Servidores e Usuários: Os servidores públicos devem relatar qualquer anomalia, incidentes, ou uso inadequado do algoritmo. Eles também precisam identificar de forma clara nos documentos e atividades quando houver envolvimento de sistemas inteligentes.
A ideia por trás disso é que ninguém se exime do compromisso com decisões seguras, rastreáveis e legítimas.
Eu sempre acreditei que esse é o caminho ideal, inclusive em projetos de automação desenvolvidos na Robolabs: cada profissional, de acordo com sua função, precisa participar ativamente da governança da tecnologia empregada.
IA generativa: regras para uso responsável
Entre as novidades mais atuais, destaco a abordagem para IAs generativas, como modelos de texto, imagem, áudio e similares. A portaria determina limites bem objetivos para o uso dessas ferramentas:
- Informações sigilosas, pessoais ou sensíveis não podem ser tratadas por IA generativa.
- Exceção apenas existe quando houver estudo de risco documental, autorização da área competente e adoção de todas as medidas cabíveis de segurança cibernética.
- A utilização com dados públicos, disponíveis na internet ou já classificados como de livre acesso, é liberada.
Segundo o texto, essa cautela serve para proteger a privacidade dos cidadãos e a integridade dos processos administrativos. Evita, principalmente, o risco de vazamentos, decisões enviesadas ou manipulação não autorizada de dados sensíveis.
Por que a proibição nos dados sigilosos?
Eu vejo dois principais motivos por trás dessa decisão:
1. Reduzir drasticamente a exposição a vazamentos: sistemas generativos podem “lembrar” e reproduzir trechos sensíveis, violando sigilo.
2. Impedir decisões ou sugestões indevidas baseadas em dados privados, evitando manipulações automáticas sem o devido consentimento ou supervisão.
Essa abordagem, aliás, deveria inspirar não só o setor público. No universo das empresas que trabalham com automação, como a Robolabs, seguimos o mesmo cuidado: quanto mais sensível a informação, maior o rigor da análise e da governança.
Capacitação contínua: o servidor aprende junto com a tecnologia
Tenho visto de perto a transformação de servidores públicos, técnicos e gestores diante da necessidade de se reinventar em um mundo de automações e soluções inteligentes. Pensando nisso, a portaria prevê programas abrangentes de capacitação voltados à realidade de cada perfil de servidor.
As trilhas de aprendizagem vão do básico ao técnico, contemplando:
- Conceitos fundamentais de inteligência artificial;
- Legislação e princípios éticos para uso responsável;
- Práticas de segurança da informação e proteção de dados;
- Métodos de checagem e validação dos resultados dos algoritmos;
- Aplicações práticas e estudos de caso de IA no contexto público.
O foco é garantir que todas as equipes estejam preparadas não só para operar as ferramentas, mas compreender riscos, limitações e oportunidades das soluções automatizadas.
Na Robolabs, sempre defendemos que o melhor caminho para o sucesso da automação é educar o usuário. Soluções tecnológicas funcionam melhor quando todos sabem seus limites e sabem como reagir em situações não previstas.
Adaptação: quando as novas regras entram em vigor?
Outra dúvida comum que encontrei em conversas com amigos servidores diz respeito ao prazo para adequação. A portaria estabelece uma regra simples:
As normas começam a valer sessenta dias após a publicação no Diário Oficial.
O objetivo é estimular a revisão rápida dos fluxos de trabalho, a atualização dos sistemas já em operação e a capacitação das equipes em tempo hábil. É um prazo realista para que gestores e servidores possam buscar treinamentos, revisar contratos, atualizar inventários de dados e incluir novos controles internos sem atropelos.
Deixar para “a última hora” pode significar descumprir regras e gerar consequências jurídicas. Minha sugestão, baseada em experiências da Robolabs em processos de automação empresarial, é agir logo e envolver desde o início todos os setores que lidam com dados, sistemas digitais ou automações no governo.
O que será preciso adaptar?
Na prática, vejo estas prioridades para o setor público:
- Revisar contratos e políticas internas para buscar aderência total às novas definições;
- Atualizar procedimentos sobre tratamento de dados, garantindo conformidade com a LGPD e a portaria;
- Reconfigurar sistemas para incluir registros mais detalhados sobre as intervenções humanas em decisões automatizadas;
- Implementar novas fases de supervisão e rotinas de auditoria interna de algoritmos, conforme a governança proposta;
- Promover ou acelerar treinamentos, aproveitando os materiais que o próprio Ministério pretende ofertar.
Quanto mais cedo o órgão agir, menores serão as chances de incidentes ou retrabalhos durante a fase de adaptação.
Desafios e oportunidades que vejo no horizonte
Confesso que senti um misto de preocupação e otimismo ao imaginar o tamanho do desafio. E também o potencial. O surgimento de normas deste tipo abre espaço para um setor público mais conectado à realidade dos serviços digitais, menos engessado por burocracias e mais preparado para lidar com riscos típicos da vida digital.
Entre os desafios que enxergo para os próximos meses:
- Capacitar equipes que, por muito tempo, trabalharam de forma manual a migrar para soluções digitais sem perder o controle humano;
- Garantir supervisão frequente dos algoritmos, já que soluções automáticas nunca podem operar totalmente “no escuro”;
- Precificar adequadamente novos projetos para já considerar custos de governança, treinamentos e controles extras;
- Criar indicadores transparentes sobre os resultados dessas automações, permitindo auditoria pública;
- Desmistificar a IA para que servidores não vejam a tecnologia como vilã, mas sim como potenciador das bem conhecidas funções humanas e estratégicas no serviço público.
Vejo que essas mudanças são parecidas com desafios vivenciados diariamente na Robolabs ao criar soluções de automação para escritórios contábeis e áreas administrativas. Lá, já notamos que clareza nas regras, treinamentos objetivos e divisão transparente de responsabilidades são as bases para que pessoas e máquinas atuem juntas, cada um em seu papel.
Conclusão: novos caminhos para a inteligência artificial no setor público
Depois de analisar detalhadamente a Portaria MGI nº 3.485/2026, tenho convicção de que estamos diante de uma nova etapa para a IA aplicada à administração pública federal. A iniciativa do MGI é de criar regras claras, objetivos bem definidos e proteger o cidadão sob diversos aspectos. Não se trata de frear o progresso, mas de garantir confiança, ética e corresponsabilidade.
Princípios como transparência, proteção de dados, supervisão humana e treinamento contínuo aparecem como as bases para um uso seguro e legítimo da inteligência artificial institucional.
Na minha visão, todos que trabalham com automação, RPAs e transformação digital – inclusive nós da Robolabs – têm muito a aprender com essa abordagem, aplicando parte de seus conceitos ao próprio cotidiano empresarial.
Automação faz sentido quando serve às pessoas, não quando as substitui.
Se você também acredita que o futuro da tecnologia está na soma de humanos competentes com máquinas seguras, te convido a conhecer mais sobre as soluções desenvolvidas pela Robolabs. Nossa missão é libertar as pessoas das tarefas repetitivas e criar tempo para o que realmente importa. Vamos conversar e pensar juntos como transformar sua rotina?
