Shadow AI é o nome dado a um fenômeno que já está presente no dia a dia de órgãos públicos ao redor do mundo, muitas vezes, sem que os gestores percebam.
Servidores que usam o ChatGPT para redigir documentos, ferramentas de IA gratuitas para resumir relatórios, aplicativos que “traduzem” planilhas complexas em segundos. Tudo isso acontece com ou sem a autorização dos departamentos de tecnologia.
Compreender o que é Shadow AI e quais riscos ela representa é fundamental para qualquer gestor público que queira adotar a inteligência artificial de forma segura e responsável.
Shadow AI: definição
Shadow AI é o uso de ferramentas de inteligência artificial por colaboradores de uma organização sem o conhecimento, aprovação ou supervisão dos setores responsáveis, como a área de TI ou a gestão de segurança da informação.
O termo é uma extensão de um conceito mais antigo chamado Shadow IT, que descreve o uso não autorizado de qualquer tipo de tecnologia dentro de organizações. Com a explosão de ferramentas de IA acessíveis e gratuitas nos últimos anos, o fenômeno ganhou uma nova camada de complexidade.
Não se trata, em geral, de má-fé. Na maioria das vezes, o servidor que usa uma ferramenta de IA não autorizada está simplesmente tentando trabalhar melhor e com mais agilidade. O problema está nas consequências que esse uso pode trazer e que frequentemente passam despercebidas.
Você pode gostar de ler Marco regulatório da inteligência artificial
Por que servidores adotam Shadow AI?
A adoção da Shadow AI costuma crescer quando há uma lacuna entre a necessidade do servidor e a oferta oficial de ferramentas pelo órgão.
Quando não há uma solução institucional disponível, ou quando os processos de aprovação de novas tecnologias são muito lentos, os colaboradores encontram alternativas por conta própria. E hoje, encontrar uma ferramenta de IA gratuita e poderosa é questão de segundos.
Alguns fatores que impulsionam esse comportamento:
- Pressão por produtividade: prazos curtos e demandas crescentes levam os servidores a buscar qualquer ferramenta que facilite o trabalho.
- Facilidade de acesso: ferramentas de IA estão disponíveis gratuitamente na internet, sem necessidade de instalação ou aprovação.
- Falta de alternativas institucionais: muitos órgãos ainda não oferecem soluções de IA aprovadas para uso cotidiano.
- Desconhecimento dos riscos: grande parte dos usuários não sabe que o uso dessas ferramentas pode representar um problema.
Quais são os riscos da shadow AI para o setor público?
No setor público, os riscos da Shadow AI são especialmente sérios. Os órgãos lidam com dados sensíveis da população — informações fiscais, de saúde, previdenciárias, jurídicas — que exigem proteção rigorosa, o que torna o fenômeno potencialmente perigoso. Veja a seguir alguns dos principais riscos da Shadow AI:
Vazamento de dados
Ao inserir informações em uma ferramenta de IA não aprovada, o servidor pode estar enviando dados sigilosos para servidores externos, de empresas privadas, sem qualquer garantia de confidencialidade. Muitas ferramentas gratuitas utilizam os dados inseridos para treinar seus próprios modelos.
Descumprimento da LGPD
A Lei Geral de Proteção de Dados exige que as organizações controlem como os dados pessoais são tratados. O uso não rastreado de ferramentas externas pode colocar o órgão em situação de descumprimento da lei com consequências legais e reputacionais.
“Evite o fenômeno Shadow IA. Esse termo vem do uso de ferramentas de Inteligência Artificial por conta própria, sem estratégia e orientação adequada, pode ser um risco. Subir informações de cidadãos, dados sensíveis ou dados de saúde em uma ferramenta particular, é complicado para termos de privacidade.” – André Castro Carvalho, Especialista em IA
Falta de rastreabilidade
No setor público, decisões precisam ser documentadas e auditáveis. Quando um servidor usa uma ferramenta de IA de forma não oficial, não há registro institucional do que foi feito, dificultando auditorias e prestação de contas.
Resultados não confiáveis
Ferramentas de IA podem cometer erros. Quando se trata do setor público, erros em documentos oficiais, pareceres ou decisões administrativas podem ter consequências graves para cidadãos e para o próprio órgão.
Você pode gostar de ler O que são agentes de IA? conceitos e uso no setor público
Shadow AI é sempre um problema?
Apesar de problemático, o fenômeno do uso espontâneo de IA pelos servidores também é um sinal positivo: indica disposição para inovar e buscar melhores formas de trabalhar.
O desafio para os gestores públicos não é proibir o uso de IA, mas organizar e institucionalizar esse uso de forma segura. Ignorar o fenômeno não faz com que ele desapareça. Ao contrário, tende a amplificá-lo.
Superando o problema da Shadow AI
Enfrentar a Shadow AI exige uma abordagem que combine comunicação, política institucional e oferta de alternativas adequadas. Confira a seguir algumas dicas para superar o fenômeno:
1 Mapear o que já está sendo usado
O primeiro passo é entender quais ferramentas os servidores já utilizam no dia a dia. Sem esse diagnóstico, qualquer política será construída às cegas.
2 Criar canais de comunicação abertos
Servidores precisam saber a quem recorrer quando quiserem usar uma nova ferramenta. Se o processo de aprovação for percebido como burocrático demais, a tendência é contorná-lo.
3 Implementar IA de forma institucional
A melhor forma de reduzir o uso de ferramentas não aprovadas é disponibilizar opções seguras e aprovadas para as necessidades mais comuns. Quando o servidor tem uma boa ferramenta institucional à disposição, a tentação de buscar alternativas externas diminui.
4 Capacitar as equipes
Muitos servidores desconhecem os riscos do uso inadequado de IA. Treinamentos simples e acessíveis, sem linguagem e jargões excessivamente técnicos, fazem grande diferença na construção de uma cultura de uso responsável.
5 Estabelecer uma política clara de uso de IA
O órgão precisa ter regras definidas sobre o que pode e o que não pode ser feito com ferramentas de IA. Essa política deve ser comunicada de forma clara e atualizada regularmente, acompanhando a velocidade das mudanças tecnológicas.
Conclusão
A Shadow AI é, ao mesmo tempo, um sintoma e um alerta. Sintoma de que a inteligência artificial já está presente no cotidiano dos servidores públicos, com ou sem política institucional. E alerta de que, sem governança adequada, esse uso pode trazer riscos sérios para os dados dos cidadãos e para a segurança jurídica dos órgãos.
Mais do que combater o fenômeno, o caminho é criar as condições para implementar IA de forma consciente, segura e alinhada ao interesse público.
Quer saber como implementar IA de forma estratégica e segura no seu órgão? Clique aqui e baixe gratuitamente o ebook sobre Isenções e imunidades em agentes de IA: limites, responsabilidades e boas práticas.
