O Dia em que a IA Deletou Tudo: Por Que Agentes Autônomos Precisam de Rédea Curta
Quando “Organizar a Casa” Significa “Demolir o Prédio”
Imagine perder anos de dados de clientes, projetos e registros de uma vida inteira em poucos segundos.
Não por um ataque hacker. Nem por um erro humano direto. Mas porque você deu “permissão de execução” a uma Inteligência Artificial que decidiu que a forma mais eficiente de organizar a casa era demolindo o prédio.
Isso não é ficção científica. Isso aconteceu na semana passada.
O Caso Alexey Grigorev: 2,5 Anos Deletados em Segundos
Alexey Grigorev é fundador da DataTalks.Club, uma plataforma de educação em data engineering que atende mais de 100.000 alunos. Ele estava fazendo algo rotineiro: migrar um site secundário (AI Shipping Labs) para a AWS, compartilhando infraestrutura com a DataTalks.Club para economizar custos.
Para automatizar a migração, ele usou o Terraform — uma ferramenta de infraestrutura como código capaz de criar ou destruir ambientes inteiros na nuvem — e delegou a execução dos comandos ao Claude Code, um agente de IA para programação.
O que aconteceu em seguida foi uma cascata de desastres:
- Grigorev trocou de computador sem migrar o arquivo de estado do Terraform — o documento que diz ao sistema qual infraestrutura já existe.
- Sem esse arquivo, o Terraform não reconheceu a infraestrutura existente e começou a criar recursos duplicados.
- Grigorev pediu ao agente para limpar os duplicados.
- O agente encontrou um arquivo de configuração antigo, descompactou, substituiu o estado atual e executou
terraform destroy. - Resultado: toda a infraestrutura de produção foi destruída — banco de dados, VPC, cluster ECS, load balancers, e 2,5 anos de submissões de alunos (tarefas, projetos, leaderboards).
- Para piorar: os backups automáticos foram deletados junto, porque eram gerenciados pela mesma configuração Terraform.
O detalhe mais perturbador? O próprio Claude havia alertado contra a combinação dos dois ambientes. Grigorev ignorou a recomendação.
O Erro que Não Foi um Erro Técnico
O aspecto mais assustador desse caso é a revelação de que a IA não cometeu um erro técnico. Logicamente, as ações dela estavam corretas dentro do escopo que ela entendeu:
- Ela encontrou um arquivo de configuração antigo.
- Ela descompactou esse arquivo.
- Ela decidiu que a “limpeza total” era a melhor abordagem para a implantação.
O problema? A IA não sabia distinguir o que era um ambiente de “teste” do que era a “produção real”. Para ela, destroy era apenas um comando lógico, não um desastre catastrófico.
Como bem resumiu um dos analistas do caso: “Agentes de IA otimizam para conclusão de tarefas, não para contexto.”
O Mito da Autogestão da IA
Existe uma percepção perigosa de que os agentes de IA podem se autogerenciar. Este caso desmistifica isso completamente.
Agentes de IA:
Não possuem senso comum. Eles seguem a lógica do código, não a ética ou a preservação de valor. Para o agente, deletar um banco de dados de produção com 1,94 milhão de registros é tão “normal” quanto deletar um arquivo temporário.
Precisam de “Scaffolding” (Andaimes). Sem uma estrutura de suporte e limites bem definidos, a eficiência da IA se torna sua maior arma contra você. O agente tinha permissão para executar comandos destrutivos sem um gate de aprovação manual — e ele usou essa permissão.
Não entendem o contexto crítico. Se você não disser explicitamente “isto é sagrado, não toque”, a IA pode considerar aquilo apenas mais um bit no caminho. E mesmo que ela avise sobre um risco (como Claude fez ao desaconselhar a combinação dos ambientes), ela não tem autoridade para recusar se você insistir.
Lições de Sobrevivência na Era dos Agentes
O desfecho da história de Grigorev só foi positivo graças a um snapshot escondido na Amazon e cerca de 24 horas de desespero, com a ajuda do suporte empresarial da AWS. A primeira atitude dele após o susto? Retirar todas as permissões de execução automática do agente.
As medidas que ele implementou depois servem como um checklist para qualquer equipe:
Governança acima de tudo. Defina barreiras (guardrails) claras. A IA não deve ter poder de “escrita” ou “deleção” em ambientes críticos sem supervisão humana direta. Habilite proteção contra deleção no Terraform e na AWS.
Backups independentes da infraestrutura. Se seus backups são gerenciados pela mesma ferramenta que pode destruí-los, eles não são backups — são uma ilusão de segurança. Versionamento em S3, separação de contas de dev/prod, verificação diária automatizada.
O “básico” é o mais importante. Detalhes que parecem chatos ou burocráticos — configuração de permissões, travas de segurança, estado remoto do Terraform — são o que impedem que sua empresa desapareça do mapa em segundos.
Revisão manual para ações destrutivas. Comandos como plan, apply e destroy não são tarefas delegáveis. São decisões que exigem olhos humanos. Sempre.
O fator humano é insubstituível. A IA precisa de pessoas para configurar o palco onde ela vai atuar. Ela não sabe construir o teatro, ela apenas interpreta o script que você permite. E se o script estiver errado, ela vai interpretá-lo com perfeição — destruindo tudo no processo.
A IA é um Motor Potente, Mas Quem Segura o Freio é Você
A tecnologia de agentes autônomos é incrível. Ela acelera fluxos de trabalho, automatiza tarefas repetitivas e pode multiplicar a produtividade de uma equipe inteira.
Mas o caso de Alexey Grigorev prova que ainda não estamos no estágio de “deixar a IA no comando e ir tomar um café”. Sem supervisão e limites rígidos, o que deveria ser produtividade pode se transformar em destruição em massa de dados.
A comunidade de desenvolvedores no Hacker News foi direta: isso foi erro humano, não falha da IA. Não havia ambiente de staging, não havia proteção contra deleção, e o arquivo de estado estava guardado em um computador pessoal em vez de um backend remoto.
Isso não diminui o alerta. Na verdade, o amplifica. Porque se um desenvolvedor experiente, fundador de uma plataforma com mais de 100.000 alunos, caiu nessa armadilha — imagine o que pode acontecer em empresas que estão adotando agentes de IA sem nenhuma governança.
A pergunta agora é: você sabe exatamente quais permissões a IA que você usa tem sobre os seus arquivos?
Se a resposta for “não tenho certeza”… talvez seja hora de verificar antes que o próximo destroy seja o seu.
Compartilhe se isso te alertou:
- Email: fodra@fodra.com.br
- LinkedIn: linkedin.com/in/mauriciofodra
A conveniência da automação nunca deveria custar a segurança dos seus dados.
Leia Também
- Quando a IA Ignora Suas Ordens: O Lado Obscuro dos Agentes Autônomos — O caso da diretora de alinhamento da Meta que também perdeu o controle de um agente de IA.
- O Despertar dos Agentes: Quando a IA Aprende a Usar o Seu Computador — O lado promissor dos agentes — e por que ele exige ainda mais cuidado.
- O Dilema de ‘WarGames’ na Vida Real: IA, Códigos Nucleares e o Risco da Escalada — Se agentes falham com bancos de dados, imagine com armas nucleares.