Soltamos agentes de IA em nome da produtividade, e a conta de tokens virou história de terror

Soltamos agentes de IA em nome da produtividade, e a conta de tokens virou história de terror

Eu costumava achar que uma conta gigantesca de tokens significava que a pilha de IA devia estar fazendo trabalho sério. Mais chamadas, mais raciocínio, mais automação, mais valor. Essa era a fantasia. A realidade é mais feia. Em muitas configurações de agentes, o uso explosivo de tokens não prova inteligência. Prova que o sistema está entrando em loop, tentando de novo, duvidando de si mesmo, recarregando contexto e queimando dinheiro em silêncio no fundo enquanto todo mundo finge que o dashboard significa progresso.

O que deixou isso realmente podre foi ver como alguns times falam disso agora. Execuções maiores de tokens. Janelas de contexto maiores. Rastros de agentes maiores. Rankings internos maiores. Orçamentos maiores. Mas, se um agente precisa de um labirinto de chamadas de ferramenta, tentativas repetidas, validadores e loops de autorreflexão para terminar algo que deveria ser simples, isso não é produtividade. É desperdício com uma marca mais bonita.

A cena que as pessoas deveriam visualizar de verdade

Essa é a cena à qual eu sempre volto.

Alguém dá para um agente uma tarefa que parece minúscula:

  • resumir um documento
  • revisar um relatório
  • puxar insights de uma planilha
  • organizar um conjunto de arquivos

Na superfície, parece simples.

Por baixo, a coisa sai do controle.

Ele reescreve a tarefa.

Quebra a tarefa em subtarefas.

Escolhe uma ferramenta.

Chama um modelo.

Valida o resultado.

Desconfia do resultado.

Tenta o resultado de novo.

Replaneja o fluxo.

Recarrega contexto.

Chama outro modelo.

Aí o usuário recebe uma resposta e o time financeiro recebe uma conta que não faz o menor sentido.

Esse é o fato real aqui. Não “IA é cara” no abstrato. Uma tarefa simples vira uma fornalha invisível de tokens.

Queimar token não é a mesma coisa que produzir resultado

Isso deveria ser óbvio, mas já tem time demais agindo como se não fosse.

Uso de token não é:

  • valor de negócio
  • qualidade
  • clareza
  • ROI
  • saída útil

É gasto.

E, no momento em que um time começa a admirar gasto, os incentivos apodrecem rápido.

Em vez de perguntar “O sistema resolveu o problema de forma limpa?”, as pessoas começam a admirar o quanto de computação ele mastigou no caminho.

Esse é um comportamento absurdo para qualquer pessoa que realmente diga se importar com produtividade.

Um gráfico de tokens subindo normalmente significa que alguma coisa está errada

Essa foi a mudança de mentalidade que eu precisei fazer.

Eu não vejo mais totais mais altos de tokens e concluo que o sistema está ficando mais inteligente. Eu começo concluindo que tem alguma coisa malfeita dentro do sistema.

Porque, em muitas pilhas de agentes, uso extra de token é só o preço da incerteza:

  • planejamento fraco
  • orquestração frágil
  • integração ruim de ferramentas
  • loops excessivos de autocheck
  • tentativas repetidas o tempo todo
  • recarga demais de contexto

Isso não é inteligência.

Isso é compensação.

O modelo ou o fluxo de trabalho não conseguem ser limpos, então o sistema paga pela confusão com mais chamadas.

A história da produtividade desmorona diante de uma pergunta

Se todo esse uso de token está realmente comprando produtividade, então a pergunta óbvia é:

Cadê a saída?

Me mostra:

  • o tempo economizado
  • o custo por tarefa concluída com sucesso
  • a redução de trabalho humano
  • o ganho depois de retries e rollbacks
  • o ROI real em escala

Normalmente é aí que a mágica começa a vazar da sala.

Porque um fluxo de trabalho que parece impressionante numa demo pode ficar absurdamente caro quando tráfego real, concorrência, tratamento de erro e contexto mais longo chegam tudo ao mesmo tempo.

Aí, de repente, o “agente autônomo inteligente” começa a parecer uma máquina caça-níquel embrulhada em linguagem corporativa.

O verdadeiro buraco negro muitas vezes é o sistema ao redor do modelo

Essa é outra coisa que as pessoas ainda ficam contornando.

Boa parte do gasto não vem de uma única chamada ao modelo-base. Vem da arquitetura empilhada ao redor dele:

  • planejadores
  • roteadores
  • validadores
  • loops de reflexão
  • cadeias de fallback
  • seletores de ferramenta
  • lógica de recuperação
  • recargas de contexto

Cada camada, sozinha, parece razoável.

Empilhe tudo isso e você tem uma máquina que multiplica custo muito mais rápido do que multiplica valor.

É por isso que alguns agentes parecem incríveis numa demo de produto e depois parecem amaldiçoados no minuto em que você tenta rodar aquilo de forma barata e repetida.

A próxima divisão real vai ser disciplina com token

Eu acho que a próxima linha séria em IA vai ser brutalmente simples.

Os vencedores não serão os times que conseguem bancar a maior fogueira de tokens.

Os vencedores serão os times que conseguem chegar à resposta certa em menos passos, com menos tentativas repetidas, contexto mais limpo, planejamento mais apertado e menos lama de orquestração.

Essa é a versão de IA em que eu realmente confio:

  • menos chamadas
  • menos rollback
  • menos drama
  • mais saída útil por token gasto

Se um sistema precisa de correntes intermináveis de raciocínio só para se arrastar até uma resposta rotineira, ele não é avançado. Ele é ineficiente usando uma fantasia muito cara.

Pensamento final

O mundo da IA está escorregando para um hábito burro: confundir excesso computacional com progresso.

Mas, se um agente precisa de uma montanha de tokens, retries escondidos e um grafo ridículo de chamadas só para terminar um fluxo rotineiro, a lição real não é que a gente deveria celebrar totais maiores de tokens.

A lição real é que o sistema ainda não tem disciplina.

E, no longo prazo, disciplina é o que vai importar.

Não quem queimou mais.

Não quem parecia mais ocupado.

Não quem postou o maior screenshot de dashboard.

Os times que vão vencer são os que fizerem a IA parecer entediantemente eficiente: rápida, limpa, mensurável e que valha a conta.