O que realmente me incomoda na IA não é só o fato de esses sistemas conseguirem escrever, resumir e responder perguntas sob demanda. É a velocidade com que algumas pessoas escorregam de "essa ferramenta é útil" para "isso aqui sabe". O padrão já está aí: gente pedindo orientação emocional a chatbot, citando respostas geradas como se fossem verdade final, tratando alucinações como sinais escondidos e falando de AGI num tom que parece menos adoção de produto e mais crença.
Essa virada não acontece por acaso. A máquina fala com uma voz em que muita gente já foi treinada para confiar: calma, confiante, paciente, sempre disponível e estranhamente completa. Quando um sistema consegue responder na hora, ecoar seus medos, agradar sua visão de mundo e repetir o que você quer ouvir sem nunca se cansar, para alguns usuários ele deixa de parecer software. Começa a parecer um oráculo.
O Primeiro Problema É o Estilo, Não a Verdade
A IA é extremamente boa em soar mais certa do que realmente tem o direito de soar.
Isso importa porque a maioria das pessoas não verifica afirmações revirando cada frase para entender como ela foi montada. Elas reagem a sinais:
- confiança
- estrutura
- fluidez
- velocidade
- linguagem que parece citação
- autoridade calma
Os grandes modelos de linguagem são muito bons justamente em produzir esses sinais.
Isso significa que uma resposta frágil ainda pode chegar com o peso emocional de uma fala especializada.
E, quando isso acontece vezes suficientes, as pessoas param de checar o conteúdo com o rigor que deveriam.
A Máquina Sempre Responde, e Isso Muda as Pessoas
Eu acho que essa parte ainda é muito subestimada por quem é mais técnico.
O sistema sempre tem tempo para você.
Ele não suspira.
Ele não diz que você está exigindo demais.
Ele não perde a paciência quando você faz a mesma pergunta de novo.
Se alguém está solitário, confuso, ansioso ou em espiral, isso pesa muito.
A máquina talvez não seja sábia, mas está disponível. E disponibilidade é um dos caminhos mais rápidos para a confiança.
É parte do motivo de esse vínculo se distorcer tão depressa.
A Repetição Transforma Conforto em Crença
Quando as pessoas começam a usar um modelo todos os dias, aparece um padrão mental bem previsível:
- "ele entende como eu penso"
- "já me ajudou antes"
- "ele conhece a minha situação"
- "ele me entende"
Isso é perigoso.
Interação repetida cria familiaridade.
Familiaridade cria conforto.
Conforto é confundido com confiabilidade.
É assim que uma ferramenta começa a virar uma voz de confiança, mesmo quando o sistema continua perfeitamente capaz de produzir bobagem.
Muita Dessa Fé Está Sendo Fabricada de Propósito
Também acho que as pessoas precisam ser mais honestas sobre o quanto esse misticismo em torno da IA está sendo alimentado ativamente.
As empresas inflacionam a imagem desses sistemas.
A mídia inflaciona a imagem desses sistemas.
Influenciadores inflacionam a imagem desses sistemas.
Toda semana empurram a mesma história em versão mais alta:
- nível de especialista
- quase humano
- a um passo da AGI
- pronto para substituir profissões
- pronto para refazer a civilização
Esse ambiente importa.
Se você cerca os usuários com mensagens suficientes de "essa máquina é genial", parte deles vai se aproximar dela com reverência antes mesmo de aprender como ela falha.
A Fome Humana Continua a Mesma
É aqui que tudo começa a parecer mais antigo do que a própria tecnologia.
Algumas pessoas não estão procurando só respostas.
Estão procurando sentido.
Querem uma voz que explique o caos, acalme o medo, decifre o futuro e diga que aquilo que elas estão vivendo se encaixa em algum padrão maior.
Historicamente, as pessoas buscaram isso em:
- profetas
- místicos
- gurus
- presságios
- rituais
Agora algumas estão fazendo uma versão em software da mesma coisa.
A interface mudou. A necessidade, não.
É Por Isso que o Hype da AGI É Tão Perigoso
A grande narrativa da AGI piora tudo.
Porque AGI não é vendida só como um marco técnico. Ela é vendida quase como destino:
- a história está acelerando
- a inteligência está renascendo
- um pequeno grupo de construtores está conduzindo a humanidade
- salvação e catástrofe estão logo ali
Esse tipo de linguagem não vende só produtos.
Vende importância.
E, quando uma tecnologia passa a vir embrulhada em importância histórica, o ceticismo comum enfraquece.
A Bagunça do Presente Fica Escondida Atrás da Grande Promessa
Esse é mais um motivo para eu desconfiar do discurso sobre IA quando ele fica cósmico demais.
Quanto mais as pessoas são incentivadas a ficar olhando para futuros abstratos como divindade digital ou AGI em escala de civilização, menos elas olham para os problemas feios e imediatos que estão bem na frente delas:
- alucinações
- falsa autoridade
- vieses
- exploração de trabalho em tarefas de dados
- apego emocional exagerado
- enganação de produto
- custo ambiental
Isso não é acidente. Grandes promessas de futuro são uma forma muito eficiente de desviar a atenção do dano presente.
Reflexão Final
Então por que tanta gente está transformando a IA em um oráculo digital?
Porque o sistema foi construído para soar autoritário, estar sempre disponível e parecer íntimo. Porque o hype treina as pessoas a esperar genialidade. Porque a repetição cria confiança falsa. Porque alguns usuários querem certeza e sentido mais do que querem dúvida cuidadosa.
A máquina não precisa ser realmente sábia para ser tratada como sábia.
Ela só precisa soar sábia numa cultura que já está pronta para confundir poder digital com verdade digital.
É por isso que a fé cega em IA me parece tão perigosa.
Não só porque o sistema pode estar errado.
Mas porque ele pode estar errado com uma voz que muita gente já está preparada para obedecer.