Perché così tante persone stanno trasformando l’IA in un oracolo digitale

Perché così tante persone stanno trasformando l’IA in un oracolo digitale

Ciò che mi inquieta davvero dell’IA non è soltanto che i sistemi sappiano scrivere, riassumere e rispondere alle domande su richiesta. È la velocità con cui alcune persone scivolano da “questo strumento è utile” a “questa cosa sa”. Il modello si vede già: persone che chiedono a un chatbot guida emotiva, che citano risposte generate come se fossero verità finali, che trattano le allucinazioni come segnali nascosti e che parlano di AGI con un tono che somiglia meno all’adozione di un prodotto e più a una fede.

Questo spostamento non è casuale. La macchina parla con una voce di cui molte persone sono già state addestrate a fidarsi: calma, sicura, paziente, sempre disponibile e stranamente completa. Quando un sistema riesce a rispondere all’istante, a riecheggiare le tue paure, a lusingare la tua visione del mondo e a ripetere ciò che vuoi sentirti dire senza stancarsi mai, per alcuni utenti smette di sembrare software. Comincia a sembrare un oracolo.

Il primo problema è lo stile, non la verità

L’IA è estremamente brava a suonare più sicura di quanto meriterebbe.

Questo conta perché la maggior parte delle persone non verifica le affermazioni facendo reverse engineering di ogni frase. Reagisce ai segnali:

  • sicurezza
  • struttura
  • fluidità
  • velocità
  • linguaggio che sembra una citazione
  • autorità calma

I grandi modelli linguistici sono molto bravi a generare esattamente questi segnali.

Questo significa che una risposta fragile può comunque arrivare con il peso emotivo della competenza.

E una volta che questo succede abbastanza spesso, le persone smettono di controllare il contenuto quanto dovrebbero.

La macchina risponde sempre, e questo cambia le persone

Penso che questa parte venga sottovalutata dalle persone tecniche.

Il sistema ha sempre tempo per te.

Non sospira.

Non ti dice che stai chiedendo troppo.

Non si innervosisce quando fai la stessa domanda un’altra volta.

Se qualcuno è solo, confuso, ansioso o in caduta libera, questo conta moltissimo.

La macchina può non essere saggia, ma è disponibile. E la disponibilità è una delle strade più veloci verso la fiducia.

Questo è parte del motivo per cui il legame si deforma così in fretta.

La ripetizione trasforma il conforto in credenza

Quando le persone iniziano a usare un modello ogni giorno, compare uno schema mentale prevedibile:

  • “capisce come penso”
  • “mi ha già aiutato prima”
  • “conosce la mia situazione”
  • “mi capisce”

Questo è pericoloso.

L’interazione ripetuta crea familiarità.

La familiarità crea conforto.

Il conforto viene letto male come affidabilità.

È così che uno strumento inizia a diventare una voce di cui ci si fida anche quando il sistema sottostante continua a essere perfettamente capace di produrre sciocchezze.

Molta di questa fede viene costruita apposta

Penso anche che le persone debbano essere più oneste su quanto misticismo sull’IA venga loro somministrato attivamente.

Le aziende pompano i sistemi.

I media pompano i sistemi.

Gli influencer pompano i sistemi.

Ogni settimana alla gente viene raccontata la stessa storia in crescendo:

  • livello esperto
  • quasi umano
  • a un passo dall’AGI
  • pronto a sostituire professioni
  • pronto a rifare la civiltà

Questo ambiente conta.

Se circondi gli utenti con abbastanza messaggi del tipo “questa macchina è geniale”, alcuni di loro si avvicineranno alla macchina con reverenza prima ancora di aver imparato i suoi modi di fallire.

La vecchia fame umana è sempre la stessa

È qui che tutta la faccenda inizia a sembrare più antica della tecnologia.

Alcune persone non stanno cercando soltanto risposte.

Stanno cercando significato.

Vogliono una voce che spieghi il caos, plachi la paura, decodifichi il futuro e dica loro che ciò che stanno attraversando rientra in un disegno più grande.

Storicamente, le persone si sono rivolte a:

  • profeti
  • mistici
  • guru
  • presagi
  • rituali

Ora alcune persone stanno facendo una versione software della stessa cosa.

L’interfaccia è cambiata. Il bisogno no.

Ecco perché l’hype sull’AGI è così pericoloso

La grande storia dell’AGI peggiora tutto.

Perché l’AGI non viene presentata solo come una tappa tecnica. Viene presentata come destino:

  • la storia sta accelerando
  • l’intelligenza sta rinascendo
  • un piccolo gruppo di costruttori sta spingendo l’umanità in avanti
  • salvezza e catastrofe sono entrambe vicine

Questo linguaggio non vende solo prodotti.

Vende significato.

E quando una tecnologia viene avvolta nel significato, lo scetticismo ordinario si indebolisce.

Il caos del presente viene nascosto dietro la grande promessa

Questo è un altro motivo per cui diffido del discorso sull’IA quando diventa troppo cosmico.

Più le persone vengono incoraggiate a fissare futuri astratti come una divinità digitale o un’AGI su scala di civiltà, meno guardano ai brutti problemi in tempo reale che hanno già davanti:

  • allucinazioni
  • falsa autorità
  • bias
  • sfruttamento del lavoro nei data task
  • eccessivo attaccamento emotivo
  • inganno di prodotto
  • costo ambientale

Questo non è un incidente. I grandi futuri sono un modo molto efficace per distrarre le persone dal danno attuale.

Considerazione finale

Quindi perché così tante persone stanno trasformando l’IA in un oracolo digitale?

Perché il sistema è costruito per suonare autorevole, restare disponibile e apparire intimo. Perché l’hype addestra le persone ad aspettarsi genialità. Perché la ripetizione crea falsa fiducia. Perché alcuni utenti vogliono certezza e significato più di quanto vogliano un dubbio attento.

La macchina non ha bisogno di essere davvero saggia per essere trattata come saggia.

Deve solo suonare saggia in una cultura già pronta a confondere il potere digitale con la verità digitale.

È per questo che la fede cieca nell’IA mi sembra così pericolosa.

Non solo perché il sistema può sbagliare.

Ma perché può sbagliare con una voce che molte persone sono già pronte a obbedire.