I grandi modelli linguistici hanno già toccato il loro soffitto?

I grandi modelli linguistici hanno già toccato il loro soffitto?

Continuo ad avere la stessa reazione scomoda davanti all’IA moderna: i modelli sono chiaramente migliori, ma la sensazione non sta cambiando quanto suggeriscono le demo. Sono più veloci. Sono più fluidi. Scrivono codice meglio di prima. Recuperano informazioni in modo più pulito. Riescono a gestire contesti più lunghi. Eppure continuo a sbattere contro lo stesso muro. Suonano più rifiniti, ma non sembrano proporzionalmente più vicini a una comprensione reale.

Per questo penso che la vera domanda non sia più “I grandi modelli linguistici sono utili?”. Certo che lo sono. La domanda è se stiamo spremendo sempre più valore dallo stesso trucco di base: previsione del token successivo, confezione migliore, finestre di contesto più grandi e strati di prodotto più rifiniti. Se è questo che sta accadendo, allora la possibilità scomoda è questa: gli LLM possono continuare a migliorare come prodotti pur restando molto più vicini al loro soffitto concettuale di quanto la macchina dell’hype voglia ammettere.

La sensazione è cambiata prima che il progresso si fermasse

Questa è la parte strana.

Non sto dicendo che il progresso sia finto.

I modelli sono migliorati. Tutti possono vederlo.

Ma credo che molte persone siano arrivate allo stesso punto: all’inizio i sistemi sembravano scioccanti, poi hanno iniziato a sembrare familiari. Cominci a notare gli stessi limiti vestiti meglio.

Continuano a fare quella cosa per cui suonano sicuri e invece sbagliano.

Continuano a fare quella cosa per cui producono assurdità eleganti.

Continuano a fare quella cosa per cui imitano il ragionamento meglio di quanto riescano davvero a sostenerlo.

Questo conta, perché quando la novità svanisce, inizi a farti una domanda più cattiva: stiamo vedendo vera profondità, o solo una performance migliore sullo stesso movimento di fondo?

Continuo a tornare allo stesso punto di crollo nell’uso reale

Per me questa non è più solo una questione filosofica.

È anche un momento di lavoro molto pratico che ormai molte persone conoscono.

Chiedi al modello di riassumere un documento complicato.

La risposta arriva in fretta.

Le frasi sono ben costruite.

Sembra che abbia colto l’essenziale.

Ma quando la metti accanto all’originale e controlli riga per riga, manca una condizione importante, un’eccezione viene spazzata via da una frase elegante oppure una conclusione sbagliata viene cucita insieme in modo convincente.

Con il codice succede qualcosa di simile.

La prima versione ha un bell’aspetto.

Anche i test, a prima vista, sembrano ragionevoli.

Ma quando la esegui, lo stato si ingarbuglia, i casi limite restano scoperti o proprio la parte della logica di business che conta di più è rimasta fuori.

È in momenti come questi che torno sempre allo stesso dubbio.

Non basta concatenare simboli con grande abilità se il sistema non sta davvero afferrando la realtà a cui quei simboli rimandano.

Il disagio che provo qui non è un giochetto intellettuale.

Somiglia molto di più a quello scivolamento concreto che appare solo quando una persona deve davvero controllare il risultato.

Gran parte della “mente” che la gente vede potrebbe essere solo fluidità

Penso che sia qui che il pubblico continui a farsi ingannare.

I sistemi sono così fluenti che la gente comincia a introdurre conclusioni extra di nascosto.

Se suona calmo, intelligente, interdisciplinare e completo, la gente inizia a trattarlo come una prova di mente.

Qui nasce la confusione.

In una sala riunioni questo errore cresce ancora più in fretta.

Qualcuno legge un riassunto pulito uscito dal modello.

Dato che le frasi suonano serene, tutti annuiscono prima.

Solo dopo salta fuori la premessa sbagliata nascosta più sotto.

Una risposta rifinita sembra intuizione. Un paragrafo ordinato sembra comprensione. Una voce tranquilla sembra giudizio.

Ma nell’uso reale queste tre cose si separano molto spesso.

Basta una riunione in cui il modello consegna un riassunto pulito perché mezza stanza si comporti come se la questione fosse già chiusa. Solo più tardi qualcuno si accorge che mancava una clausola, che la sfumatura decisiva non c’era oppure che la bella conclusione si reggeva su una lettura sbagliata.

La fluidità non è la stessa cosa dell’essere ancorati alla realtà.

La compressione di pattern non è la stessa cosa di una comprensione vissuta.

Il testo è stato una scorciatoia incredibile, e potrebbe essere proprio questo il problema

Una delle ragioni per cui gli LLM sono esplosi così in fretta è ovvia: il testo è una scorciatoia assurdamente potente.

Internet ha dato a questi sistemi un archivio gigantesco e compresso di spiegazioni umane, argomentazioni, istruzioni, racconti, contraddizioni ed errori. È una risorsa straordinaria.

Ma potrebbe anche essere la trappola.

Perché il testo non è la realtà.

Il testo è il modo in cui gli esseri umani parlano della realtà dopo averla già fatta passare attraverso un mucchio di filtri.

E gli esseri umani parlano male della realtà in continuazione.

La semplificano, la distorcono, la fraintendono, mettono in scena competenza intorno ad essa e litigano su di essa.

Se il tuo percorso principale verso l’intelligenza è il linguaggio sul mondo invece del mondo stesso, allora potrebbe esserci lì un soffitto strutturale. Ottieni una performance simbolica sorprendente senza ottenere necessariamente quel tipo di radicamento che la gente continua a proiettare sul sistema.

E questo torna a vedersi anche nel lavoro quotidiano.

Il modello può parlare in modo molto pulito di un processo legale, di un incidente tecnico o di una strategia di prodotto. Ma quando una persona che vive davvero dentro quel processo lo rilegge da vicino, torna sempre la stessa sensazione: suona bene, ma non tocca davvero terra.

Ecco perché così tante persone serie continuano a guardare altrove

Una ragione per cui non liquido questa idea del soffitto è che molte persone vicine al campo sono chiaramente poco disposte a scommettere tutto sul puro scaling degli LLM.

Continui a vedere l’interesse spostarsi verso cose come:

  • world model
  • sistemi fortemente centrati sul reinforcement learning
  • interazione incarnata
  • architetture costruite intorno alla previsione latente invece che al solo testo
  • sistemi che cercano di modellare la realtà fisica, non solo il linguaggio su di essa

Questo non dimostra che gli LLM siano morti.

Dimostra piuttosto che molte persone intelligenti non credono che prevedere il token successivo sia tutta la strada verso un’intelligenza più robusta.

E sinceramente, anche gli utenti comuni lo sentono, anche se lo descrivono in modo meno formale. Prima restano impressionati. Poi iniziano a usare questi strumenti ogni giorno. E dopo un po’ arrivano a una conclusione molto più terra-terra: sono potentissimi, sì, ma l’ultima verifica continua a ricadere su una persona.

Forse gli LLM somigliano più a un’enciclopedia avanzata che a una persona elettronica

Questo è il paragone che continua a restarmi in testa.

Non perché sia perfetto, ma perché punta nella direzione giusta.

Un’enciclopedia è utile.

Una calcolatrice è utile.

Un motore di ricerca è utile.

Una mappa è utile.

Nessuna di queste cose ha bisogno di essere cosciente, simile a un essere umano o profondamente comprensiva per risultare trasformativa.

Gli LLM potrebbero appartenere più a questa famiglia di quanto la gente voglia ammettere: incredibilmente utili, esplosivi sul piano commerciale e comunque non la stessa cosa di una mente.

Questo non ne riduce l’importanza.

Possono accelerare i team, produrre bozze, condensare ricerca, sintesi e organizzazione in un unico strato di lavoro.

Ma una cosa è uno strumento potentissimo e un’altra è trattarlo come se avesse già oltrepassato la soglia della comprensione piena.

Il soffitto potrebbe essere strutturale, non temporaneo

È qui che il mio scetticismo si irrigidisce.

Molte debolezze attuali degli LLM non sembrano bug casuali in attesa di essere lisciati con un po’ più di scala.

Sembrano strutturali.

I sistemi continuano a inciampare in cose come:

  • causalità ancorata alla realtà
  • modellazione stabile del mondo
  • spiegazione che sia qualcosa di più di un’imitazione rifinita
  • ragionamento fuori dal territorio dei pattern familiari
  • distinzione tra coerenza e verità

Per questo non sono convinto che più dati, più calcolo, più contesto e interfacce più belle colmino automaticamente il divario. Potrebbero soltanto produrre una versione più luccicante della stessa illusione.

È esattamente quello che si prova quando una risposta arriva più in fretta, più pulita e confezionata meglio, eppure costringe comunque una persona a sedersi dopo e correggere la parte che il modello non ha mai davvero capito.

Considerazione finale

Quindi i grandi modelli linguistici hanno già toccato il loro soffitto?

Non penso abbiano raggiunto un soffitto totale in termini di utilità. Probabilmente continueranno a diventare più veloci, più puliti, più economici e più integrati nel lavoro reale.

Ma penso davvero che ci sia una possibilità seria che siamo molto più vicini al soffitto di questo paradigma di base di quanto l’hype voglia ammettere.

Per questo la mia domanda è cambiata.

Non sto più chiedendo: “Gli LLM possono migliorare?”.

Ovviamente sì.

Sto chiedendo: “Questa configurazione di base può trasformare una previsione rifinita nel tipo di comprensione che la gente continua a immaginare?”.

E più li guardo, meno ovvia mi sembra la risposta.