Quando si parla di Intelligenza Artificiale, non sono i compiti complessi a spaventare davvero i modelli. È la lunghezza. Le sequenze interminabili. Quei processi in cui basta un singolo errore per far crollare tutto. È qui che l’IA, oggi, inciampa. Eppure un nuovo approccio dimostra che si può superare il limite strutturale dei modelli linguistici: risolvere un milione di passaggi consecutivi senza sbagliare una sola volta.
Il caso di studio è la Torre di Hanoi con 20 dischi. Un esercizio teorico? Forse. Ma richiede 1.048.575 mosse in fila, tutte corrette. Un terreno in cui persino i migliori modelli falliscono dopo poche decine di mosse. Qui entra in scena Maker, un sistema che ribalta il paradigma.
1. Il vero limite dei LLM non è l’intelligenza. È l’esponenziale dell’errore.
Anche un modello accurato al 99% è condannato a perdere.
Sembra paradossale, ma è pura matematica: su una catena lunga mille passaggi, la probabilità che il modello non sbagli mai si avvicina allo zero. Figuriamoci su un milione.
E infatti:
-
i modelli attuali falliscono la Torre di Hanoi con 6 dischi;
-
oltre questo punto, l’errore cumulato diventa inevitabile;
-
ogni passo “quasi giusto” compromette tutti quelli successivi.
Il problema non è capire la regola.
Il problema è non dimenticarla mai per un tempo lunghissimo.
2. Maker: un sistema fatto di micro-agenti che non si stancano mai
Lo studio propone qualcosa di sorprendente nella sua semplicità: smettere di chiedere all’IA di essere un super-cervello. E farla lavorare come un sistema distribuito di micro-servizi, ognuno con un compito minuscolo.
Tre idee tengono in piedi l’intero approccio.
a. Scomposizione agentica estrema
Il sistema non chiede la strategia, non chiede il piano, non chiede la soluzione.
Chiede una sola cosa: “Qual è la prossima mossa valida?”
Tutto qui.
Ogni agente ha un contesto ridotto, nessuna memoria lunga, quasi nessuna possibilità di divagare. Riducendo l’orizzonte cognitivo, si riduce l’errore.
b. Votazione con vantaggio statistico (First to ahead by K)
La maggioranza non basta.
È fragile, sensibile alle fluttuazioni, troppo permissiva.
In Maker, più agenti generano la stessa micro-risposta.
Per essere accettata, una risposta deve ottenere un vantaggio netto rispetto alla seconda opzione. Un margine deciso. Statistico. Un cuscinetto contro l’incertezza.
È un principio semplice:
se i micro-cervelli concordano ampiamente, è difficile che sbaglino.
c. Red Flagging: il buttafuori delle risposte confuse
Ogni risposta viene prima filtrata.
Se è scritta male, ha giustificazioni strane o formattazioni anomale, salta la coda. Viene eliminata prima ancora della votazione.
È un firewall semantico.
Tre meccanismi, un obiettivo: impedire all’errore di nascere.
3. Il risultato: un milione di mosse perfette con un modello “mini”
La parte più sorprendente non è il successo. È come ci si è arrivati.
-
1.048.575 mosse consecutive senza errori.
-
Nessun blocco saltato.
-
Nessuna deriva logica.
-
Nessuna allucinazione.
E il tutto utilizzando GPT-4.1 mini, uno dei modelli più economici della famiglia.
Lo stesso compito, con modelli più grandi, risultava più costoso e spesso peggiore. L’approccio agentico ha distillato la precisione da un modello che, da solo, non sarebbe mai arrivato neanche vicino al risultato.
Interessante anche il comportamento emergente: intorno alla mossa 10.241, il sistema ha incontrato un “passaggio patologico”. Nessun errore, ma difficoltà nel trovare consenso. Maker ha reagito rallentando da solo: 18 round di votazione prima di scegliere la mossa corretta.
Un segnale di robustezza, non di fragilità.
4. Architettura agentica: il futuro sembra distribuire, non ingrandire
Cosa ci dice tutto questo?
Che il modello gigante non è sempre la risposta.
Che l’IA, come il software, potrebbe muoversi verso architetture a micro-servizi, dove ogni pezzo fa pochissimo ma lo fa bene.
Che un sistema così è naturalmente più sicuro: ogni azione è isolata, verificabile, rimpiazzabile.
Un altro punto critico emerge dal dialogo: questo approccio funziona in compiti logici e deterministici.
Ma funzionerebbe nelle aree creative?
Nei problemi etici?
Nelle decisioni sociali?
Forse no. O forse non ancora.
C’è una parte dell’intelligenza — quella sintetica come quella umana — che richiede contesto ampio, empatia, visione di insieme. E lì la frammentazione estrema rischia di essere un limite.
Conclusione aperta
Maker non risolve il problema della “vera intelligenza”.
Ma risolve brillantemente il problema della precisione infinita nei compiti lunghi.
Un risultato che ribalta un presupposto: forse l’IA del futuro non avrà bisogno di essere più grande. Avrà bisogno di essere più modulare.
E questo cambia tutto: costi, affidabilità, sicurezza, governance.
La domanda adesso è semplice: quanto lontano possiamo spingerci con un esercito di micro-agenti perfettamente coordinati?
FAQ (5 domande e risposte)
1. Perché i LLM falliscono i compiti sequenziali lunghi?
Perché anche un errore minuscolo, su sequenze molto lunghe, si accumula fino a rendere impossibile completare il compito senza deviazioni.
2. In cosa è diverso l’approccio Maker rispetto ai normali sistemi agentici?
Maker frammenta il problema fino al minimo possibile, usa micro-agenti indipendenti e applica un meccanismo di voto con vantaggio statistico rafforzato.
3. Perché è importante il red flagging?
Blocca risposte malformate o incoerenti prima che influenzino la votazione. È un filtro che riduce drasticamente il rischio di errori.
4. Che significato ha il “passaggio patologico” nell’esperimento?
È un punto in cui il consenso agentico si è indebolito. Il sistema ha reagito rallentando, utilizzando più round di voto, mostrando resilienza.
5. Questo metodo può funzionare anche in compiti creativi?
Non necessariamente. La scomposizione estrema funziona in problemi deterministici; la creatività richiede contesto ampio e integrazione concettuale che non sempre può essere frammentata.