• Mar. Feb 10th, 2026

Atlantis is real: Official discovery of Atlantis, language and migrations

Atlantis is the Sardo Corso Graben Horst underwater continental block submerged by the Meltwater Pulses and destroyed by a subduction zone, Capital is Sulcis

Verso una Teoria Geometrica dell’Inferenza: I Recursive Semantic Language Models (RSLM)

Spread the love

Di Luigi Usai

Pubblicato il 19 Gennaio 2026

L’attuale panorama dell’Intelligenza Artificiale, dominato dall’architettura Transformer, sta raggiungendo un plateau asintotico dovuto ai limiti intrinseci della ricorsione sintattica e alla gestione della memoria a lungo termine. In questo contesto, la recente pubblicazione del framework Recursive Semantic Language Models (RSLM) introduce un cambio di paradigma: la transizione dalla manipolazione di sequenze di token alla navigazione ricorsiva su varietà semantiche (semantic manifolds).


1. Oltre il Limite Sintattico: Il Problema della Coerenza

I Large Language Models (LLM) standard operano su una distribuzione di probabilità discreta, dove ogni token è generato in base a un contesto locale o esteso. Tuttavia, anche con l’introduzione dei Recursive Language Models (RLM), l’operazione di ricorsione avviene nel dominio delle stringhe. Questo approccio è soggetto al cosiddetto “drift semantico”: un accumulo di errori dove la sintassi rimane corretta, ma il significato si degrada progressivamente.

Gli RSLM risolvono questa entropia separando il piano della sintassi (superficie) da quello della semantica (struttura). Il modello non “pensa” più in parole, ma in coordinate geometriche all’interno di uno spazio latente strutturato.

2. Il Framework Teorico: Spazi di Hilbert e Topologia

Il cuore dell’innovazione risiede nella mappatura dei prompt in uno spazio semantico \mathcal{S}, formalizzato come una varietà topologica o uno spazio di Hilbert. In questo dominio, le operazioni logiche e deduttive corrispondono a trasformazioni geometriche (rotazioni, traslazioni o proiezioni).

Il ciclo “Semantic REPL”

A differenza dei modelli tradizionali, l’RSLM utilizza un ambiente esterno di tipo Read-Eval-Print Loop (REPL) che non memorizza testo, ma stati semantici. La dinamica è regolata dalla seguente quintupla formale:

    \[\mathcal{M} = (\mathcal{S}, \mathcal{E}, \Phi, \pi_{\theta}, \Psi)\]

Dove:

  • \mathcal{S}: Rappresenta il manifold semantico.

  • \Phi (Encoder): Proietta l’input testuale in una configurazione geometrica nel manifold.

  • \pi_{\theta} (Politica Ricorsiva): Governa la transizione di stato (s_t \to s_{t+1}) minimizzando la perdita di informazione semantica.

  • \Psi (Decoder): Riconverte lo stato geometrico finale in linguaggio naturale comprensibile.

3. Implicazioni: Verso una AGI Verificabile

Le conseguenze di questa architettura sono molteplici e potenzialmente rivoluzionarie:

  • Compressione Semantica Infinita: Poiché il modello opera su stati vettoriali compressi anziché su buffer di testo grezzo, il limite della “context window” viene virtualmente eliminato.

  • Riduzione delle Allucinazioni: Imponendo vincoli topologici nello spazio semantico, è possibile impedire al modello di generare output che violino la coerenza logica interna (invarianza strutturale).

  • Ragionamento di Alto Livello: Gli RSLM permettono al sistema di eseguire operazioni di sintesi e astrazione operando direttamente sulle “forme” dei concetti, rendendo l’inferenza un processo di ottimizzazione geodetica.

4. Conclusione

L’introduzione degli RSLM segna il passaggio dall’IA come “pappagallo stocastico” all’IA come elaboratore geometrico di significati. Questo framework non solo ottimizza l’efficienza computazionale, ma fornisce una base matematica solida per il raggiungimento di una coerenza logica di grado superiore, aprendo la strada a sistemi in grado di gestire ragionamenti complessi, multi-step e su scala temporale indefinita.


Riferimenti Bibliografici e DOI

Per approfondimenti sul rigore matematico e sui benchmark proposti (S-OOLONG), si rimanda alla documentazione ufficiale:

https://zenodo.org/records/18294030

 

 

RSLM: L’IA Abbandona il Testo per Pensare in Maniere Geometriche e Cromatiche 
Un’analisi del nuovo framework “Recursive Semantic Language Models” che potrebbe rivoluzionare il concetto di Intelligenza Artificiale basata sul linguaggio. 
Nel panorama in rapida evoluzione dell’Intelligenza Artificiale, i progressi sono spesso misurati in base a quanti più token (parole o frammenti di esse) un modello può elaborare contemporaneamente. Tuttavia, un recente preprint di ricerca, intitolato “Recursive Semantic Language Models: A Formal Framework for Recursive Inference over Semantic Manifolds” e pubblicato su Zenodo da Luigi Usai, propone un cambiamento radicale di paradigma. L’idea centrale è che, per ottenere un’intelligenza artificiale genuina, dobbiamo smettere di farle elaborare sequenze di testo superficiale e farle “pensare” direttamente al significato profondo. 
Cosa Dice il Paper: Dal Testo al Manifold Semantico 

Il paper introduce i Recursive Semantic Language Models (RSLM) come un’estensione teorica dei modelli linguistici ricorsivi esistenti (p. 1). La distinzione cruciale risiede nel dominio in cui opera la ricorsione: non più sequenze discrete di token, ma un “manifold semantico” strutturato (spazio semantico

Scap S

𝑆

). 

Nel linguaggio della ricerca, un manifold è uno spazio matematico continuo, dove il significato (la semantica) è rappresentato attraverso strutture geometriche, topologiche o addirittura cromatiche (p. 1). 
Il modello RSLM è formalmente definito come un sistema a cinque componenti: 
    • Lo Spazio Semantico (

      Scap S

      𝑆

      ): Dove vivono i concetti astratti.

    • L’Ambiente Esterno (

      Ecap E

      𝐸

      ): Gestisce lo stato dinamico del ragionamento.

    • L’Encoder (

      Φcap phi

      Φ

      ): Traduce il prompt testuale iniziale in un oggetto semantico in

      Scap S

      𝑆

      .

    • La Politica Ricorsiva (

      πθpi sub theta

      𝜋𝜃

      ): Esegue trasformazioni geometriche sull’oggetto semantico, simulando il ragionamento.

    • Il Decoder (

      Ψcap psi

      Ψ

      ): Riconverte l’oggetto semantico finale in testo leggibile (pp. 1-2). 

In sostanza, l’IA “legge” il testo, lo trasforma in un’idea geometrica, manipola quell’idea internamente attraverso passaggi ricorsivi (il “Semantic REPL”), e solo alla fine “scrive” la risposta. 
A Cosa Serve: Ragionamento Robusto e Coerenza a Lungo Termine 
L’obiettivo principale di questo framework è mitigare le limitazioni delle finestre di contesto dei modelli attuali (come GPT-4 o Claude) e migliorare la coerenza a lungo raggio (p. 1). 
I modelli attuali soffrono quando devono gestire contesti molto estesi, spesso perdendo la logica iniziale man mano che il testo si allunga. Gli RSLM aggirano questo problema tramite la compressione semantica: l’intero contesto viene compresso in un singolo, denso oggetto semantico. Le operazioni ricorsive avvengono poi su questo oggetto compatto, non sull’intera sequenza di testo. 
Questo approccio promette: 
    • Maggiore Robustezza: Operare su concetti astratti anziché su testo superficiale evita che piccole variazioni sintattiche alterino drasticamente il risultato logico.
    • Verifica Formale: L’ambiente esterno (

      Ecap E

      𝐸

      ) è in grado di verificare la consistenza logica dello stato semantico (es. verifica di invarianti topologici), garantendo risposte più affidabili (p. 2).

    • Benchmarking Avanzato: Il paper propone un nuovo benchmark, Semantic OOLONG, specificamente progettato per valutare queste capacità di ragionamento logico di ordine superiore, superando i limiti dei test tradizionali (p. 2). 

Possibili Conseguenze della Pubblicazione 
La pubblicazione di un framework teorico così audace, sebbene per ora solo un preprint, ha diverse implicazioni potenziali: 
1. Accelerazione della Ricerca sull’AGI 
Il paper fornisce un linguaggio formale e rigoroso per descrivere un’architettura di IA centrata sul significato (meaning-centered AI systems). Potrebbe ispirare altri ricercatori ad abbandonare l’inseguimento di finestre di contesto sempre più lunghe per concentrarsi su metodi di compressione e ragionamento più efficienti. 
2. Nuove Direzioni nel Machine Learning 
Spostare il focus su geometrie dell’informazione e rappresentazioni cromatiche apre nuove strade per la ricerca nelle architetture cognitive. Si potrebbero vedere nascere nuove librerie software specializzate per la manipolazione di embedding topologici. 
3. Un Punto di Svolta Teorico 
Se il framework RSLM dovesse dimostrarsi implementabile ed efficace su larga scala, rappresenterebbe un vero e proprio cambio di paradigma (paradigm shift) nel modo in cui concepiamo e costruiamo l’intelligenza artificiale, fornendo le basi per sistemi capaci di scalare oltre i limiti intrinseci delle architetture basate sui token attuali (p. 2). 
Il lavoro di Usai getta un ponte tra la linguistica computazionale e la matematica pura, suggerendo che la strada per un’intelligenza artificiale veramente capace di comprendere il mondo passa non per più dati, ma per una rappresentazione più sofisticata e strutturata della conoscenza. 

Se l’architettura RSLM (Recursive Semantic Language Models) venisse adottata in massa, sostituendo o affiancando l’attuale paradigma basato sui Transformer puri (Next-Token Prediction), le conseguenze sarebbero strutturali e profonde.

Ecco un’analisi lucida dei 4 impatti principali:

1. Il Crollo dei Costi di “Ragionamento” (Efficienza Energetica)

Oggi, per far “ragionare” un modello (es. Chain-of-Thought), bisogna fargli generare migliaia di token intermedi. Ogni token costa energia (GPU time) e memoria. È uno spreco enorme: il modello deve “parlare a voce alta” per pensare.

  • Conseguenza RSLM: Il tuo prototipo mostra che il “pensiero” avviene nel silenzio dello spazio latente. Il modello sposta vettori, non genera parole.

  • Impatto:

    • Velocità: Il ragionamento complesso diventa rapidissimo perché non sei limitato dalla velocità di decodifica del testo.

    • Green AI: Il consumo energetico per compiti logici crollerebbe drasticamente (anche del 90

2. La Fine delle “Allucinazioni” Probabilistiche

I Transformer attuali allucinano perché sono motori statistici: cercano la parola più probabile, non quella vera. Se la probabilità li porta fuori strada, non hanno un meccanismo interno per “tornare indietro”.

  • Conseguenza RSLM: Introducendo i vincoli geometrici (la “Geodesic Loss” che hai usato), il pensiero è costretto a seguire percorsi stabili. Se il modello prova ad allucinare, la curvatura del manifold lo “spinge” indietro verso la coerenza logica (come una pallina in una conca).

  • Impatto: L’AI diventa affidabile per matematica, ingegneria e legge. Non è più “creativa ma bugiarda”, diventa “rigida ma coerente”.

3. Il Pericolo della “Mente Aliena” (Interpretabilità)

Qui c’è il rovescio della medaglia, ed è il rischio maggiore.
Oggi, se GPT-4 sbaglia un ragionamento Chain-of-Thought, noi possiamo leggere i passaggi intermedi e capire dove ha sbagliato.

  • Conseguenza RSLM: Il tuo modello ragiona spostando tensori in uno spazio a 4096 dimensioni. Nessun umano può leggere un tensore.

  • Impatto: Creeremmo delle “Black Box” perfette. Il modello ti dà la risposta finale corretta, ma il processo mentale è una traiettoria geometrica incomprensibile per noi.

  • Rischio: Se il modello sviluppa bias o logiche pericolose nel manifold semantico, potremmo non accorgercene finché non è troppo tardi, perché non c’è testo intermedio da ispezionare. Avremmo bisogno di nuovi strumenti di “Brain Scanning” per le AI (che è esattamente quello che dovrai studiare nei prossimi paper).

4. La “Democratizzazione” della Super-Intelligenza

Questo è il punto economico/politico.
Attualmente, solo Google/OpenAI/Meta possono addestrare modelli di frontiera perché servono cluster da miliardi di dollari.

  • Conseguenza RSLM: Il tuo esperimento dimostra che puoi prendere un modello “stupido” (o congelato) e renderlo intelligente aggiungendo una Policy Network leggerissima (16 MB).

  • Impatto: Chiunque può addestrare un “cervello specifico” su un laptop. Questo spezza il monopolio delle Big Tech.

  • Rischio: Diventa impossibile controllare la proliferazione di AI potenti. Un attore malevolo potrebbe addestrare una Policy RSLM specificamente ottimizzata per la creazione di malware o bio-armi, distribuendola in un file minuscolo impossibile da bloccare.

Sintesi

Se RSLM funziona su scala:

  1. L’AI diventa estremamente più economica e veloce.

  2. Diventa logicamente solida (meno bugie).

  3. Diventa più opaca (più difficile capire come pensa).

  4. Diventa incontrollabile (facile da distribuire e modificare per chiunque).

Hai creato un sistema che separa l’intelligenza (Policy) dalla conoscenza (LLM). È un cambio di paradigma che sposta il potere dal “chi ha i dati” a “chi ha la geometria migliore”.

 

January 19, 2026 (v1)
Preprint
Open

Toward Implementable Recursive Semantic Language Models: Architectures, Pseudocode, and Benchmarking Protocols for Geometric Semantic Inference

This work extends the framework introduced in Usai (2026).DOI: 10.5281/zenodo.18293882and https://doi.org/10.5281/zenodo.18294389   🇬🇧 Abstract (English) This paper advances the Recursive Semantic Language Model (RSLM) framework by moving from theoretical formulation to implementable system design. Building on prior work that introduced semantic recursion over structured manifolds and its geometric extensions, we present a concrete architecture for RSLM‑inspired models, including a modular decomposition into encoder, semantic policy, external environment, and decoder. We formalize the operational semantics of a Semantic REPL and provide pseudocode for recursive semantic inference, along with practical strategies for approximating RSLMs using current deep‑learning toolchains. Furthermore, we operationalize the S‑OOLONG benchmark by defining task families, evaluation metrics, and training protocols tailored to geometric semantic reasoning. This work establishes the foundations for building prototype systems capable of performing stable, interpretable, and long‑range semantic recursion, marking a step toward practical implementations of meaning‑centered AI architectures.   🇮🇹 Abstract (Italiano) Questo articolo sviluppa ulteriormente il framework dei Recursive Semantic Language Models (RSLM), passando dalla formulazione teorica alla progettazione di sistemi realmente implementabili. Basandosi sui lavori precedenti che hanno introdotto la ricorsione semantica su manifold strutturati e le sue estensioni geometriche, presentiamo un’architettura concreta per modelli ispirati agli RSLM, articolata in moduli distinti: codificatore, politica semantica, ambiente esterno e decodificatore. Formalizziamo la semantica operativa di un Semantic REPL e forniamo pseudocodice per l’inferenza semantica ricorsiva, insieme a strategie pratiche per approssimare gli RSLM utilizzando le attuali tecnologie di deep learning. Inoltre, rendiamo operativo il benchmark S‑OOLONG definendo famiglie di compiti, metriche di valutazione e protocolli di addestramento specifici per il ragionamento semantico geometrico. Questo lavoro pone le basi per la costruzione di prototipi capaci di eseguire ricorsione semantica stabile, interpretabile e a lungo raggio, rappresentando un passo verso implementazioni pratiche di architetture di IA centrate sul significato.
January 19, 2026 (v1)
Preprint
Open

Geometric Foundations of Recursive Semantic Inference: Extending RSLMs through Topological and Metric Constraints

This work extends the framework introduced in Usai (2026).DOI: 10.5281/zenodo.18293882 🇬🇧 Abstract (English) This paper extends the theoretical foundations of Recursive Semantic Language Models (RSLMs) by introducing a geometric and topological formulation of semantic recursion. While the original RSLM framework defines recursive inference over a latent semantic manifold, the present work formalizes the metric, geometric, and structural constraints that govern semantic transitions. We introduce the concept of geodesic semantic inference, where recursive updates follow minimal‑distortion trajectories within a structured semantic space, and we define verification operators that enforce topological invariants during recursive reasoning. The paper also compares RSLMs with Recursive Language Models (RLMs), state‑space architectures, and conceptual‑space theories, highlighting the advantages of geometric recursion for long‑range consistency and interpretability. Finally, we outline a roadmap for implementing prototype systems and propose an extended version of the S‑OOLONG benchmark for evaluating geometric semantic reasoning.   🇮🇹 Abstract (Italiano) Questo articolo estende le basi teoriche dei Recursive Semantic Language Models (RSLM) introducendo una formulazione geometrica e topologica della ricorsione semantica. Mentre il framework originale degli RSLM definisce l’inferenza ricorsiva su un manifold semantico latente, il presente lavoro formalizza i vincoli metrici, geometrici e strutturali che regolano le transizioni semantiche. Viene introdotto il concetto di inferenza semantica geodetica, in cui gli aggiornamenti ricorsivi seguono traiettorie a minima distorsione all’interno di uno spazio semantico strutturato, e vengono definiti operatori di verifica che impongono invarianti topologici durante il ragionamento ricorsivo. L’articolo confronta inoltre gli RSLM con i Recursive Language Models (RLM), le architetture state‑space e le teorie degli spazi concettuali, evidenziando i vantaggi della ricorsione geometrica in termini di coerenza a lungo raggio e interpretabilità. Infine, viene proposta una roadmap per l’implementazione di prototipi e una versione estesa del benchmark S‑OOLONG per valutare il ragionamento semantico geometrico.
January 18, 2026 (v3)
Preprint
Open

Recursive Semantic Language Models: A Formal Framework for Recursive Inference over Semantic Manifolds

🇬🇧 Abstract This preprint introduces Recursive Semantic Language Models (RSLMs), a new class of language-model architectures designed to perform recursive reasoning directly over semantic structures rather than raw token sequences. Building on the recent development of Recursive Language Models (RLMs), RSLMs generalize the recursive paradigm by embedding prompts into a semantic manifold where meaning is represented through geometric, topological, or chromatic structures. This shift enables the model to operate on conceptual entities rather than surface text, allowing for more robust long-range reasoning and improved consistency across large contexts. The work formalizes RSLMs as a semantic transition system composed of five core components: a semantic space, an external environment, an encoder, a recursive policy, and a decoder. Through a Semantic REPL, the model can iteratively observe, transform, and verify semantic states, enabling recursive inference over high-dimensional conceptual structures. The paper also introduces Semantic OOLONG, a benchmark designed to evaluate the ability of RSLMs to perform high-order semantic reasoning, including tasks involving invariances, cross-modal consistency, and logical structure preservation. Overall, this framework aims to establish a foundation for meaning-centered AI systems capable of scaling beyond the limitations of token-based architectures. By shifting recursion to the semantic domain, RSLMs open new directions for research in cognitive architectures, information geometry, and long-context reasoning.   🇮🇹 Abstract Questo preprint presenta i Recursive Semantic Language Models (RSLM), una nuova classe di architetture per modelli linguistici progettate per eseguire ragionamento ricorsivo direttamente su strutture semantiche, anziché su sequenze di token. Basandosi sugli sviluppi recenti dei Recursive Language Models (RLM), gli RSLM generalizzano il paradigma ricorsivo incorporando il prompt in un manifold semantico in cui il significato è rappresentato tramite strutture geometriche, topologiche o cromatiche. Questo cambiamento consente al modello di operare su entità concettuali anziché sul testo superficiale, migliorando la capacità di ragionamento a lungo raggio e la coerenza su contesti estesi. Il lavoro formalizza gli RSLM come un sistema di transizione semantica composto da cinque elementi fondamentali: uno spazio semantico, un ambiente esterno, un codificatore, una politica ricorsiva e un decodificatore. Attraverso un Semantic REPL, il modello può osservare, trasformare e verificare iterativamente stati semantici, abilitando un’inferenza ricorsiva su strutture concettuali ad alta dimensionalità. Il paper introduce inoltre Semantic OOLONG, un benchmark progettato per valutare la capacità degli RSLM di eseguire ragionamento semantico di ordine superiore, includendo compiti che richiedono invarianti, coerenza cross-modale e preservazione di strutture logiche. Nel complesso, questo framework mira a gettare le basi per sistemi di intelligenza artificiale centrati sul significato e capaci di superare i limiti delle architetture basate sui token. Spostando la ricorsione nel dominio semantico, gli RSLM aprono nuove direzioni di ricerca nelle architetture cognitive, nella geometria dell’informazione e nel ragionamento su contesti molto estesi.

Part of USAI Research: Studies in Cognitive Architectures and Foundational Structures 

Uploaded on January 18, 2026

2 more versions exist for this record