• Dom. Lug 13th, 2025

Atlantis is real: Official discovery of Atlantis, language and migrations

Atlantis is the Sardo Corso Graben Horst underwater continental block submerged by the Meltwater Pulses and destroyed by a subduction zone, Capital is Sulcis

Gestione Persistente dei Tensori Narrativi, di Luigi Usai

Tensori Narratologici di Luigi UsaiTensori Narratologici di Luigi Usai
Spread the love

Gestione Persistente dei Tensori Narrativi

Autore: Dr. Luigi Usai

https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi:10.7910/DVN/ICOJ19

Genere: Saggio di Computational Narratology

Target: Pubblico accademico e cultori della materia

Difficoltà: Alta (post-universitaria)

Lingua: Italiano

Data di creazione: 2025-05-12

 

Evoluzione della memoria narrativa: L’architettura del Tensore Narrativo si ispira al funzionamento della memoria umana, dove ogni narrazione consuma nuovi “episodi” che arricchiscono un’ampia struttura conoscitiva. In quest’ottica, la narrativa non è solo testo, ma «una topologia sottostante della

 

memoria» 1

narrazione”

. Come evidenziato in ambito cognitivo, l’esperienza e la memoria avvengono “in forma di

1 , il che implica che ogni racconto assimilato modifica e amplia la rappresentazione

 

interna complessiva. In termini computazionali, ciò si traduce in un modello dinamico: ogni input testuale aggiunge dati semantici e relazionali che si integrano nel tensore in crescita. Questi dati narrativi sono memorizzati come elementi episodici, i quali poi contribuiscono a costruire schemi narrativi più generali (script e generi)           . In pratica, la memoria narrativa computazionale si sviluppa attraverso la codifica episodica di eventi (un episodio corrisponde a un nuovo “pezzo” di storia) e la progressiva formazione di schemi semantici e modelli causali (ad esempio, uno schema di azione o ruolo)     . Con l’esperienza, questi schemi emergono dal basso verso l’alto e poi influenzano dall’alto verso il basso la generazione e comprensione della narrazione . Ad esempio, come osserva Anderson (2015), i singoli eventi immagazzinati nella memoria episodica sono la base su cui si innestano strutture narrative semantiche più ampie  . In sintesi, il Tensore Narrativo evolve in modo incrementale: ad ogni nuovo frammento narrativo il modello “ricorda” l’episodio, lo integra nella sua rete di relazioni e potenzia gli schemi esistenti in modo análogo alla formazione continua di ricordi umani. Questo processo può essere modellato attraverso strutture dati come grafi di conoscenza o reti semantiche in cui ogni interazione (“evento narrativo”) arricchisce il grafo o il tensore della memoria

.

 

Architetture dati non relazionali: La persistenza di un tensore così complesso richiede un database flessibile. I database documentali NoSQL (ad es. MongoDB, Couchbase) e multi-modello (ArangoDB) sono ideali per questo scopo grazie allo schema libero e al supporto di dati annidati           . In MongoDB, per esempio, un documento JSON può contenere campi array e sub-documenti annidati, e tali array possono essere a loro volta di più dimensioni . Ciò significa che uno schema flessibile può rappresentare direttamente un tensore narrativo come struttura JSON: ogni dimensione o faccia del tensore può essere un array annidato o un set di coppie chiave-valore senza dover ridefinire lo schema a ogni espansione                                      . Caratteristiche chiave includono: – Flessibilità dello schema: i database NoSQL tollerano facilmente variazioni nei campi e nei tipi di dati. Questa dinamicità consente di aggiornare il tensore inserendo nuovi blocchi informativi (array o documenti) in maniera atomica, senza downtime né migrazioni complesse                                  . – Supporto multi-dimensionale: sia MongoDB sia Couchbase supportano array su array, mentre ArangoDB, con il suo approccio multi-modello, integra nativamente archiviazione documentale e grafi           . Per esempio, ArangoDB permette di memorizzare dati JSON e al contempo di definire relazioni (edge) tra nodi (documenti) all’interno dello stesso database                   . Ciò favorisce query complesse sul Tensore Narrativo sia come documento JSON (per l’aggiornamento incrementale) sia come grafo (per l’analisi di relazioni narrative). – Scalabilità orizzontale: i sistemi NoSQL consentono clustering e partizionamento dei dati; ciò permette di distribuire il carico man mano che il tensore cresce e di bilanciare la lettura/scrittura su più nodi, garantendo alta disponibilità e prestazioni.

 

Figura: Esempio simbolico di database NoSQL (icona di storage) che può ospitare tensori narrativi in strutture JSON/BSON.

 

Versioning e branching: Un modello narrativo persistente può registrare traiettorie alternative come versioni parallele del tensore. Concettualmente, si creano “branch” che rappresentano divergenze narrative (ad es. finali alternativi, edizioni diverse o linee temporali parallele). Tecniche di versioning a la git possono essere applicate: ogni aggiornamento del tensore può essere marcato da una nuova versione con informazioni di commit, autore, timestamp. In ambito di grafi semantici esistono approcci simili: ad esempio, il Parallel World Framework propone “contenitori paralleli” (parallel world containers) per gestire scenari temporali divergenti, garantendo isolamento e versioning dei dati . Analogamente, un Tensore Narrativo persistente potrebbe usare contenitori separati per ogni ramo narrativo, mantenendo traccia delle operazioni effettuate (es. nuovi episodi aggiunti) all’interno di ciascun ramo . In questo modo è possibile esplorare percorsi alternativi della storia senza contaminare la narrativa principale. L’alternanza tra versioni consentirebbe anche rollback o merge di storyline, agevolando esperimenti interattivi (ad es. narrativa interattiva o simulazioni educative). Ad esempio, si potrebbero definire varianti “What-if” di un articolo giornalistico o di un racconto letterario, assegnando a ciascuna percorso un proprio nodo nel grafo delle versioni.

 

Figura: Rappresentazione astratta di un grafo multidimensionale: ogni nodo può simboleggiare un frammento del tensore narrativo e le connessioni il tessuto semantico che evolve con nuove storie.

 

Modelli cognitivi di apprendimento: Il confronto con la cognizione umana è fondamentale. Nel modello di Tulving, la memoria episodica immagazzina eventi contestuali mentre la memoria semantica raccoglie conoscenze astratte; analogamente il Tensore Narrativo contiene le “istanze” letterali (episodi) e le regolarità emergenti (schemi causali, attrattori narrativi)          . Studi neurocognitivi suggeriscono che i bambini padroneggiano prima la narrazione episodica e solo successivamente si costruiscono strutture semantiche narrative complesse  . Questo si riflette anche nei sistemi di apprendimento automatico: tecniche di continual learning (apprendimento continuo) cercano di preservare la conoscenza passata mentre nuovi dati vengono assimilati, proprio per evitare l’“oblio catastrofico” . Per esempio, EMCA (Episodic Memory for Cognitive Agents) utilizza un grafo di ricordi incrementale in cui ogni evento arricchisce la memoria senza sovrascrivere del tutto le informazioni pregresse . Alla luce di queste analogie, il Tensore Narrativo può implementare meccanismi di consolidamento simili a quelli cerebrali: buffer episodico a breve termine per accogliere input in arrivo e poi integrazione nei depositi a lungo termine, oltre a politiche di recupero selettivo basate sul contesto                                                                                 .

 

Valutazione longitudinale di coerenza e qualità: Una memoria narrativa in continua espansione offre nuovi strumenti per misurare la qualità complessiva delle storie generate e delle fonti informative. Ad esempio, framework di valutazione della coerenza narrativa (come SNaC) identificano incongruenze in testi lunghi ; analoghe metriche potrebbero applicarsi al Tensore Narrativo, calcolando come l’aggiunta di nuove informazioni alteri la coerenza globale. Nel giornalismo, mantenere una coerenza a lungo termine aiuta a individuare contraddizioni e bias: fonti contraddittorie rispetto ai dati già memorizzati possono essere segnate automaticamente. In ambito letterario o pedagogico, il modello potrebbe analizzare come l’evoluzione di un tema narrativo (es. un personaggio o concetto) rimanga integrata nel racconto complessivo. Infine, la persistente traccia degli autori delle informazioni permette di assegnare pesi di affidabilità: fonti storicamente accurate otterranno maggiore credito nel tensore, mentre quelle incoerenti saranno soppesate o escluse nei calcoli di similitudine semantica. L’approccio consente dunque una valutazione longitudinale della qualità semantica: un tensore arricchito nel tempo potrà distinguere contenuti solidi da quelli deviazionali, supportando l’analisi critica di testi giornalistici, narrativi o didattici sulla base della stabilità e ricchezza semantica accumulata.

 

In sintesi, un’applicazione del Tensore Narrativo su database fisici combina concetti avanzati di linguistica computazionale e neuroscienze: utilizza lo schema flessibile di MongoDB/Couchbase e le capacità multi-modello di ArangoDB                       per accogliere strutture tensiorali dinamiche, sfrutta versioning analoghi a “mondi paralleli” per tracciare rami narrativi , e richiama i principi della memoria episodica cognitiva           per garantire un apprendimento incrementale del racconto. Questo quadro garantisce che ogni tensore cresca con l’esperienza come la memoria umana, fornendo al contempo strumenti computazionali per valutare a lungo termine la coerenza e la qualità dei contenuti.

 

Fonti: Letteratura su architetture cognitive della narrazione           , database NoSQL e multi-modello

, studi su memoria episodica e narrativa         , e ricerche recenti su memorie incrementali per agenti intelligenti                              .

 

An architecture of narrative memory

https://daneshyari.com/article/preview/6853478.pdf

drops.dagstuhl.de

https://drops.dagstuhl.de/storage/01oasics/oasics-vol045_cmn2015/OASIcs.CMN.2015.2/OASIcs.CMN.2015.2.pdf

Learning through experience:Episodic memory representation for cognitive agents | OpenReview

https://openreview.net/forum?id=0iXfS9Smqf

Relational Vs. Non-Relational Databases | MongoDB | MongoDB

https://www.mongodb.com/resources/compare/relational-vs-non-relational-databases

mongoose – How to store multidimensional array in mongodb – Stack Overflow

https://stackoverflow.com/questions/61234022/how-to-store-multidimensional-array-in-mongodb

ArangoDB vs MongoDB | Comparison and Features Overview

https://arangodb.com/solutions/comparisons/arangodb-vs-mongodb/

(PDF) A Parallel World Framework for scenario analysis in knowledge graphs https://www.researchgate.net/publication/ 343718817_A_Parallel_World_Framework_for_scenario_analysis_in_knowledge_graphs

SNaC: Coherence Error Detection for Narrative Summarization – ACL Anthology

https://aclanthology.org/2022.emnlp-main.29/