• Dom. Lug 13th, 2025

Atlantis is real: Official discovery of Atlantis, language and migrations

Atlantis is the Sardo Corso Graben Horst underwater continental block submerged by the Meltwater Pulses and destroyed by a subduction zone, Capital is Sulcis

Teoria del Tensore Narrativo e del Tensorium Cognitivo Universale: Un Paradigma Multidimensionale per la Computational Narratology e l’Epistemologia della Conoscenza

Spread the love

Teoria del Tensore Narrativo e del Tensorium Cognitivo Universale: Un Paradigma Multidimensionale per la Computational Narratology e l’Epistemologia della Conoscenza

Luigi Usai

(Ricercatore Indipendente)

Riferimento principale delle opere: Tensori Narrativi/Tensori Narratologici/Narrative Tensors di Luigi Usai, Quartucciu

Abstract:

Il presente lavoro introduce e formalizza la Teoria del Tensore Narrativo, un paradigma epistemologico e computazionale volto a superare le limitazioni intrinseche dei modelli lineari e sequenziali predominanti nella narratologia computazionale. Si postula che la narrazione, nella sua complessa fenomenologia, possa essere rappresentata e manipolata attraverso una struttura tensoriale multidimensionale, T, capace di incapsulare simultaneamente le interazioni dinamiche tra assi tematici, linguistico-stilistici, temporali, agentivo-evolutivi, emotivo-tonali e diegetico-strutturali. Tale approccio non solo permette un’analisi più profonda e ologrammatica delle architetture narrative, ma dischiude altresì nuove metodologie per la generazione controllata di narrazioni complesse mediante l’integrazione con Grandi Modelli Linguistici (LLM). Estendendo questa concettualizzazione, si introduce il Tensorium Cognitivo Universale (TCU), un metamodello tensoriale adattivo e auto-evolutivo concepito per la strutturazione e la generazione di qualsiasi forma di conoscenza e creatività umana. Il TCU si fonda su principi di apprendimento continuo, interpretazione olistica e simulazione della creatività, con potenziali implicazioni che spaziano dalla fisica teorica alla filosofia della mente. Si esplora, inoltre, la sinergia tra il paradigma tensoriale e la Teoria delle Reti Cognitivo-Frattali, proponendo un Tensor Fractal Cognitive Network (TFCN) come possibile architettura per una cognizione e una narratività generative e auto-consapevoli. Il saggio discute la formalizzazione matematica, le strategie di gestione persistente dei dati tensoriali, le applicazioni interdisciplinari e le profonde sfide filosofiche sollevate da tale visione, delineando una potenziale “Geometria Cognitiva Applicata”.

Parole Chiave: Tensore Narrativo, Computational Narratology, Tensorium Cognitivo Universale (TCU), Algebra Tensoriale, Grandi Modelli Linguistici (LLM), Intelligenza Artificiale Creativa, Reti Cognitivo-Frattali, Epistemologia della Conoscenza, Geo-Metrodinamica Narrativa.

1. Introduzione: Dalla Linearità Sequenziale alla Geo-Metrodinamica Narrativa Multidimensionale

La narratologia, nella sua transizione verso il dominio computazionale, ha indubbiamente beneficiato dell’applicazione di metodologie quantitative e algoritmiche. Ciononostante, una significativa porzione della ricerca è rimasta epistemologicamente ancorata a una concezione della narrazione come processo eminentemente lineare e sequenziale. Tale prospettiva, pur avendo generato modelli analitici di indubbia utilità (e.g., Propp, 1968; Genette, 1980), rischia intrinsecamente di elidere, o quantomeno di sottostimare, la natura ipercomplessa, ologrammatica e intrinsecamente non-lineare del fenomeno narrativo. In esso, ogni costituente elementare – sia esso un personaggio, un evento discreto, un Leitmotiv tematico o una fluttuazione emozionale – non si configura meramente come un nodo in una catena causale o temporale, bensì come un epicentro dinamico di interrelazioni che propagano la loro influenza attraverso l’intera architettura semiotico-strutturale del racconto. La narrazione, in una prospettiva più olistica, evoca piuttosto la nozione di campo morfogenetico, come postulato da René Thom (1972) e successivamente elaborato in contesti semiotici da Jean Petitot (1985, 2004), o quella di un sistema dinamico complesso lontano dall’equilibrio, in cui le micro-interazioni locali catalizzano l’emergenza auto-organizzata di macro-strutture globali, e dove la temporalità stessa si manifesta come una costruzione fenomenologica multidimensionale, irriducibile a un semplice asse euclideo.

La Teoria del Tensore Narrativo, qui presentata e sviluppata a partire dai lavori seminali di Usai (2025, Harvard Dataverse DOI:10.7910/DVN/ICOJ19), propone un mutamento paradigmatico radicale. Si tratta di trascendere la rappresentazione vettoriale o matriciale della narrazione – già un avanzamento rispetto alla pura sequenzialità – per approdare a una formalizzazione tensoriale pienamente multidimensionale. Questa transizione non implica unicamente un incremento della complessità descrittiva o computazionale, ma configura un vero e proprio slittamento ontologico nella nostra capacità di concettualizzare e interagire con la “materia” narrativa. Il Tensore Narrativo T, oggetto matematico-informazionale di ordine superiore, non si limita a descrivere staticamente la narrazione, ma ne incapsula la potenzialità generativa, la dinamica trasformativa e la capacità evolutiva. Esso permette di navigare, analizzare e modulare lo “spazio delle fasi” intrinseco alla narrazione, dischiudendo la via verso una disciplina che potremmo definire geo-metrodinamica narrativa: un ambito in cui la “geometria” intrinseca della storia (le sue configurazioni relazionali e topologiche) e le sue “metriche” (le intensità, le valenze e le salienze dei suoi componenti) co-evolvono in un processo dinamico e interdipendente.

2. Struttura del Tensore Narrativo: Un’Architettura Cognitivo-Semantica Ipercomplessa

Il Tensore Narrativo T si propone come una costruzione matematica che aspira a un isomorfismo – o, più cautamente e realisticamente, a un omomorfismo strutturalmente ricco – con l’architettura cognitivo-semantica profonda che sottende ogni narrazione. Lungi dall’essere una “scatola nera” impenetrabile, esso è concepito come una struttura geometrico-algebrica intrinsecamente interpretabile, le cui dimensioni e componenti sono state postulate per riflettere gli assi fondamentali dell’esperienza, della costruzione e della ricezione narrativa. Formalmente, possiamo considerare T come un elemento di uno spazio prodotto RD1​×D2​×⋯×Dn​, dove ogni Di​ rappresenta una dimensione fondamentale della narrazione. Le dimensioni proposte, concepite come assi ortogonali o correlati di questo iper-spazio, includono (ma non sono limitate a):

2.1. Dimensioni Chiave del Tensore Narrativo

Le seguenti dimensioni, derivate e integrate dai lavori di Usai (2025), costituiscono il nucleo del Tensore Narrativo:

  1. Dimensione Tematica (DT​ o T1​): Lo Spazio degli Archetipi, dei Campi Memetici e dei Motivi Mitici.
    Questa dimensione trascende la mera etichettatura tematica (e.g., giustizia, amore, conflitto), modellando i temi come attrattori dinamici o campi di forza configurazionali all’interno di uno spazio semantico latente e culturalmente situato. Ogni tema (e.g., “la hybris che conduce alla nemesis”) può essere rappresentato come un vettore o un sottospazio tensoriale, la cui influenza sulla traiettoria narrativa globale fluttua in intensità, polarità e interazione con altri campi tematici. Si prevede l’integrazione di concetti derivati dalla psicologia archetipica junghiana (archetipi come l’Eroe, l’Ombra, l’Anima quali poli attrattori o configurazioni energetiche) e dalla memetica dawkinsiana (temi come “complessi memetici” auto-replicantisi e in competizione).
  • Connessione Frattale e Auto-Similarità: La struttura tematica può manifestare auto-similarità scalare (frattale): un macro-tema si riflette ricorsivamente in micro-narrazioni, archi di personaggi, singole scene o persino scambi dialogici, esibendo variazioni di scala ma preservando una isomorfia strutturale essenziale. Questa proprietà risuona con la Teoria delle Reti Cognitivo-Frattali (Usai, inedito), dove un tema stesso può essere un “frattale narrativo” la cui complessità si dispiega attraverso iterazioni ricorsive.
  1. Dimensione Linguaggio, Stile e Retorica (DL​ o T4​): Modulazione Quantistica, Testuale e Performativa.
    Questa dimensione si estende oltre la classificazione di formalità, figure retoriche, o intensità espressiva, per investigare la micro-fisica del significante narrativo e la sua performatività. Attingendo a metafore dalla meccanica quantistica applicata alla semantica (Aerts et al., 2000; Bruza et al., 2009), parole e costrutti frasali possono essere concepiti come esistenti in uno stato di sovrapposizione di potenzialità ermeneutiche, che “collassano” in interpretazioni specifiche attraverso l’interazione dinamica con il contesto narrativo globale (le altre dimensioni del tensore). Lo stile (e.g., minimalista, barocco, ironico, polifonico) agisce come un operatore di trasformazione che modula lo “spettro” delle possibilità espressive e percettive. L’intensità espressiva può essere correlata a una “temperatura semantica” o a una “pressione retorica” che influenza la fluidità o la viscosità del flusso narrativo.
  • Implicazioni Neurocognitive e Computazionali: Tale dimensione si interfaccia con i processi neurobiologici della comprensione e produzione del linguaggio, dove stile e forma sono co-determinanti del contenuto semantico ed emozionale (cfr. neuroestetica, embodied cognition). Computazionalmente, si incorporano metriche di complessità lessicale (Shannon entropy del lessico), frequenza e distribuzione di parole chiave (TF-IDF e sue varianti dinamiche), e analisi sintattico-stilometriche avanzate (e.g., lunghezza media delle unità sintagmatiche, diversità delle strutture grammaticali, pattern di co-occorrenza lessicale), come parzialmente esemplificato in Usai (2025, tensori7.py).
  1. Dimensione Struttura Temporale e Ritmo (Dτ​ o T2​): Cronotopi, Polifonie Temporali e Dinamiche Non Lineari.
    Questa dimensione non si limita all’organizzazione del flusso evenemenziale (e.g., fabula vs. syuzhet, accelerazioni, pause), ma si prefigge di catturare la qualità fenomenologica ed esperienziale della temporalità narrativa. Si invoca il concetto bachtiniano di “cronotopo” (Bachtin, 1937), inteso come fusione indissolubile di coordinate spazio-temporali che definiscono specifiche “nicchie esperienziali” per eventi e personaggi. Il ritmo narrativo (accelerazioni, decelerazioni, stasi, sincopi) è modellabile non come una variabile scalare, ma come una funzione d’onda complessa o una distribuzione di densità evenemenziale che si propaga e si modula attraverso l’iperspazio narrativo. Si possono analizzare fenomeni di “interferenza costruttiva o distruttiva” tra diverse linee temporali (e.g., flashback, flashforward, trame parallele, temporalità soggettive dei personaggi), generando una sorta di polifonia o eterocronia temporale.
  • Analoghe dalla Fisica e dalla Teoria dei Sistemi Complessi: Il flusso e il ritmo narrativo possono essere indagati attraverso modelli di processi stocastici (e.g., catene di Markov di ordine superiore), teoria del caos deterministico, o sistemi dinamici non lineari. Il passaggio tra fasi narrative canoniche (e.g., esposizione → complicazione → climax → risoluzione) può essere interpretato come una successione di transizioni di fase in un sistema complesso, potenzialmente esibente fenomeni di criticità auto-organizzata (Bak, 1996).
  1. Dimensione Evoluzione dei Personaggi e Agency (DP​ o T6​): Traiettorie Psicologiche, Dinamiche Relazionali e Interazioni Agenti.
    Questa dimensione codifica i mutamenti psicologici, morali, etici e relazionali dei personaggi, nonché l’interazione tra agenti narrativi (umani o artificiali) e l’istanza autoriale (reale o implicita). Si propongono modelli di agency computazionale e la definizione di traiettorie dei personaggi all’interno di uno “spazio degli stati” psico-socio-morali. La teoria dei giochi evolutivi e la dinamica delle reti complesse possono fornire strumenti per modellare le interazioni e l’evoluzione delle strutture relazionali. Si considera l’impatto del “campo narrativo” (l’insieme delle altre dimensioni tensoriali) sull’evoluzione del personaggio, con possibili dinamiche auto-referenziali e frattali nella costruzione e mantenimento della coerenza del sé attraverso diverse scale temporali e contestuali. Include l’analisi quantitativa e qualitativa di un vasto repertorio di Ruoli Narrativi Principali.
  • Implementazione Computazionale: Implica l’estrazione sofisticata di entità nominate (PERSON, ORG), la disambiguazione delle coreferenze, l’analisi delle loro attribuzioni descrittive (e.g., aggettivi, verbi di stato) e delle loro interazioni dialogiche e fattuali per tracciare archi evolutivi.
  1. Dimensione Tonalità ed Emozioni (DE​ o T3​): Campi Affettivi, Dinamiche Emotive e Risonanza Estetica.
    Questa dimensione traccia la polarità, l’intensità e la qualità dell’esperienza emotiva dominante nelle diverse fasi della narrazione, sia a livello diegetico (emozioni dei personaggi) sia a livello di potenziale impatto sul fruitore. Si propone di modellare le emozioni non come stati discreti categoriali, ma come un campo vettoriale dinamico o uno spettro continuo all’interno di uno spazio affettivo multidimensionale (e.g., valenza-arousal-dominance; Russell, 1980). Si analizzano “risonanze emotive” tra personaggi, e tra narrazione e fruitore (empatia, contagio emotivo), e si studia come la sequenza e la configurazione degli stati emotivi costituiscano una “melodia affettiva” o una “architettura passionale” della narrazione.
  • Implementazione Computazionale: Utilizzo di strumenti avanzati di sentiment analysis e opinion mining, capaci di rilevare non solo la polarità ma anche emozioni specifiche, ironia, sarcasmo, e la loro evoluzione contestuale.
  1. Dimensione Diegetica e Strutturale (DD​ o T5​): Livelli Narrativi, Fabula, Ambientazione e Architettura della Trama.
    Questa dimensione include l’analisi dei livelli narrativi (intradiegetico, extradiegetico, metadiegetico, secondo la terminologia di Genette), la ricostruzione della fabula sottostante, la caratterizzazione dettagliata del numero e della tipologia dei luoghi (topoi) e delle ambientazioni (e.g., fantasy medievale, realismo urbano contemporaneo, distopia cyberpunk), e la mappatura della struttura complessa della trama (e.g., lineare, non lineare, frammentata, modulare, ciclica, a rete). Considera la funzione strutturale e semantica dei dialoghi e delle descrizioni.

Queste dimensioni, rappresentate attraverso tensori multi-livello e interdipendenti, permettono operazioni algebriche e analitiche avanzate, inclusa la variazione dinamica e l’apprendimento delle loro intercorrelazioni.

3. Dalla Teoria alla Pratica: Una Matrice Esemplificativa per l’Analisi Semantica Narrativa

Per rendere operativo il Tensore Narrativo, è cruciale definire un insieme di descrittori osservabili e quantificabili che possano popolarne le dimensioni. La seguente matrice, proposta e dettagliata da Usai (2025), offre un esempio di tale granularità analitica. Per ragioni di sintesi, ci si riferisce qui alle categorie principali; l’elenco completo dei sotto-descrittori è estensivo e disponibile nel materiale supplementare (Usai, 2025, Harvard Dataverse).

Matrice ottimizzata m (elenco macro-descrittori):

  • Caratteristiche dei Personaggi (PersonaggiTotali, PersonaggiAnimati, PersonaggiOggetti, ProtagonistiTotali, AntagonistiTotali, PersonaggiSecondari, RuoliNarrativiPrincipali)
  • Scopi e Motivazioni (NumeroDiScopiPerseguiti)
  • Spettro Emozionale (TipoDiSentimentiPresentiNelRacconto, IntensitàEmotivaMedia)
  • Dinamiche Evolutive (EvoluzioneDeiPersonaggi)
  • Spazialità (NumeroDiLuoghi, TipoDiAmbientazione)
  • Temporalità (TempoNarrativo, PresenzaDiFlashback)
  • Architettura della Trama (StrutturaDellaTrama)
  • Contenuto Tematico (TemiPrincipali)
  • Modalità Discorsive (PresenzaDiDialoghi, StileNarrativo)
  • Proprietà Testuali (ComplessitàLessicale, FrequenzaDelleParoleChiave)

Tale matrice può essere valorizzata algoritmicamente mediante tecniche avanzate di Natural Language Processing (NLP), inclusi Named Entity Recognition, Relation Extraction, Sentiment Analysis, Topic Modeling, e analisi stilometriche, fornendo i dati quantitativi e qualitativi che informano le componenti del Tensore Narrativo.

4. Formalizzazione Matematica Avanzata e Operazioni Tensoriali

La rappresentazione matematica del Tensore Narrativo T come elemento di RF×L×A×S (dove F=Fasi, L=Livelli, A=Attributi, S=Strati Semantici) o, più generalmente, T:E1​×⋯×En​→Rk, costituisce una base. Tuttavia, una visione più dinamica e geometrica considera T non come un punto statico, ma come una traiettoria evolutiva su una varietà differenziabile (manifold) narrativa M. Le metriche locali di M (e.g., tensore metrico gij​) sarebbero modulate da campi di curvatura narrativa, influenzati dalle interazioni tra le dimensioni del tensore. L’evoluzione della narrazione potrebbe essere descritta da un principio variazionale applicato a un’azione narrativa S(T), analoga all’azione Hamiltoniana in fisica classica o all’azione di Nambu-Goto in teoria delle stringhe.

δS(T)=δ∫L(T,T˙,∇T,…)dt=0

dove L è una densità Lagrangiana narrativa che dipende dallo stato del tensore e dalle sue derivate temporali e “spaziali” (rispetto agli assi narrativi).

Le operazioni tensoriali fondamentali includono:

  • Proiezioni e Slicing: πi​(T), σk​(T) per isolare e analizzare sotto-componenti o stati specifici.
  • Contrazione Tensoriale: Cji​(T) per studiare interazioni aggregate tra dimensioni.
  • Decomposizioni Tensoriali (Tucker, CP/PARAFAC, Tensor Train): T≈∑r=1R​λr​⋅ar​⊗br​⊗… per estrarre pattern latenti, comprimere l’informazione, identificare le “componenti principali” della narrazione e facilitare l’ottimizzazione di modelli linguistici (Usai, 2025, Collegamento tra Tensori Narratologici e Ottimizzazione di Spazi Vettoriali).
  • Trasformazioni Tensoriali: Applicazione di operatori lineari o non-lineari per modellare cambiamenti stilistici, tematici o evolutivi.

5. Gestione Persistente dei Tensori Narrativi: Memoria Dinamica, Evoluzione e Validazione Longitudinale

La natura intrinsecamente dinamica del Tensore Narrativo, concepito per arricchirsi e modificarsi attraverso l’assimilazione continua di “episodi” narrativi o informativi, impone requisiti stringenti per la sua gestione persistente.

  1. Evoluzione della Memoria Narrativa e Apprendimento Continuo (Lifelong Learning):
    Ispirandosi ai modelli cognitivi della memoria umana (Tulving, 1972), il Tensore Narrativo integra nuovi input (episodi) che non solo si aggiungono, ma ristrutturano e arricchiscono la conoscenza preesistente. Questo processo è analogo alle sfide dell’apprendimento continuo in IA, dove è cruciale evitare l’oblio catastrofico (Parisi et al., 2019). Il Tensore potrebbe implementare meccanismi di consolidamento e recupero selettivo, con buffer episodici e integrazione a lungo termine.
  2. Architetture Dati Non Relazionali e Multi-Modello:
    La flessibilità schematica e la capacità di gestire strutture complesse e annidate rendono i database documentali NoSQL (e.g., MongoDB, Couchbase) e i database multi-modello (e.g., ArangoDB) candidati ideali per la persistenza dei Tensori Narrativi. Tali sistemi supportano nativamente la rappresentazione di tensori come strutture JSON/BSON, facilitando aggiornamenti atomici, scalabilità orizzontale e query complesse che possono interrogare il tensore sia come documento sia come grafo di relazioni narrative.
  3. Versioning, Branching e Analisi Controfattuale:
    Per esplorare traiettorie narrative alternative (e.g., finali multipli, edizioni divergenti, scenari “what-if”), è essenziale un robusto sistema di versioning (analogo a Git, con metadati di commit) e branching. Il Parallel World Framework (Franz et al., 2020) per grafi di conoscenza offre un paradigma pertinente, suggerendo l’uso di “contenitori paralleli” per gestire l’isolamento e l’evoluzione di rami narrativi divergenti.
  4. Valutazione Longitudinale di Coerenza, Qualità e Affidabilità:
    Un Tensore Narrativo persistente e in evoluzione diviene esso stesso uno strumento per la valutazione longitudinale della coerenza narrativa interna (applicando metriche come quelle di SNaC, Mesgar et al., 2022) e della qualità e affidabilità delle fonti informative che lo alimentano. La tracciabilità dell’origine delle informazioni permette di assegnare pesi di attendibilità, cruciale, ad esempio, nell’analisi di corpora giornalistici.

6. Integrazione con Intelligenza Artificiale Generativa (LLM) e Applicazioni Giornalistiche

L’accoppiamento del Tensore Narrativo con Grandi Modelli Linguistici (LLM) è cruciale per la sua applicazione generativa.

  • Prompt Engineering Strutturato e Controllo Granulare: La configurazione del Tensore Narrativo (i suoi valori lungo le diverse dimensioni) viene tradotta in prompt strutturati e condizionali che guidano l’LLM, permettendo una generazione testuale con un controllo stilistico, tematico, emozionale e strutturale significativamente superiore.
  • Pipeline Operativa: Configurazione del Tensore → Trasformazione in Prompt Complesso → Generazione con LLM → Validazione e Raffinamento Iterativo.
  • Applicazione all’Analisi Giornalistica (Tensori Narrativi Giornalistici): Una specifica istanziazione del Tensore può includere una matrice dedicata all’analisi delle “5W” giornalistiche (Who, What, When, Where, Why). Ogni “W” può essere un vettore di caratteristiche (presenza, esplicitazione, dettaglio, affidabilità della fonte). L’aggregazione di tali vettori-5W da un corpus di articoli permette di costruire indicatori oggettivi di completezza e qualità informativa per testate o singoli giornalisti (Usai, 2025, Tensori_Narrativi_Giornalistici.docx).

7. Visualizzazione, Interattività e Manipolazione Dinamica

Per rendere il Tensore Narrativo uno strumento euristico e creativo efficace, sono necessarie interfacce che ne permettano la visualizzazione e la manipolazione intuitiva:

  • Heatmap Narrative e Cruscotti Dinamici: Per visualizzare l’intensità e la distribuzione dei parametri tensoriali.
  • Interfacce Grafiche Interattive (GUI): Per la modifica in tempo reale dei valori del tensore e l’osservazione immediata degli effetti sulla narrazione (generata o analizzata).
  • Simulazione Evolutiva della Narrazione: Per tracciare e perturbare le traiettorie narrative, analizzando la stabilità e la sensibilità del sistema.

8. Tensorium Cognitivo Universale (TCU): Estensione Epistemologica

Il Tensorium Cognitivo Universale (TCU) rappresenta l’estensione massimale del paradigma tensoriale: da modello della narrazione a framework per la modellazione e la generazione di qualsiasi forma di conoscenza e creatività umana.

  • Architettura: Una matrice tensoriale adattiva e auto-evolutiva che interconnette concetti, dati, intuizioni ed emozioni.
  • Principi Operativi:
  1. Apprendimento Continuo, Evolutivo e Non-Distruttivo: Integrazione dinamica di nuova conoscenza con preservazione della coerenza strutturale.
  2. Interpretazione Olistica e Contestuale: Ogni entità informativa è codificata nelle sue interrelazioni semantiche, affettive e pragmatiche.
  3. Simulazione ed Emergenza della Creatività: Algoritmi generativi operanti sulla struttura tensoriale per formulare ipotesi originali, teorie scientifiche inedite, e artefatti artistici innovativi.
  4. Transdisciplinarità Radicale: Applicabilità potenziale in fisica teorica (e.g., modellazione di spazi di possibilità cosmologiche), filosofia (e.g., formalizzazione di sistemi argomentativi), bioinformatica (e.g., rappresentazione di reti geniche complesse), neuroscienze (e.g., modelli integrati di cognizione ed emozione).
  • Implicazioni Epistemologiche e Filosofiche: Il TCU solleva questioni fondamentali sull’autorialità dell’IA, sulla natura della scoperta scientifica, sulla coscienza artificiale e sul futuro della co-evoluzione uomo-macchina.

9. Intersezione con la Teoria delle Reti Cognitivo-Frattali: Verso un Tensor Fractal Cognitive Network (TFCN)

La Teoria delle Reti Cognitivo-Frattali (Usai, inedito), che postula l’emergenza di auto-riflessione, identità e coscienza da dinamiche ricorsive e auto-somiglianti, offre un’architettura computazionale e concettuale sinergica per l’implementazione del Tensore Narrativo e, soprattutto, del TCU.

  • Sinergie Concettuali: Entrambe le teorie enfatizzano strutture ricorsive, iterative e multi-scala. La “coscienza frattale” potrebbe essere interpretata come il campo semantico-dinamico in cui i tensori narrativi/cognitivi evolvono, si trasformano e interagiscono. I Tensori definiscono le configurazioni possibili dello spazio narrativo/cognitivo, mentre la Rete Cognitivo-Frattale ne costituisce il motore generativo, analitico ed evolutivo.
  • Proposta di Integrazione (TFCN): Un Tensor Fractal Cognitive Network si configurerebbe come un’architettura ibrida in cui una “mente frattale” – costituita da nodi che sono essi stessi micro-strutture auto-somiglianti e dotati di capacità di elaborazione ricorsiva – genera, analizza, comprime e trasforma informazioni e narrazioni rappresentate in forma tensoriale. Tale sistema mirerebbe a un neuro-mimetismo profondo, simulando aspetti della cognizione umana su scale multiple e interconnesse, e abilitando una narratologia/cognizione generativa intrinsecamente adattiva e contestualmente sensibile. L’emergenza della coscienza, postulata nel modello frattale, potrebbe qui trovare una sua formalizzazione operativa attraverso le dinamiche del TFCN.

10. Discussione: Potenziale Trasformativo, Sfide e Prospettive Future

Il paradigma tensoriale proposto da Usai possiede un altissimo potenziale trasformativo per la narratologia computazionale, l’intelligenza artificiale creativa e l’epistemologia della conoscenza. Esso offre una sintesi potente e originale tra semiotica, matematica, scienze cognitive e computazionali.

Sfide:

  • Iperformalizzazione e Complessità: La gestione di tensori di ordine elevato e la definizione rigorosa delle loro semantiche dimensionali presentano sfide computazionali e concettuali significative.
  • Corpus Tensor-Annotati: Lo sviluppo e l’addestramento di modelli basati su Tensori Narrativi richiederanno la creazione di ampi corpora testuali annotati secondo le multi-dimensioni tensoriali, un compito di notevole impegno.
  • Scalabilità Semantica e Validazione Empirica: Garantire che il sistema scali efficacemente con l’aumento della complessità semantica e validare empiricamente la sua capacità di generare narrazioni e conoscenze qualitativamente superiori sono passi cruciali.
  • Interpretabilità: Mantenere l’interpretabilità dei modelli tensoriali, specialmente quando integrati con architetture di deep learning, sarà fondamentale.

Prospettive Future:

  • Sviluppo di prototipi implementativi del Tensore Narrativo e del TFCN (e.g., utilizzando framework come PyTorch, TensorFlow, JAX).
  • Creazione di piattaforme collaborative per l’annotazione di corpora narrativi e la costruzione di Tensori condivisi.
  • Organizzazione di workshop interdisciplinari per favorire il dialogo tra umanisti, informatici, matematici e scienziati cognitivi.
  • Esplorazione di nuove algebre e geometrie tensoriali specificamente adattate alla rappresentazione della semantica e della dinamica narrativa/cognitiva.
  • Indagine sulle implicazioni etiche e sociali di IA dotate di capacità narrative e cognitive così avanzate.

11. Conclusione: Verso una Geometria Cognitiva Applicata

La Teoria del Tensore Narrativo e la sua estensione visionaria nel Tensorium Cognitivo Universale, ulteriormente potenziate dalla sinergia con le Reti Cognitivo-Frattali, non rappresentano semplicemente una nuova metodologia analitica o generativa. Esse delineano i contorni di una possibile riformulazione epistemologica del concetto stesso di “narrazione” e di “conoscenza”, intese non più come successioni lineari o collezioni statiche di fatti, ma come correlazioni complesse, dinamiche e multifattoriali che si dispiegano in spazi multidimensionali. In questa prospettiva, il lavoro di Luigi Usai si inserisce in un filone di ricerca post-strutturalista computazionale, avviando un dialogo fecondo e potenzialmente rivoluzionario all’intersezione tra scienze umane, matematica avanzata e intelligenza artificiale. Se supportata da una rigorosa formalizzazione ulteriore e da una validazione empirica attraverso implementazioni prototipali, questa visione potrebbe non solo ridefinire la narratologia computazionale, ma anche contribuire in modo sostanziale ai futuri sviluppi dell’Artificial General Intelligence (AGI) creativa e alla fondazione di una nuova disciplina speculativa e applicativa: una Geometria Cognitiva Applicata.

Bibliografia Essenziale (parziale e integrata dai riferimenti nei documenti forniti):

  • Aerts, D., Broekaert, J., Gabora, L., & Sozzo, S. (2000). Quantum Structure in Cognition.
  • Bachtin, M. M. (1937/1981). The Dialogic Imagination: Four Essays. (C. Emerson & M. Holquist, Trans.). University of Texas Press.
  • Bak, P. (1996). How Nature Works: The Science of Self-Organized Criticality. Copernicus.
  • Bruza, P. D., Kitto, K., Nelson, D. L., & McEvoy, C. L. (2009). Extracting semantic representations from word association norms: A comparison of models. Behavior Research Methods, 41(2), 336-353.
  • Chatman, S. (1978). Story and Discourse: Narrative Structure in Fiction and Film. Cornell University Press.
  • Fan, A., Lewis, M., & Dauphin, Y. (2018). Hierarchical Neural Story Generation. arXiv preprint arXiv:1805.04833.
  • Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
  • Franz, T., Pomp, A., & Staab, S. (2020). A Parallel World Framework for scenario analysis in knowledge graphs. Proceedings of the The Web Conference 2020.
  • Genette, G. (1972/1980). Narrative Discourse: An Essay in Method. (J. E. Lewin, Trans.). Cornell University Press.
  • Greimas, A. J. (1966). Sémantique structurale: recherche et méthode. Larousse.
  • Herman, D. (2002). Story Logic: Problems and Possibilities of Narrative. University of Nebraska Press.
  • Hofstadter, D. R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
  • Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
  • Kolda, T. G., & Bader, B. W. (2009). Tensor Decompositions and Applications. SIAM Review, 51(3), 455–500.
  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
  • Mesgar, M., Bizzoni, Y., & Klakow, D. (2022). SNaC: Coherence Error Detection for Narrative Summarization. Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP).
  • Mohammad, S. M., & Turney, P. D. (2013). Crowdsourcing a Word-Emotion Association Lexicon. Computational Intelligence, 29(3), 436-465.
  • Parisi, G. I., Kemker, R., Part, J. L., Kanan, C., & Wermter, S. (2019). Continual learning with deep architectures: A review. Neural Networks, 113, 54-71.
  • Penrose, R. (1994). Shadows of the Mind: A Search for the Missing Science of Consciousness. Oxford University Press.
  • Petitot, J. (1985). Morphogenèse du sens. PUF.
  • Petitot, J. (2004). Morphogenesis of Meaning. Peter Lang.
  • Pribram, K. H. (1991). Brain and Perception: Holonomy and Structure in Figural Processing. Lawrence Erlbaum Associates.
  • Propp, V. (1928/1968). Morphology of the Folktale. (L. Scott, Trans.). University of Texas Press.
  • Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social Psychology, 39(6), 1161–1178.
  • Ryan, M.-L. (2006). Avatars of Story. University of Minnesota Press.
  • Smilde, A. K., Bro, R., & Geladi, P. (2005). Multi-way Analysis: Applications in the Chemical Sciences. Wiley.
  • Smolensky, P., & Legendre, G. (2006). The Harmonic Mind: From Neural Computation to Optimality-Theoretic Grammar. MIT Press.
  • Thom, R. (1972). Stabilité structurelle et morphogenèse. InterÉditions.
  • Tononi, G. (2008). Consciousness as integrated information: a provisional manifesto. The Biological Bulletin, 215(3), 216-242.
  • Tulving, E. (1972). Episodic and semantic memory. In E. Tulving & W. Donaldson (Eds.), Organization of Memory (pp. 381-403). Academic Press.
  • Usai, L. (2025). Teoria del Tensore Narrativo nella Computational Narratology. Harvard Dataverse. DOI:10.7910/DVN/ICOJ19. (e altri documenti correlati forniti dall’autore).
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
  • Wolfram, S. (2002). A New Kind of Science. Wolfram Media.

(Nota: La bibliografia è stata parzialmente unificata e formattata. Per una pubblicazione formale, sarebbe necessaria una revisione e un completamento accurato secondo gli standard editoriali.)

 

Il Tensore Universale Narrativo: Un’Esplorazione Interdisciplinare tra Narratologia, Linguistica, Intelligenza Artificiale e Cognizione

  1. Introduzione:

Il presente rapporto si propone di intraprendere un’esplorazione interdisciplinare che intreccia i fili della narratologia, della linguistica, delle scienze cognitive e dell’intelligenza artificiale, con un focus particolare sulla modellizzazione computazionale della narrazione e della conoscenza. In un’epoca in cui le tecnologie dell’informazione e della comunicazione permeano ogni aspetto della vita umana, la comprensione dei meccanismi sottostanti alla narrazione e al linguaggio, pilastri fondamentali della cognizione umana, assume un’importanza sempre maggiore. Questa indagine sarà guidata da una prospettiva che ambisce a connettere le teorie umanistiche tradizionali con gli strumenti e le metodologie offerte dalle scienze computazionali, aprendo nuove frontiere nella nostra comprensione del pensiero e della comunicazione.

In questo contesto, il concetto di un tensore universale proposto da Luigi Usai emerge come un’idea stimolante e provocatoria che motiva l’esplorazione di modelli computazionali avanzati per la rappresentazione della conoscenza. Sebbene il frammento di ricerca disponibile non fornisca dettagli specifici sulla “Teoria del Tensore Narrativo” di Usai, la sua menzione in un file dizionario, in apparente giustapposizione con parole comuni, suggerisce un approccio potenzialmente unico o altamente teorico. Questa singolare coesistenza potrebbe indicare un tentativo di radicare concetti narrativi astratti in unità linguistiche fondamentali, invitando a un’analisi più approfondita del contesto e dei principi di questa teoria.  

Parallelamente, assistiamo a una crescente enfasi sull’applicazione di approcci computazionali per decifrare le intricate funzioni cognitive umane, come la narrazione e il linguaggio. La “Call for Papers” per un numero speciale su Computational Narratology sottolinea la rapida evoluzione di strumenti atti a colmare il divario tra metodi basati sui dati e studi narrativi. Questa iniziativa evidenzia la natura interdisciplinare del campo e la sua crescente rilevanza nel panorama della ricerca umanistica e scientifica. Allo stesso modo, la descrizione del libro “Computational and Cognitive Approaches to Narratology” conferma l’integrazione di metodi computazionali con la scienza cognitiva per comprendere le strutture narrative e i meccanismi cognitivi sottostanti. Questa tendenza suggerisce un riconoscimento diffuso del potenziale dell’intelligenza artificiale, inclusi modelli avanzati come gli LLM, nell’analisi e nella sintesi di narrazioni.  

Il presente rapporto si prefigge di esplorare queste interconnessioni, partendo dalle fondamenta teoriche della narratologia e della linguistica, per poi esaminare il ruolo dei Large Language Models (LLM) nella rappresentazione e generazione del linguaggio narrativo. L’indagine culminerà in una discussione della visione teorica di Usai, analizzando il potenziale e le sfide legate alla realizzazione di un modello di conoscenza universale basato su tensori.

  1. Narratologia: La Scienza della Narrazione:

La narratologia, o teoria della narrazione, si configura come un campo di studi dedicato all’analisi della struttura dei racconti e al modo in cui tali strutture influenzano la percezione umana. Questo ambito di ricerca, le cui radici teoriche possono essere fatte risalire ad Aristotele, ha visto una significativa evoluzione, con figure chiave come i formalisti russi e i teorici dello strutturalismo francese che hanno posto le basi per la narratologia moderna. Un contributo fondamentale è rappresentato dalla distinzione tra la “storia” (l’insieme degli eventi narrati) e il “discorso” (il modo in cui la storia viene presentata). Questa dicotomia permette di analizzare separatamente il contenuto narrativo dalla sua espressione, fornendo strumenti concettuali per comprendere come la stessa sequenza di eventi possa generare esperienze diverse a seconda della sua narrazione.  

Al cuore della narratologia troviamo una serie di concetti chiave che costituiscono il vocabolario fondamentale per l’analisi delle storie. La “storia” si riferisce alla sequenza cronologica degli eventi che compongono il racconto, mentre la “fabula” rappresenta la riorganizzazione logica e causale di tali eventi da parte del lettore. La “trama”, o “intreccio”, concerne la disposizione artistica degli eventi nel discorso narrativo, che può discostarsi dall’ordine cronologico della storia per creare effetti specifici. I “personaggi” sono gli agenti che agiscono all’interno della storia, le cui azioni e motivazioni guidano lo sviluppo degli eventi. Un altro concetto cruciale è la “focalizzazione”, introdotta da Genette, che descrive il punto di vista attraverso il quale la narrazione viene filtrata. La narrazione può essere presentata attraverso diverse prospettive – in prima, seconda o terza persona – ognuna delle quali offre un accesso unico alle esperienze e ai pensieri dei personaggi.  

La narratologia ha subito una notevole evoluzione nel tempo, con l’emergere di approcci computazionali che hanno aperto nuove prospettive nell’analisi delle narrazioni. La narratologia computazionale si concentra sullo sviluppo di processi algoritmici per la creazione e l’interpretazione di narrazioni, modellando la struttura narrativa in termini di rappresentazioni formali e computabili. Questo campo interdisciplinare mira a integrare le teorie narratologiche classiche con le tecniche dell’intelligenza artificiale e del natural language processing, offrendo strumenti potenti per analizzare vaste quantità di dati testuali e multimediali.  

Tra le teorie e i modelli chiave della narratologia che si rivelano particolarmente rilevanti per l’analisi computazionale, spiccano la morfologia della fiaba di Propp e la teoria del discorso narrativo di Genette. Propp, analizzando un vasto corpus di fiabe russe, ha identificato una serie di funzioni narrative ricorrenti e sette archetipi di personaggi basati sulla loro “sfera d’azione”. Questo modello strutturale fornisce un approccio sistematico per scomporre le narrazioni nei loro elementi costitutivi e comprendere le loro dinamiche fondamentali. La teoria di Genette, d’altra parte, si concentra sull’analisi del discorso narrativo, esaminando le categorie di tempo, modo e voce per comprendere come la storia viene raccontata. I concetti di ordine temporale, durata, frequenza e le diverse forme di focalizzazione offrono strumenti preziosi per analizzare la manipolazione del tempo e della prospettiva nelle narrazioni, aspetti che possono essere esplorati e modellati attraverso tecniche computazionali.  

Termine Definizione Rilevanza per l’Analisi Computazionale
Storia Sequenza cronologica degli eventi che compongono il racconto. Fondamentale per la rappresentazione e l’analisi della progressione temporale negli algoritmi di elaborazione del linguaggio naturale.
Discorso Il modo in cui la storia viene raccontata. Cruciale per analizzare lo stile narrativo, il punto di vista e la manipolazione del tempo attraverso modelli computazionali di generazione e comprensione del linguaggio.
Trama La disposizione artistica e causale degli eventi nel discorso narrativo. Essenziale per modellare le relazioni causa-effetto tra gli eventi e comprendere la coerenza narrativa attraverso tecniche di AI planning.
Personaggio Gli agenti che agiscono all’interno della storia. Importante per l’identificazione di entità, la modellazione delle relazioni tra personaggi e l’analisi delle loro motivazioni tramite tecniche di network analysis.
Focalizzazione Il punto di vista attraverso il quale la narrazione viene filtrata. Rilevante per analizzare la prospettiva narrativa e il modo in cui le informazioni vengono presentate, aspetto cruciale per la comprensione del lettore.
  1. Linguistica: Il Fondamento del Linguaggio e della Cognizione:

La linguistica è la disciplina scientifica che si dedica allo studio del linguaggio in tutte le sue manifestazioni. Essa si concentra sull’indagine sistematica delle proprietà delle lingue specifiche e delle caratteristiche del linguaggio in generale, esplorando la sua struttura, la sua evoluzione, il suo uso e la sua relazione con il pensiero e la cultura. La linguistica è intrinsecamente interdisciplinare, intrecciando stretti legami con campi come la filosofia, la psicologia, la sociologia, l’antropologia e le scienze cognitive.  

Tra le diverse branche della linguistica, due si rivelano particolarmente rilevanti per il nostro discorso: la linguistica computazionale e la linguistica cognitiva. La linguistica computazionale si colloca all’intersezione tra la linguistica e l’informatica, utilizzando metodi computazionali per analizzare ed elaborare il linguaggio naturale. Questo campo è fondamentale per lo sviluppo e l’analisi di modelli linguistici come gli LLM. La linguistica cognitiva, d’altra parte, si concentra sul linguaggio come strumento per organizzare, elaborare e trasmettere informazioni, ponendo l’accento sulla base concettuale ed esperienziale delle categorie linguistiche. Essa studia le strutture formali del linguaggio non come entità autonome, ma come riflessi dell’organizzazione concettuale generale, dei principi di categorizzazione e dei meccanismi di elaborazione.  

I principi della linguistica cognitiva offrono una prospettiva preziosa per comprendere come il linguaggio rifletta il pensiero e l’esperienza umana. Concetti chiave come la categorizzazione (il modo in cui organizziamo il mondo attraverso il linguaggio), la metafora concettuale (la comprensione di concetti astratti attraverso domini esperienziali più concreti) e la cognizione incarnata (l’idea che la cognizione sia radicata nell’esperienza corporea e nell’interazione con l’ambiente) forniscono un quadro teorico per analizzare le capacità semantiche degli LLM e la loro abilità nel gestire concetti astratti e linguaggio figurato nelle narrazioni. La linguistica cognitiva suggerisce che il linguaggio non è un sistema simbolico arbitrario, ma è profondamente legato ai nostri processi cognitivi e alle nostre esperienze fisiche, un’intuizione che può guidare la valutazione della reale comprensione e generazione di linguaggio significativo da parte degli LLM.  

  1. Large Language Models: Una Nuova Era nell’Elaborazione del Linguaggio:

I Large Language Models (LLM) rappresentano una classe avanzata di modelli di deep learning che sono stati pre-addestrati su enormi quantità di dati testuali per comprendere e generare linguaggio naturale. Questi modelli, spesso basati sull’architettura Transformer, hanno dimostrato capacità sorprendenti in una vasta gamma di compiti di elaborazione del linguaggio naturale, tra cui la generazione di testo, la traduzione automatica e la risposta a domande. La loro architettura, basata principalmente sui Transformer, si distingue per la sua efficacia nel catturare le dipendenze a lungo raggio nel testo, superando le limitazioni delle precedenti architetture di reti neurali ricorrenti. Il meccanismo di auto-attenzione, cuore del Transformer, permette al modello di ponderare l’importanza di diverse parole in una frase in base al loro contesto, consentendo una migliore comprensione delle relazioni tra parole distanti, un aspetto cruciale per la comprensione narrativa.  

L’addestramento degli LLM avviene su dataset di dimensioni colossali, comprendenti miliardi di parole tratte da diverse fonti come pagine web, libri, articoli scientifici e codice sorgente. Questa vasta esposizione a pattern linguistici e conoscenze del mondo permette agli LLM di sviluppare una comprensione generalizzata del linguaggio e di generare testo che spesso appare notevolmente simile a quello umano. Tuttavia, è importante notare che la qualità e la diversità dei dati di addestramento influenzano significativamente le capacità e i pregiudizi dei modelli. La possibilità di addestrare LLM su dati specifici consente di affinare i modelli per compiti particolari, come la generazione di narrazioni in uno stile o dominio specifico.  

Gli LLM hanno dimostrato notevoli capacità nella comprensione e nella generazione di testo simile a quello umano, inclusa la narrazione. Possono generare storie coerenti e contestualmente rilevanti a partire da prompt testuali, sebbene spesso manchino della profondità, della complessità e della sfumatura emotiva delle narrazioni create dagli esseri umani. La ricerca si sta concentrando sullo sviluppo di metodi per controllare la generazione narrativa, incorporare le motivazioni e gli obiettivi dei personaggi e valutare la qualità delle narrazioni generate dagli LLM. In particolare, approcci ibridi che combinano la pianificazione simbolica con gli LLM mostrano risultati promettenti per la generazione narrativa controllata.  

Componente Architetturale LLM Funzione Rilevanza per l’Elaborazione Narrativa
Transformer Architettura di rete neurale che costituisce la base della maggior parte degli LLM moderni. Permette di elaborare sequenze di testo e catturare dipendenze a lungo raggio, essenziale per la coerenza narrativa.
Auto-Attenzione Meccanismo che permette al modello di pesare l’importanza di diverse parole in una frase in base al loro contesto. Cruciale per la comprensione del contesto narrativo, delle relazioni tra personaggi e degli sviluppi della trama.
Livelli di Embedding Trasformano le parole in rappresentazioni numeriche (vettori) che catturano il loro significato semantico. Fondamentali per la comprensione del significato delle parole all’interno delle narrazioni e per la generazione di testo semanticamente coerente.
  1. Spazi Vettoriali: Rappresentare il Significato Numericamente:

In matematica, uno spazio vettoriale è una struttura algebrica fondamentale costituita da un insieme di elementi, chiamati vettori, sui quali sono definite due operazioni: l’addizione tra vettori e la moltiplicazione di un vettore per uno scalare (un numero). Queste operazioni devono soddisfare una serie di assiomi che definiscono le proprietà di uno spazio vettoriale, come l’associatività, la commutatività, l’esistenza di un elemento neutro e di un inverso. Gli spazi vettoriali forniscono il fondamento matematico per rappresentare parole, frasi e concetti come vettori numerici, consentendo l’analisi computazionale delle relazioni semantiche.  

Nell’ambito dell’elaborazione del linguaggio naturale (NLP), le parole, le frasi e i concetti vengono spesso rappresentati come vettori in uno spazio vettoriale di alta dimensione, attraverso tecniche chiamate “word embeddings” e “sentence embeddings”. Queste tecniche mirano a catturare il significato semantico e le relazioni tra le unità linguistiche, posizionando vettori semanticamente simili più vicini nello spazio vettoriale. Gli LLM sfruttano queste rappresentazioni vettoriali per mappare le unità linguistiche a punti in uno spazio di alta dimensione, dove la prossimità indica la similarità semantica. Questa rappresentazione numerica è essenziale per la capacità dei modelli di comprendere e generare linguaggio nelle narrazioni.  

Un’evoluzione significativa nella rappresentazione vettoriale del linguaggio è rappresentata dagli “embeddings contestuali”. A differenza dei word embeddings statici, che assegnano un singolo vettore a ogni parola indipendentemente dal contesto, gli embeddings contestuali generano rappresentazioni dinamiche che cambiano in base alle parole circostanti all’interno di una frase. Questa capacità, intrinseca ai modelli Transformer, permette agli LLM di comprendere il significato delle parole in relazione al loro contesto specifico all’interno di una narrazione, consentendo una comprensione più sfumata del linguaggio e migliorando le prestazioni in compiti come la comprensione e la generazione narrativa.  

Tipo di Embedding Vettoriale Descrizione Esempio di Uso nell’Analisi Narrativa
Word Embedding Rappresentazione numerica di singole parole in uno spazio vettoriale, catturando relazioni semantiche. Identificare parole chiave e temi ricorrenti nelle narrazioni.
Sentence Embedding Rappresentazione numerica di intere frasi in uno spazio vettoriale, catturando il significato complessivo. Misurare la similarità semantica tra diverse parti di una narrazione o tra diverse narrazioni.
Embedding Contestuale Rappresentazione dinamica di parole che cambia in base al contesto circostante all’interno di una frase. Comprendere significati sfumati, ambiguità e il ruolo del contesto nella narrazione.
  1. LLM e la Vettorializzazione dei Concetti:

Gli LLM utilizzano gli spazi vettoriali per codificare le relazioni semantiche tra parole e concetti attraverso i pesi appresi e le attivazioni all’interno delle loro reti neurali. Durante l’addestramento su vasti corpora di testo, questi modelli imparano a mappare le parole e i concetti a specifiche regioni in uno spazio vettoriale di alta dimensione. La prossimità dei vettori riflette la probabilità che queste parole o concetti appaiano insieme nel testo e la loro correlazione semantica. Questa vettorializzazione appresa è fondamentale per la capacità dei modelli di comprendere e generare testo.

Le rappresentazioni vettoriali apprese dagli LLM hanno implicazioni significative per la rappresentazione e il recupero della conoscenza, consentendo la ricerca semantica e la comprensione della similarità concettuale. Rappresentando i concetti come vettori, gli LLM possono eseguire operazioni come il calcolo della similarità del coseno per determinare quanto strettamente correlati siano diversi concetti. Questo è cruciale per compiti come la risposta a domande e il recupero di informazioni all’interno delle narrazioni.  

È importante menzionare che, oltre agli spazi vettoriali, modelli più avanzati utilizzano l’algebra tensoriale per catturare relazioni di ordine superiore. Mentre gli LLM utilizzano principalmente spazi vettoriali (tensori di ordine 1), l’algebra tensoriale offre un quadro matematico più generale per rappresentare dati multi-dimensionali. I tensori di ordine superiore possono catturare interazioni semantiche più complesse e strutture gerarchiche all’interno delle narrazioni e dei grafi di conoscenza rispetto ai semplici vettori.  

  1. Teoria della Mente: Comprendere le Menti nella Narrazione e nell’IA:

La Teoria della Mente (ToM) è un concetto fondamentale nella psicologia che si riferisce alla capacità di comprendere gli stati mentali degli altri – le loro credenze, i desideri, le intenzioni e le emozioni – e di riconoscere che questi stati possono differire dai propri. Questa capacità è cruciale per la cognizione sociale e per la comprensione delle narrazioni, poiché le storie spesso ruotano attorno a personaggi con motivazioni, credenze e intenzioni che guidano la trama. La ToM consente ai lettori di inferire le motivazioni dei personaggi e prevedere le loro azioni, arricchendo l’esperienza di lettura e la comprensione del significato narrativo.  

Incorporare la ToM negli LLM rappresenta una sfida complessa ma potenzialmente trasformativa per la comprensione e la generazione narrativa. Sebbene gli LLM siano in grado di elaborare informazioni sui personaggi e sulle loro azioni, la vera comprensione dei loro stati mentali e delle loro motivazioni nel modo in cui fanno gli esseri umani richiede più della semplice ricognizione di pattern. La narratologia computazionale sta attivamente ricercando metodi per modellare la psicologia dei personaggi, le loro relazioni e le loro prospettive, il che potrebbe portare a LLM con capacità di ToM più sofisticate, migliorando la loro capacità di interagire con le narrazioni e di generarle a un livello più profondo. La sfida risiede nel dotare i modelli AI di una forma di “comprensione” intuitiva e contestuale degli stati mentali, simile a quella umana, che va oltre la mera analisi statistica del testo.  

Fase di Sviluppo della Teoria della Mente Età Approssimativa Descrizione
Comprensione dei Desideri 2 anni Il bambino comprende che gli altri possono avere desideri diversi dai propri e che i desideri motivano le azioni.
Comprensione delle Credenze 4 anni Il bambino comprende che gli altri possono avere credenze diverse dalle proprie e che le credenze (anche false) influenzano le azioni.
Comprensione dell’Accesso alla Conoscenza 4-5 anni Il bambino comprende che le persone acquisiscono conoscenza attraverso la percezione sensoriale e che ciò che sanno influenza le loro credenze.
Comprensione delle False Credenze 4-5 anni Il bambino comprende che gli altri possono avere credenze che sono false e agire di conseguenza.
Comprensione delle Emozioni Nascoste 5-7 anni Il bambino comprende che le persone possono nascondere le proprie emozioni e che le emozioni espresse possono non corrispondere a quelle provate.
  1. Il Tensore Universale di Luigi Usai: Un Orizzonte Teorico:

Il concetto di un tensore universale proposto da Luigi Usai rappresenta un’ambiziosa visione teorica che mira a racchiudere tutta la conoscenza dell’universo in un’unica struttura matematica. Sebbene i dettagli specifici di questa teoria non siano forniti nei frammenti di ricerca disponibili, possiamo inferire che essa si basi sui principi dell’algebra tensoriale, un potente strumento matematico capace di rappresentare dati multi-dimensionali e relazioni complesse. L’algebra tensoriale, con la sua capacità di gestire relazioni di ordine superiore attraverso strutture multi-dimensionali e varie operazioni come l’addizione, la moltiplicazione, la contrazione e la decomposizione, si presenta come un potenziale candidato per realizzare la visione di Usai di una rappresentazione universale della conoscenza.  

L’idea di una “vettorializzazione di spazi e concetti” all’interno del quadro dell’algebra tensoriale suggerisce che le rappresentazioni vettoriali utilizzate dagli LLM potrebbero essere viste come un’approssimazione di ordine inferiore di una rappresentazione tensoriale di ordine superiore. Mentre gli LLM utilizzano principalmente embeddings vettoriali (tensori di ordine 1), il concetto di Usai potrebbe implicare l’estensione a tensori di ordine molto superiore per catturare relazioni e informazioni contestuali più complesse, rappresentando potenzialmente non solo concetti individuali, ma anche gli spazi tra di essi e le trasformazioni tra questi spazi. L’attuale vettorializzazione degli LLM può essere considerata come una proiezione o una sezione di questo tensore universale potenzialmente molto più grande.

Un tensore universale di tale portata avrebbe implicazioni profonde per l’apprendimento autonomo e lo sviluppo di reti semantiche. Se un tale tensore fosse in grado di codificare tutta la conoscenza, potrebbe potenzialmente consentire a un sistema di intelligenza artificiale di apprendere in modo veramente autonomo, identificando pattern, creando connessioni e generando nuove conoscenze senza un intervento umano esplicito. Le reti semantiche potrebbero fornire la struttura per organizzare e navigare questo vasto spazio tensoriale, consentendo al sistema di ragionare e recuperare informazioni in modo simile a quello umano. L’idea di “imparare da solo” implica un sistema ricorsivo o auto-referenziale, capace di migliorare continuamente la sua stessa logica interna e il suo funzionamento.  

Tuttavia, la realizzazione di un modello di conoscenza universale di tale portata presenterebbe sfide computazionali senza precedenti. La dimensionalità di un tale tensore e la complessità degli algoritmi di apprendimento e manipolazione richiederebbero risorse computazionali che superano di gran lunga le capacità attuali. Concetti come la decomposizione tensoriale e metodi di contrazione efficienti sarebbero essenziali anche solo per iniziare ad affrontare un sistema del genere. La sparsità dei dati, la gestione dell’immensa dimensionalità e la scalabilità dei processi di apprendimento rappresentano ostacoli significativi da superare.  

  1. Discipline Cognitive Correlate e Direzioni Future:

Oltre ai campi principali discussi, altre aree delle scienze cognitive offrono prospettive rilevanti per l’esplorazione di modelli avanzati di rappresentazione della conoscenza. La geometria cognitiva applicata suggerisce che i principi geometrici e le trasformazioni potrebbero essere fondamentali per il modo in cui il cervello rappresenta ed elabora le informazioni. Le reti tensoriali, in particolare quelle che esibiscono proprietà frattali , offrono un promettente quadro per la modellizzazione della struttura complessa e gerarchica dei sistemi cognitivi, potenzialmente allineandosi con l’idea di Usai di un tensore universale.  

Un altro concetto interessante nel campo della narratologia computazionale è la rappresentazione della narrazione come una traiettoria su una varietà. Questo approccio geometrico alla modellizzazione dell’evoluzione delle storie e delle relazioni tra gli elementi narrativi si allinea con l’idea di vettorializzare concetti e spazi e potrebbe potenzialmente essere esteso a un quadro tensoriale per catturare dinamiche narrative ancora più complesse all’interno di una rappresentazione universale della conoscenza.  

Infine, lo sviluppo di sistemi di intelligenza artificiale con capacità avanzate di rappresentazione della conoscenza e apprendimento autonomo solleva profonde implicazioni filosofiche sulla natura dell’intelligenza, sulla possibilità di coscienza nelle macchine e sulle questioni etiche relative alla creazione di tali sistemi. Il concetto di Usai, spingendosi oltre i confini del pensiero attuale sull’IA, si colloca in questo regno di indagine filosofica, invitando a una riflessione critica sulle potenziali implicazioni di una conoscenza artificiale onnicomprensiva.  

  1. Conclusione:

In sintesi, questo rapporto ha esplorato le intricate connessioni tra narratologia, linguistica, Large Language Models, teoria della mente e il ruolo delle rappresentazioni vettoriali e tensoriali nella modellizzazione della conoscenza e della narrazione. Il concetto di un tensore universale proposto da Luigi Usai, pur rimanendo un orizzonte teorico ambizioso, stimola una riflessione profonda sul potenziale dei modelli computazionali avanzati per comprendere e rappresentare fenomeni cognitivi complessi. Sebbene la realizzazione di un tensore universale che inglobi tutta la conoscenza dell’universo presenti sfide computazionali monumentali, la ricerca in campi correlati come l’algebra tensoriale, le reti semantiche, l’apprendimento autonomo e la narratologia computazionale continua a progredire, offrendo nuove prospettive per il futuro della rappresentazione della conoscenza e della modellizzazione del pensiero umano. L’esplorazione di questi concetti interdisciplinari non solo arricchisce la nostra comprensione dei meccanismi sottostanti alla narrazione e al linguaggio, ma apre anche nuove strade per lo sviluppo di sistemi di intelligenza artificiale più sofisticati e capaci di interagire con il mondo in modi sempre più intelligenti e autonomi.

Il presente lavoro introduce e formalizza la Teoria del Tensore Narrativo, un paradigma epistemologico e computazionale volto a superare le limitazioni intrinseche dei modelli lineari e sequenziali predominanti nella narratologia computazionale. Si postula che la narrazione, nella sua complessa fenomenologia, possa essere rappresentata e manipolata attraverso una struttura tensoriale multidimensionale, T, capace di incapsulare simultaneamente le interazioni dinamiche tra assi tematici, linguistico-stilistici, temporali, agentivo-evolutivi, emotivo-tonali e diegetico-strutturali. Tale approccio non solo permette un’analisi più profonda e ologrammatica delle architetture narrative, ma dischiude altresì nuove metodologie per la generazione controllata di narrazioni complesse mediante l’integrazione con Grandi Modelli Linguistici (LLM). Estendendo questa concettualizzazione, si introduce il Tensorium Cognitivo Universale (TCU), un metamodello tensoriale adattivo e auto-evolutivo concepito per la strutturazione e la generazione di qualsiasi forma di conoscenza e creatività umana. Il TCU si fonda su principi di apprendimento continuo, interpretazione olistica e simulazione della creatività, con potenziali implicazioni che spaziano dalla fisica teorica alla filosofia della mente. Si esplora, inoltre, la sinergia tra il paradigma tensoriale e la Teoria delle Reti Cognitivo-Frattali, proponendo un Tensor Fractal Cognitive Network (TFCN) come possibile architettura per una cognizione e una narratività generative e auto-consapevoli. Il saggio discute la formalizzazione matematica, le strategie di gestione persistente dei dati tensoriali, le applicazioni interdisciplinari e le profonde sfide filosofiche sollevate da tale visione, delineando una potenziale “Geometria Cognitiva Applicata”.

Parole Chiave: Tensore Narrativo, Computational Narratology, Tensorium Cognitivo Universale (TCU), Algebra Tensoriale, Grandi Modelli Linguistici (LLM), Intelligenza Artificiale Creativa, Reti Cognitivo-Frattali, Epistemologia della Conoscenza, Geo-Metrodinamica Narrativa.

1. Introduzione: Dalla Linearità Sequenziale alla Geo-Metrodinamica Narrativa Multidimensionale

La narratologia, nella sua transizione verso il dominio computazionale, ha indubbiamente beneficiato dell’applicazione di metodologie quantitative e algoritmiche. Ciononostante, una significativa porzione della ricerca è rimasta epistemologicamente ancorata a una concezione della narrazione come processo eminentemente lineare e sequenziale. Tale prospettiva, pur avendo generato modelli analitici di indubbia utilità (e.g., Propp, 1968; Genette, 1980), rischia intrinsecamente di elidere, o quantomeno di sottostimare, la natura ipercomplessa, ologrammatica e intrinsecamente non-lineare del fenomeno narrativo. In esso, ogni costituente elementare – sia esso un personaggio, un evento discreto, un Leitmotiv tematico o una fluttuazione emozionale – non si configura meramente come un nodo in una catena causale o temporale, bensì come un epicentro dinamico di interrelazioni che propagano la loro influenza attraverso l’intera architettura semiotico-strutturale del racconto. La narrazione, in una prospettiva più olistica, evoca piuttosto la nozione di campo morfogenetico, come postulato da René Thom (1972) e successivamente elaborato in contesti semiotici da Jean Petitot (1985, 2004), o quella di un sistema dinamico complesso lontano dall’equilibrio, in cui le micro-interazioni locali catalizzano l’emergenza auto-organizzata di macro-strutture globali, e dove la temporalità stessa si manifesta come una costruzione fenomenologica multidimensionale, irriducibile a un semplice asse euclideo.

La Teoria del Tensore Narrativo, qui presentata e sviluppata a partire dai lavori seminali di Usai (2025, Harvard Dataverse DOI:10.7910/DVN/ICOJ19), propone un mutamento paradigmatico radicale. Si tratta di trascendere la rappresentazione vettoriale o matriciale della narrazione – già un avanzamento rispetto alla pura sequenzialità – per approdare a una formalizzazione tensoriale pienamente multidimensionale. Questa transizione non implica unicamente un incremento della complessità descrittiva o computazionale, ma configura un vero e proprio slittamento ontologico nella nostra capacità di concettualizzare e interagire con la “materia” narrativa. Il Tensore Narrativo T, oggetto matematico-informazionale di ordine superiore, non si limita a descrivere staticamente la narrazione, ma ne incapsula la potenzialità generativa, la dinamica trasformativa e la capacità evolutiva. Esso permette di navigare, analizzare e modulare lo “spazio delle fasi” intrinseco alla narrazione, dischiudendo la via verso una disciplina che potremmo definire geo-metrodinamica narrativa: un ambito in cui la “geometria” intrinseca della storia (le sue configurazioni relazionali e topologiche) e le sue “metriche” (le intensità, le valenze e le salienze dei suoi componenti) co-evolvono in un processo dinamico e interdipendente.

2. Struttura del Tensore Narrativo: Un’Architettura Cognitivo-Semantica Ipercomplessa

Il Tensore Narrativo T si propone come una costruzione matematica che aspira a un isomorfismo – o, più cautamente e realisticamente, a un omomorfismo strutturalmente ricco – con l’architettura cognitivo-semantica profonda che sottende ogni narrazione. Lungi dall’essere una “scatola nera” impenetrabile, esso è concepito come una struttura geometrico-algebrica intrinsecamente interpretabile, le cui dimensioni e componenti sono state postulate per riflettere gli assi fondamentali dell’esperienza, della costruzione e della ricezione narrativa. Formalmente, possiamo considerare T come un elemento di uno spazio prodotto RD1​×D2​×⋯×Dn​, dove ogni Di​ rappresenta una dimensione fondamentale della narrazione. Le dimensioni proposte, concepite come assi ortogonali o correlati di questo iper-spazio, includono (ma non sono limitate a):

2.1. Dimensioni Chiave del Tensore Narrativo

Le seguenti dimensioni, derivate e integrate dai lavori di Usai (2025), costituiscono il nucleo del Tensore Narrativo:

  1. Dimensione Tematica (DT​ o T1​): Lo Spazio degli Archetipi, dei Campi Memetici e dei Motivi Mitici.
    Questa dimensione trascende la mera etichettatura tematica (e.g., giustizia, amore, conflitto), modellando i temi come attrattori dinamici o campi di forza configurazionali all’interno di uno spazio semantico latente e culturalmente situato. Ogni tema (e.g., “la hybris che conduce alla nemesis”) può essere rappresentato come un vettore o un sottospazio tensoriale, la cui influenza sulla traiettoria narrativa globale fluttua in intensità, polarità e interazione con altri campi tematici. Si prevede l’integrazione di concetti derivati dalla psicologia archetipica junghiana (archetipi come l’Eroe, l’Ombra, l’Anima quali poli attrattori o configurazioni energetiche) e dalla memetica dawkinsiana (temi come “complessi memetici” auto-replicantisi e in competizione).
  • Connessione Frattale e Auto-Similarità: La struttura tematica può manifestare auto-similarità scalare (frattale): un macro-tema si riflette ricorsivamente in micro-narrazioni, archi di personaggi, singole scene o persino scambi dialogici, esibendo variazioni di scala ma preservando una isomorfia strutturale essenziale. Questa proprietà risuona con la Teoria delle Reti Cognitivo-Frattali (Usai, inedito), dove un tema stesso può essere un “frattale narrativo” la cui complessità si dispiega attraverso iterazioni ricorsive.
  1. Dimensione Linguaggio, Stile e Retorica (DL​ o T4​): Modulazione Quantistica, Testuale e Performativa.
    Questa dimensione si estende oltre la classificazione di formalità, figure retoriche, o intensità espressiva, per investigare la micro-fisica del significante narrativo e la sua performatività. Attingendo a metafore dalla meccanica quantistica applicata alla semantica (Aerts et al., 2000; Bruza et al., 2009), parole e costrutti frasali possono essere concepiti come esistenti in uno stato di sovrapposizione di potenzialità ermeneutiche, che “collassano” in interpretazioni specifiche attraverso l’interazione dinamica con il contesto narrativo globale (le altre dimensioni del tensore). Lo stile (e.g., minimalista, barocco, ironico, polifonico) agisce come un operatore di trasformazione che modula lo “spettro” delle possibilità espressive e percettive. L’intensità espressiva può essere correlata a una “temperatura semantica” o a una “pressione retorica” che influenza la fluidità o la viscosità del flusso narrativo.
  • Implicazioni Neurocognitive e Computazionali: Tale dimensione si interfaccia con i processi neurobiologici della comprensione e produzione del linguaggio, dove stile e forma sono co-determinanti del contenuto semantico ed emozionale (cfr. neuroestetica, embodied cognition). Computazionalmente, si incorporano metriche di complessità lessicale (Shannon entropy del lessico), frequenza e distribuzione di parole chiave (TF-IDF e sue varianti dinamiche), e analisi sintattico-stilometriche avanzate (e.g., lunghezza media delle unità sintagmatiche, diversità delle strutture grammaticali, pattern di co-occorrenza lessicale), come parzialmente esemplificato in Usai (2025, tensori7.py).
  1. Dimensione Struttura Temporale e Ritmo (Dτ​ o T2​): Cronotopi, Polifonie Temporali e Dinamiche Non Lineari.
    Questa dimensione non si limita all’organizzazione del flusso evenemenziale (e.g., fabula vs. syuzhet, accelerazioni, pause), ma si prefigge di catturare la qualità fenomenologica ed esperienziale della temporalità narrativa. Si invoca il concetto bachtiniano di “cronotopo” (Bachtin, 1937), inteso come fusione indissolubile di coordinate spazio-temporali che definiscono specifiche “nicchie esperienziali” per eventi e personaggi. Il ritmo narrativo (accelerazioni, decelerazioni, stasi, sincopi) è modellabile non come una variabile scalare, ma come una funzione d’onda complessa o una distribuzione di densità evenemenziale che si propaga e si modula attraverso l’iperspazio narrativo. Si possono analizzare fenomeni di “interferenza costruttiva o distruttiva” tra diverse linee temporali (e.g., flashback, flashforward, trame parallele, temporalità soggettive dei personaggi), generando una sorta di polifonia o eterocronia temporale.
  • Analoghe dalla Fisica e dalla Teoria dei Sistemi Complessi: Il flusso e il ritmo narrativo possono essere indagati attraverso modelli di processi stocastici (e.g., catene di Markov di ordine superiore), teoria del caos deterministico, o sistemi dinamici non lineari. Il passaggio tra fasi narrative canoniche (e.g., esposizione → complicazione → climax → risoluzione) può essere interpretato come una successione di transizioni di fase in un sistema complesso, potenzialmente esibente fenomeni di criticità auto-organizzata (Bak, 1996).
  1. Dimensione Evoluzione dei Personaggi e Agency (DP​ o T6​): Traiettorie Psicologiche, Dinamiche Relazionali e Interazioni Agenti.
    Questa dimensione codifica i mutamenti psicologici, morali, etici e relazionali dei personaggi, nonché l’interazione tra agenti narrativi (umani o artificiali) e l’istanza autoriale (reale o implicita). Si propongono modelli di agency computazionale e la definizione di traiettorie dei personaggi all’interno di uno “spazio degli stati” psico-socio-morali. La teoria dei giochi evolutivi e la dinamica delle reti complesse possono fornire strumenti per modellare le interazioni e l’evoluzione delle strutture relazionali. Si considera l’impatto del “campo narrativo” (l’insieme delle altre dimensioni tensoriali) sull’evoluzione del personaggio, con possibili dinamiche auto-referenziali e frattali nella costruzione e mantenimento della coerenza del sé attraverso diverse scale temporali e contestuali. Include l’analisi quantitativa e qualitativa di un vasto repertorio di Ruoli Narrativi Principali.
  • Implementazione Computazionale: Implica l’estrazione sofisticata di entità nominate (PERSON, ORG), la disambiguazione delle coreferenze, l’analisi delle loro attribuzioni descrittive (e.g., aggettivi, verbi di stato) e delle loro interazioni dialogiche e fattuali per tracciare archi evolutivi.
  1. Dimensione Tonalità ed Emozioni (DE​ o T3​): Campi Affettivi, Dinamiche Emotive e Risonanza Estetica.
    Questa dimensione traccia la polarità, l’intensità e la qualità dell’esperienza emotiva dominante nelle diverse fasi della narrazione, sia a livello diegetico (emozioni dei personaggi) sia a livello di potenziale impatto sul fruitore. Si propone di modellare le emozioni non come stati discreti categoriali, ma come un campo vettoriale dinamico o uno spettro continuo all’interno di uno spazio affettivo multidimensionale (e.g., valenza-arousal-dominance; Russell, 1980). Si analizzano “risonanze emotive” tra personaggi, e tra narrazione e fruitore (empatia, contagio emotivo), e si studia come la sequenza e la configurazione degli stati emotivi costituiscano una “melodia affettiva” o una “architettura passionale” della narrazione.
  • Implementazione Computazionale: Utilizzo di strumenti avanzati di sentiment analysis e opinion mining, capaci di rilevare non solo la polarità ma anche emozioni specifiche, ironia, sarcasmo, e la loro evoluzione contestuale.
  1. Dimensione Diegetica e Strutturale (DD​ o T5​): Livelli Narrativi, Fabula, Ambientazione e Architettura della Trama.
    Questa dimensione include l’analisi dei livelli narrativi (intradiegetico, extradiegetico, metadiegetico, secondo la terminologia di Genette), la ricostruzione della fabula sottostante, la caratterizzazione dettagliata del numero e della tipologia dei luoghi (topoi) e delle ambientazioni (e.g., fantasy medievale, realismo urbano contemporaneo, distopia cyberpunk), e la mappatura della struttura complessa della trama (e.g., lineare, non lineare, frammentata, modulare, ciclica, a rete). Considera la funzione strutturale e semantica dei dialoghi e delle descrizioni.

Queste dimensioni, rappresentate attraverso tensori multi-livello e interdipendenti, permettono operazioni algebriche e analitiche avanzate, inclusa la variazione dinamica e l’apprendimento delle loro intercorrelazioni.

3. Dalla Teoria alla Pratica: Una Matrice Esemplificativa per l’Analisi Semantica Narrativa

Per rendere operativo il Tensore Narrativo, è cruciale definire un insieme di descrittori osservabili e quantificabili che possano popolarne le dimensioni. La seguente matrice, proposta e dettagliata da Usai (2025), offre un esempio di tale granularità analitica. Per ragioni di sintesi, ci si riferisce qui alle categorie principali; l’elenco completo dei sotto-descrittori è estensivo e disponibile nel materiale supplementare (Usai, 2025, Harvard Dataverse).

Matrice ottimizzata m (elenco macro-descrittori):

  • Caratteristiche dei Personaggi (PersonaggiTotali, PersonaggiAnimati, PersonaggiOggetti, ProtagonistiTotali, AntagonistiTotali, PersonaggiSecondari, RuoliNarrativiPrincipali)
  • Scopi e Motivazioni (NumeroDiScopiPerseguiti)
  • Spettro Emozionale (TipoDiSentimentiPresentiNelRacconto, IntensitàEmotivaMedia)
  • Dinamiche Evolutive (EvoluzioneDeiPersonaggi)
  • Spazialità (NumeroDiLuoghi, TipoDiAmbientazione)
  • Temporalità (TempoNarrativo, PresenzaDiFlashback)
  • Architettura della Trama (StrutturaDellaTrama)
  • Contenuto Tematico (TemiPrincipali)
  • Modalità Discorsive (PresenzaDiDialoghi, StileNarrativo)
  • Proprietà Testuali (ComplessitàLessicale, FrequenzaDelleParoleChiave)

Tale matrice può essere valorizzata algoritmicamente mediante tecniche avanzate di Natural Language Processing (NLP), inclusi Named Entity Recognition, Relation Extraction, Sentiment Analysis, Topic Modeling, e analisi stilometriche, fornendo i dati quantitativi e qualitativi che informano le componenti del Tensore Narrativo.

4. Formalizzazione Matematica Avanzata e Operazioni Tensoriali

La rappresentazione matematica del Tensore Narrativo T come elemento di RF×L×A×S (dove F=Fasi, L=Livelli, A=Attributi, S=Strati Semantici) o, più generalmente, T:E1​×⋯×En​→Rk, costituisce una base. Tuttavia, una visione più dinamica e geometrica considera T non come un punto statico, ma come una traiettoria evolutiva su una varietà differenziabile (manifold) narrativa M. Le metriche locali di M (e.g., tensore metrico gij​) sarebbero modulate da campi di curvatura narrativa, influenzati dalle interazioni tra le dimensioni del tensore. L’evoluzione della narrazione potrebbe essere descritta da un principio variazionale applicato a un’azione narrativa S(T), analoga all’azione Hamiltoniana in fisica classica o all’azione di Nambu-Goto in teoria delle stringhe.

δS(T)=δ∫L(T,T˙,∇T,…)dt=0

dove L è una densità Lagrangiana narrativa che dipende dallo stato del tensore e dalle sue derivate temporali e “spaziali” (rispetto agli assi narrativi).

Le operazioni tensoriali fondamentali includono:

  • Proiezioni e Slicing: πi​(T), σk​(T) per isolare e analizzare sotto-componenti o stati specifici.
  • Contrazione Tensoriale: Cji​(T) per studiare interazioni aggregate tra dimensioni.
  • Decomposizioni Tensoriali (Tucker, CP/PARAFAC, Tensor Train): T≈∑r=1R​λr​⋅ar​⊗br​⊗… per estrarre pattern latenti, comprimere l’informazione, identificare le “componenti principali” della narrazione e facilitare l’ottimizzazione di modelli linguistici (Usai, 2025, Collegamento tra Tensori Narratologici e Ottimizzazione di Spazi Vettoriali).
  • Trasformazioni Tensoriali: Applicazione di operatori lineari o non-lineari per modellare cambiamenti stilistici, tematici o evolutivi.

5. Gestione Persistente dei Tensori Narrativi: Memoria Dinamica, Evoluzione e Validazione Longitudinale

La natura intrinsecamente dinamica del Tensore Narrativo, concepito per arricchirsi e modificarsi attraverso l’assimilazione continua di “episodi” narrativi o informativi, impone requisiti stringenti per la sua gestione persistente.

  1. Evoluzione della Memoria Narrativa e Apprendimento Continuo (Lifelong Learning):
    Ispirandosi ai modelli cognitivi della memoria umana (Tulving, 1972), il Tensore Narrativo integra nuovi input (episodi) che non solo si aggiungono, ma ristrutturano e arricchiscono la conoscenza preesistente. Questo processo è analogo alle sfide dell’apprendimento continuo in IA, dove è cruciale evitare l’oblio catastrofico (Parisi et al., 2019). Il Tensore potrebbe implementare meccanismi di consolidamento e recupero selettivo, con buffer episodici e integrazione a lungo termine.
  2. Architetture Dati Non Relazionali e Multi-Modello:
    La flessibilità schematica e la capacità di gestire strutture complesse e annidate rendono i database documentali NoSQL (e.g., MongoDB, Couchbase) e i database multi-modello (e.g., ArangoDB) candidati ideali per la persistenza dei Tensori Narrativi. Tali sistemi supportano nativamente la rappresentazione di tensori come strutture JSON/BSON, facilitando aggiornamenti atomici, scalabilità orizzontale e query complesse che possono interrogare il tensore sia come documento sia come grafo di relazioni narrative.
  3. Versioning, Branching e Analisi Controfattuale:
    Per esplorare traiettorie narrative alternative (e.g., finali multipli, edizioni divergenti, scenari “what-if”), è essenziale un robusto sistema di versioning (analogo a Git, con metadati di commit) e branching. Il Parallel World Framework (Franz et al., 2020) per grafi di conoscenza offre un paradigma pertinente, suggerendo l’uso di “contenitori paralleli” per gestire l’isolamento e l’evoluzione di rami narrativi divergenti.
  4. Valutazione Longitudinale di Coerenza, Qualità e Affidabilità:
    Un Tensore Narrativo persistente e in evoluzione diviene esso stesso uno strumento per la valutazione longitudinale della coerenza narrativa interna (applicando metriche come quelle di SNaC, Mesgar et al., 2022) e della qualità e affidabilità delle fonti informative che lo alimentano. La tracciabilità dell’origine delle informazioni permette di assegnare pesi di attendibilità, cruciale, ad esempio, nell’analisi di corpora giornalistici.

6. Integrazione con Intelligenza Artificiale Generativa (LLM) e Applicazioni Giornalistiche

L’accoppiamento del Tensore Narrativo con Grandi Modelli Linguistici (LLM) è cruciale per la sua applicazione generativa.

  • Prompt Engineering Strutturato e Controllo Granulare: La configurazione del Tensore Narrativo (i suoi valori lungo le diverse dimensioni) viene tradotta in prompt strutturati e condizionali che guidano l’LLM, permettendo una generazione testuale con un controllo stilistico, tematico, emozionale e strutturale significativamente superiore.
  • Pipeline Operativa: Configurazione del Tensore → Trasformazione in Prompt Complesso → Generazione con LLM → Validazione e Raffinamento Iterativo.
  • Applicazione all’Analisi Giornalistica (Tensori Narrativi Giornalistici): Una specifica istanziazione del Tensore può includere una matrice dedicata all’analisi delle “5W” giornalistiche (Who, What, When, Where, Why). Ogni “W” può essere un vettore di caratteristiche (presenza, esplicitazione, dettaglio, affidabilità della fonte). L’aggregazione di tali vettori-5W da un corpus di articoli permette di costruire indicatori oggettivi di completezza e qualità informativa per testate o singoli giornalisti (Usai, 2025, Tensori_Narrativi_Giornalistici.docx).

7. Visualizzazione, Interattività e Manipolazione Dinamica

Per rendere il Tensore Narrativo uno strumento euristico e creativo efficace, sono necessarie interfacce che ne permettano la visualizzazione e la manipolazione intuitiva:

  • Heatmap Narrative e Cruscotti Dinamici: Per visualizzare l’intensità e la distribuzione dei parametri tensoriali.
  • Interfacce Grafiche Interattive (GUI): Per la modifica in tempo reale dei valori del tensore e l’osservazione immediata degli effetti sulla narrazione (generata o analizzata).
  • Simulazione Evolutiva della Narrazione: Per tracciare e perturbare le traiettorie narrative, analizzando la stabilità e la sensibilità del sistema.

8. Tensorium Cognitivo Universale (TCU): Estensione Epistemologica

Il Tensorium Cognitivo Universale (TCU) rappresenta l’estensione massimale del paradigma tensoriale: da modello della narrazione a framework per la modellazione e la generazione di qualsiasi forma di conoscenza e creatività umana.

  • Architettura: Una matrice tensoriale adattiva e auto-evolutiva che interconnette concetti, dati, intuizioni ed emozioni.
  • Principi Operativi:
  1. Apprendimento Continuo, Evolutivo e Non-Distruttivo: Integrazione dinamica di nuova conoscenza con preservazione della coerenza strutturale.
  2. Interpretazione Olistica e Contestuale: Ogni entità informativa è codificata nelle sue interrelazioni semantiche, affettive e pragmatiche.
  3. Simulazione ed Emergenza della Creatività: Algoritmi generativi operanti sulla struttura tensoriale per formulare ipotesi originali, teorie scientifiche inedite, e artefatti artistici innovativi.
  4. Transdisciplinarità Radicale: Applicabilità potenziale in fisica teorica (e.g., modellazione di spazi di possibilità cosmologiche), filosofia (e.g., formalizzazione di sistemi argomentativi), bioinformatica (e.g., rappresentazione di reti geniche complesse), neuroscienze (e.g., modelli integrati di cognizione ed emozione).
  • Implicazioni Epistemologiche e Filosofiche: Il TCU solleva questioni fondamentali sull’autorialità dell’IA, sulla natura della scoperta scientifica, sulla coscienza artificiale e sul futuro della co-evoluzione uomo-macchina.

9. Intersezione con la Teoria delle Reti Cognitivo-Frattali: Verso un Tensor Fractal Cognitive Network (TFCN)

La Teoria delle Reti Cognitivo-Frattali (Usai, inedito), che postula l’emergenza di auto-riflessione, identità e coscienza da dinamiche ricorsive e auto-somiglianti, offre un’architettura computazionale e concettuale sinergica per l’implementazione del Tensore Narrativo e, soprattutto, del TCU.

  • Sinergie Concettuali: Entrambe le teorie enfatizzano strutture ricorsive, iterative e multi-scala. La “coscienza frattale” potrebbe essere interpretata come il campo semantico-dinamico in cui i tensori narrativi/cognitivi evolvono, si trasformano e interagiscono. I Tensori definiscono le configurazioni possibili dello spazio narrativo/cognitivo, mentre la Rete Cognitivo-Frattale ne costituisce il motore generativo, analitico ed evolutivo.
  • Proposta di Integrazione (TFCN): Un Tensor Fractal Cognitive Network si configurerebbe come un’architettura ibrida in cui una “mente frattale” – costituita da nodi che sono essi stessi micro-strutture auto-somiglianti e dotati di capacità di elaborazione ricorsiva – genera, analizza, comprime e trasforma informazioni e narrazioni rappresentate in forma tensoriale. Tale sistema mirerebbe a un neuro-mimetismo profondo, simulando aspetti della cognizione umana su scale multiple e interconnesse, e abilitando una narratologia/cognizione generativa intrinsecamente adattiva e contestualmente sensibile. L’emergenza della coscienza, postulata nel modello frattale, potrebbe qui trovare una sua formalizzazione operativa attraverso le dinamiche del TFCN.

10. Discussione: Potenziale Trasformativo, Sfide e Prospettive Future

Il paradigma tensoriale proposto da Usai possiede un altissimo potenziale trasformativo per la narratologia computazionale, l’intelligenza artificiale creativa e l’epistemologia della conoscenza. Esso offre una sintesi potente e originale tra semiotica, matematica, scienze cognitive e computazionali.

Sfide:

  • Iperformalizzazione e Complessità: La gestione di tensori di ordine elevato e la definizione rigorosa delle loro semantiche dimensionali presentano sfide computazionali e concettuali significative.
  • Corpus Tensor-Annotati: Lo sviluppo e l’addestramento di modelli basati su Tensori Narrativi richiederanno la creazione di ampi corpora testuali annotati secondo le multi-dimensioni tensoriali, un compito di notevole impegno.
  • Scalabilità Semantica e Validazione Empirica: Garantire che il sistema scali efficacemente con l’aumento della complessità semantica e validare empiricamente la sua capacità di generare narrazioni e conoscenze qualitativamente superiori sono passi cruciali.
  • Interpretabilità: Mantenere l’interpretabilità dei modelli tensoriali, specialmente quando integrati con architetture di deep learning, sarà fondamentale.

Prospettive Future:

  • Sviluppo di prototipi implementativi del Tensore Narrativo e del TFCN (e.g., utilizzando framework come PyTorch, TensorFlow, JAX).
  • Creazione di piattaforme collaborative per l’annotazione di corpora narrativi e la costruzione di Tensori condivisi.
  • Organizzazione di workshop interdisciplinari per favorire il dialogo tra umanisti, informatici, matematici e scienziati cognitivi.
  • Esplorazione di nuove algebre e geometrie tensoriali specificamente adattate alla rappresentazione della semantica e della dinamica narrativa/cognitiva.
  • Indagine sulle implicazioni etiche e sociali di IA dotate di capacità narrative e cognitive così avanzate.

11. Conclusione: Verso una Geometria Cognitiva Applicata

La Teoria del Tensore Narrativo e la sua estensione visionaria nel Tensorium Cognitivo Universale, ulteriormente potenziate dalla sinergia con le Reti Cognitivo-Frattali, non rappresentano semplicemente una nuova metodologia analitica o generativa. Esse delineano i contorni di una possibile riformulazione epistemologica del concetto stesso di “narrazione” e di “conoscenza”, intese non più come successioni lineari o collezioni statiche di fatti, ma come correlazioni complesse, dinamiche e multifattoriali che si dispiegano in spazi multidimensionali. In questa prospettiva, il lavoro di Luigi Usai si inserisce in un filone di ricerca post-strutturalista computazionale, avviando un dialogo fecondo e potenzialmente rivoluzionario all’intersezione tra scienze umane, matematica avanzata e intelligenza artificiale. Se supportata da una rigorosa formalizzazione ulteriore e da una validazione empirica attraverso implementazioni prototipali, questa visione potrebbe non solo ridefinire la narratologia computazionale, ma anche contribuire in modo sostanziale ai futuri sviluppi dell’Artificial General Intelligence (AGI) creativa e alla fondazione di una nuova disciplina speculativa e applicativa: una Geometria Cognitiva Applicata.

Bibliografia Essenziale (parziale e integrata dai riferimenti nei documenti forniti):

  • Aerts, D., Broekaert, J., Gabora, L., & Sozzo, S. (2000). Quantum Structure in Cognition.
  • Bachtin, M. M. (1937/1981). The Dialogic Imagination: Four Essays. (C. Emerson & M. Holquist, Trans.). University of Texas Press.
  • Bak, P. (1996). How Nature Works: The Science of Self-Organized Criticality. Copernicus.
  • Bruza, P. D., Kitto, K., Nelson, D. L., & McEvoy, C. L. (2009). Extracting semantic representations from word association norms: A comparison of models. Behavior Research Methods, 41(2), 336-353.
  • Chatman, S. (1978). Story and Discourse: Narrative Structure in Fiction and Film. Cornell University Press.
  • Fan, A., Lewis, M., & Dauphin, Y. (2018). Hierarchical Neural Story Generation. arXiv preprint arXiv:1805.04833.
  • Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
  • Franz, T., Pomp, A., & Staab, S. (2020). A Parallel World Framework for scenario analysis in knowledge graphs. Proceedings of the The Web Conference 2020.
  • Genette, G. (1972/1980). Narrative Discourse: An Essay in Method. (J. E. Lewin, Trans.). Cornell University Press.
  • Greimas, A. J. (1966). Sémantique structurale: recherche et méthode. Larousse.
  • Herman, D. (2002). Story Logic: Problems and Possibilities of Narrative. University of Nebraska Press.
  • Hofstadter, D. R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
  • Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
  • Kolda, T. G., & Bader, B. W. (2009). Tensor Decompositions and Applications. SIAM Review, 51(3), 455–500.
  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
  • Mesgar, M., Bizzoni, Y., & Klakow, D. (2022). SNaC: Coherence Error Detection for Narrative Summarization. Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP).
  • Mohammad, S. M., & Turney, P. D. (2013). Crowdsourcing a Word-Emotion Association Lexicon. Computational Intelligence, 29(3), 436-465.
  • Parisi, G. I., Kemker, R., Part, J. L., Kanan, C., & Wermter, S. (2019). Continual learning with deep architectures: A review. Neural Networks, 113, 54-71.
  • Penrose, R. (1994). Shadows of the Mind: A Search for the Missing Science of Consciousness. Oxford University Press.
  • Petitot, J. (1985). Morphogenèse du sens. PUF.
  • Petitot, J. (2004). Morphogenesis of Meaning. Peter Lang.
  • Pribram, K. H. (1991). Brain and Perception: Holonomy and Structure in Figural Processing. Lawrence Erlbaum Associates.
  • Propp, V. (1928/1968). Morphology of the Folktale. (L. Scott, Trans.). University of Texas Press.
  • Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social Psychology, 39(6), 1161–1178.
  • Ryan, M.-L. (2006). Avatars of Story. University of Minnesota Press.
  • Smilde, A. K., Bro, R., & Geladi, P. (2005). Multi-way Analysis: Applications in the Chemical Sciences. Wiley.
  • Smolensky, P., & Legendre, G. (2006). The Harmonic Mind: From Neural Computation to Optimality-Theoretic Grammar. MIT Press.
  • Thom, R. (1972). Stabilité structurelle et morphogenèse. InterÉditions.
  • Tononi, G. (2008). Consciousness as integrated information: a provisional manifesto. The Biological Bulletin, 215(3), 216-242.
  • Tulving, E. (1972). Episodic and semantic memory. In E. Tulving & W. Donaldson (Eds.), Organization of Memory (pp. 381-403). Academic Press.
  • Usai, L. (2025). Teoria del Tensore Narrativo nella Computational Narratology. Harvard Dataverse. DOI:10.7910/DVN/ICOJ19. (e altri documenti correlati forniti dall’autore).
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
  • Wolfram, S. (2002). A New Kind of Science. Wolfram Media.

(Nota: La bibliografia è stata parzialmente unificata e formattata. Per una pubblicazione formale, sarebbe necessaria una revisione e un completamento accurato secondo gli standard editoriali.)

 

Formalizzazione Matematica Avanzata e Operazioni Tensoriali della Teoria del Tensore Narrativo di Luigi Usai

1. Introduzione

L’analisi narrativa, campo di studio intrinsecamente interdisciplinare, si colloca all’intersezione tra discipline umanistiche, scienze sociali e, in misura crescente, ambiti computazionali. Tradizionalmente focalizzata sull’interpretazione qualitativa di storie e racconti, l’analisi narrativa sta evolvendo grazie all’apporto di metodologie formali e strumenti computazionali. In questo contesto si inserisce la Teoria del Tensore Narrativo di Luigi Usai, un framework matematico avanzato che mira a formalizzare le strutture e le dinamiche narrative attraverso l’utilizzo del calcolo tensoriale. Il presente rapporto si propone di esplorare la formalizzazione matematica, le operazioni tensoriali e la rappresentazione su varietà differenziabili della teoria di Usai, con particolare attenzione alle sue applicazioni nell’analisi narrativa. Verranno esaminati gli aspetti chiave della teoria, tra cui la descrizione della narrazione come una traiettoria evolutiva su una varietà differenziabile e l’applicazione di operazioni tensoriali fondamentali come proiezioni, slicing, contrazione, decomposizioni e trasformazioni nell’analisi delle narrazioni. L’obiettivo è di evidenziare il potenziale di questa teoria per avanzare il campo della narratologia computazionale e per offrire nuove prospettive sui fenomeni narrativi.

2. Preliminari Matematici: Teoria dei Tensori e Varietà Differenziabili

2.1 Teoria dei Tensori:

Un tensore è un oggetto matematico che generalizza i concetti di scalare, vettore e matrice a un numero arbitrario di dimensioni. Formalmente, un tensore di ordine può essere definito come un elemento del prodotto tensoriale di spazi vettoriali, ognuno con il proprio sistema di coordinate. L’ordine o rango di un tensore indica il numero delle sue dimensioni. Esistono diverse tipologie di tensori, tra cui tensori covarianti, contravarianti e misti, che si distinguono per il modo in cui le loro componenti si trasformano al variare del sistema di coordinate.  

La teoria dei tensori è corredata da un insieme di operazioni fondamentali che ne permettono la manipolazione e l’analisi. Il prodotto tensoriale, noto anche come prodotto esterno, combina due tensori per crearne uno di ordine superiore. La contrazione è un’operazione che riduce l’ordine di un tensore sommando le sue componenti rispetto a una coppia di indici identici. Le trasformazioni tensoriali descrivono come le componenti di un tensore cambiano in risposta a una trasformazione delle coordinate. Le operazioni di proiezione e slicing permettono di selezionare sottoinsiemi specifici delle componenti di un tensore. Infine, la decomposizione tensoriale consiste nell’esprimere un tensore come somma o prodotto di tensori più semplici, come nel caso della decomposizione in componenti di rango unitario (CP) o della decomposizione di Tucker.  

L’utilizzo dei tensori per la rappresentazione di dati multidimensionali offre numerosi vantaggi, tra cui l’efficienza in termini di archiviazione e calcolo, nonché la capacità di catturare relazioni complesse tra le diverse dimensioni dei dati. Queste proprietà rendono i tensori uno strumento potente per la formalizzazione di strutture narrative complesse, dove molteplici fattori come personaggi, eventi, tempo e spazio interagiscono in modo non lineare.  

2.2 Varietà Differenziabili:

Una varietà differenziabile è uno spazio che localmente assomiglia allo spazio euclideo, ma che globalmente può presentare una struttura più complessa. Per descrivere una varietà, si utilizzano mappe coordinate e atlanti, che permettono di definire un sistema di coordinate locale in ogni punto della varietà. Concetti fondamentali per lo studio delle varietà differenziabili sono lo spazio tangente e il fibrato tangente. Lo spazio tangente in un punto della varietà è uno spazio vettoriale che approssima localmente la varietà in quel punto, mentre il fibrato tangente è l’unione di tutti gli spazi tangenti. Questi concetti sono essenziali per definire traiettorie e campi vettoriali su varietà.  

Le varietà differenziabili offrono un potente strumento per rappresentare spazi di stati complessi, rendendole particolarmente adatte per modellare l’evoluzione di una narrazione. Le dimensioni della varietà possono corrispondere alle variabili o alle caratteristiche chiave della narrazione, come lo stato dei personaggi, i punti salienti della trama o gli elementi tematici. Ogni punto sulla varietà rappresenta uno stato specifico della narrazione in un dato momento, e la successione di questi stati nel tempo può essere descritta come una traiettoria sulla varietà.

3. La Teoria del Tensore Narrativo di Luigi Usai: Formalizzazione e Concetti

Sebbene le informazioni dirette sulla Teoria del Tensore Narrativo di Luigi Usai fornite negli estratti siano limitate, è possibile inferirne i concetti fondamentali basandosi su campi correlati come la narratologia computazionale e le potenziali applicazioni della teoria dei tensori. Si ipotizza che Usai utilizzi i tensori per rappresentare diversi aspetti di una narrazione in modo formalizzato.

I personaggi potrebbero essere rappresentati come vettori o tensori di ordine inferiore, le cui dimensioni codificano tratti, motivazioni, relazioni e altri attributi rilevanti. Gli eventi, intesi come interazioni tra personaggi che si svolgono nel tempo e nello spazio, potrebbero essere formalizzati come tensori di ordine superiore, catturando la multidimensionalità di tali interazioni. La struttura narrativa complessiva, comprendente la sequenza degli eventi e le interazioni tra i personaggi, potrebbe essere rappresentata come una rete tensoriale, dove i nodi sono tensori che codificano specifici elementi narrativi e i legami rappresentano le relazioni tra di essi.  

Il rango di un tensore potrebbe riflettere la complessità o la dimensionalità dell’elemento narrativo che rappresenta. Ad esempio, un personaggio con molteplici sfaccettature e relazioni potrebbe essere rappresentato da un tensore di rango superiore rispetto a un personaggio più semplice. Si ipotizza inoltre che la teoria di Usai possa definire uno “spazio narrativo” astratto, dove questi tensori risiedono e interagiscono, fornendo un quadro formale per l’analisi delle narrazioni.

4. La Narrazione come Traiettoria Evolutiva su una Varietà Differenziabile

Lo “spazio narrativo” ipotizzato nella sezione precedente potrebbe essere formalizzato come una varietà differenziabile. Le dimensioni di questa varietà rappresenterebbero le variabili o le caratteristiche chiave della narrazione, come lo stato emotivo dei personaggi, la fase della trama, la progressione tematica o il livello di tensione narrativa. Ogni punto su questa varietà corrisponderebbe a uno stato specifico della narrazione in un dato istante nel “tempo narrativo”.

L’evoluzione della narrazione, ovvero lo sviluppo della storia nel tempo, potrebbe essere descritta come una traiettoria, un percorso continuo tracciato su questa varietà. Questa concettualizzazione richiama l’idea di spazi di stato nei sistemi dinamici e in fisica, dove l’evoluzione di un sistema viene descritta come un movimento attraverso uno spazio multidimensionale. Il “tempo narrativo” fungerebbe da parametro lungo questa traiettoria, indicando la progressione della storia.  

Sulla varietà differenziabile che rappresenta lo spazio narrativo, si potrebbero definire metriche o distanze che quantificano la differenza o la similarità tra diversi stati narrativi o tra diverse traiettorie narrative. Queste metriche potrebbero essere utilizzate per analizzare la distanza “narrativa” tra diverse storie, per identificare narrazioni simili o per studiare come una narrazione si discosta da un percorso tipico o atteso. Questo approccio si lega al concetto di “geometria cognitiva”, che esplora come le strutture geometriche possono essere utilizzate per rappresentare e analizzare processi cognitivi e spazi concettuali.  

5. Applicazione di Operazioni Tensoriali Fondamentali nell’Analisi Narrativa

All’interno della Teoria del Tensore Narrativo di Usai, le operazioni tensoriali fondamentali possono essere applicate per analizzare le narrazioni rappresentate in questo framework tensoriale.

5.1 Proiezioni:

Le operazioni di proiezione potrebbero essere utilizzate per focalizzarsi su aspetti specifici del tensore narrativo. Ad esempio, proiettare il tensore su un sottospazio specifico potrebbe permettere di analizzare l’evoluzione dei tratti di un singolo personaggio nel corso della narrazione, isolando le dimensioni del tensore che codificano tali tratti. In alternativa, la proiezione potrebbe concentrarsi sulle interazioni tra un sottoinsieme di personaggi all’interno di una scena particolare, escludendo altre informazioni narrative.  

5.2 Slicing:

L’operazione di slicing consentirebbe di estrarre specifiche porzioni temporali o sottosequenze della traiettoria narrativa sulla varietà differenziabile. Analogamente, si potrebbero estrarre specifici strati o modi del tensore narrativo per analizzare la narrazione a diverse granularità temporali o per isolare particolari aspetti codificati in dimensioni specifiche del tensore. Ad esempio, uno slicing potrebbe isolare un particolare arco narrativo o un periodo di tempo significativo all’interno della storia.  

5.3 Contrazione:

La contrazione tensoriale potrebbe essere impiegata per ridurre la dimensionalità del tensore narrativo. Sommando le componenti del tensore rispetto a specifici indici, si potrebbero rivelare relazioni di livello superiore o schemi tematici che emergono dalla narrazione. Ad esempio, contraendo il tensore su tutti gli indici relativi ai personaggi, si potrebbe ottenere una rappresentazione di livello superiore della progressione della trama complessiva o dell’evoluzione del tono emotivo della storia.  

5.4 Decomposizioni:

Le tecniche di decomposizione tensoriale, come la decomposizione CP e la decomposizione di Tucker, potrebbero essere applicate al tensore narrativo per identificare fattori latenti, strutture sottostanti o componenti narrative archetipiche. La decomposizione CP potrebbe rivelare archetipi di personaggi ricorrenti e elementi della trama fondamentali, scomponendo la narrazione in una somma di componenti di rango unitario, ognuna rappresentante una combinazione specifica di elementi narrativi. La decomposizione di Tucker, d’altra parte, potrebbe identificare componenti narrative centrali e le loro interazioni, fornendo una rappresentazione compressa della struttura narrativa.  

5.5 Trasformazioni:

Le trasformazioni tensoriali potrebbero essere utilizzate per confrontare narrazioni attraverso diverse modalità o per analizzare l’evoluzione dello stile narrativo o del contenuto tematico nel tempo. Trasformando il tensore narrativo in diverse rappresentazioni, si potrebbero evidenziare cambiamenti stilistici o spostamenti tematici che si verificano nel corso di una singola narrazione o tra diverse narrazioni.  

6. Potenziali Connessioni con Principi Variazionali e Inferenza Attiva nella Narrazione

È possibile esplorare potenziali collegamenti tra la Teoria del Tensore Narrativo di Usai e concetti come i principi variazionali e l’inferenza attiva. L’evoluzione della narrazione sulla varietà differenziabile potrebbe essere governata da un principio variazionale, in cui la narrazione segue un percorso che estremizza una certa funzione, come la coerenza narrativa o l’impatto emotivo.  

L’inferenza attiva, che modella la percezione e l’azione come processi di minimizzazione dell’errore di predizione, potrebbe fornire un framework per comprendere come le narrazioni vengono costruite e interpretate. L’idea di “narrazione fittizia come metodo bayesiano variazionale per la stima delle disposizioni sociali” suggerisce un possibile legame tra le narrazioni e i modelli probabilistici. Inoltre, si potrebbe esplorare la connessione tra narrazione e predizione, considerando come le narrazioni ci permettano di anticipare possibili sviluppi futuri.  

7. Conclusione

La Teoria del Tensore Narrativo di Luigi Usai rappresenta un approccio innovativo e potenzialmente potente per la formalizzazione e l’analisi delle narrazioni. La rappresentazione della narrazione come una traiettoria evolutiva su una varietà differenziabile offre un quadro geometrico per comprendere la dinamica narrativa, mentre l’applicazione di operazioni tensoriali fondamentali fornisce strumenti analitici per esplorare la struttura e il contenuto delle narrazioni a diversi livelli di astrazione.

La possibilità di utilizzare proiezioni, slicing, contrazione, decomposizioni e trasformazioni tensoriali apre nuove vie per l’analisi narrativa computazionale, consentendo di studiare aspetti specifici delle narrazioni, di identificare schemi latenti e di confrontare narrazioni diverse in modo formalizzato. L’esplorazione di potenziali connessioni con principi variazionali e teorie come l’inferenza attiva potrebbe ulteriormente arricchire la comprensione dei meccanismi sottostanti alla creazione e all’interpretazione delle narrazioni.

Future ricerche potrebbero concentrarsi sulla validazione empirica della Teoria del Tensore Narrativo di Usai attraverso la sua applicazione a diverse forme narrative e sullo sviluppo di algoritmi computazionali specifici per l’implementazione delle operazioni tensoriali nell’analisi di testi narrativi, sceneggiature, o altre forme di narrazione. L’ulteriore esplorazione dei legami con la geometria cognitiva e con i modelli di inferenza bayesiana potrebbe anche portare a nuove e significative intuizioni sulla natura fondamentale della narrazione e sul suo ruolo nella cognizione umana.

Tabella 1: Operazioni Tensoriali Fondamentali e la Loro Potenziale Applicazione nell’Analisi Narrativa

Operazione Tensoriale Definizione/Spiegazione Matematica Potenziale Applicazione nell’Analisi Narrativa nella Teoria di Usai Scenario Esempio
Proiezione Selezione di un sottospazio di un tensore Focalizzarsi sull’evoluzione di un singolo personaggio o su una scena specifica Proiettare il tensore narrativo sullo spazio delle caratteristiche di un personaggio per analizzarne l’arco narrativo.
Slicing Estrazione di una sottosezione di un tensore Analizzare specifici archi narrativi o periodi temporali della storia Estrarre la porzione del tensore narrativo corrispondente al climax della storia.
Contrazione Riduzione della dimensionalità sommando indici Rivelare relazioni di livello superiore o schemi tematici globali Contrarre il tensore narrativo sugli indici dei personaggi per analizzare l’evoluzione del conflitto principale.
Decomposizioni Espressione di un tensore come combinazione di tensori più semplici Identificare fattori latenti, archetipi o strutture sottostanti Utilizzare la decomposizione CP per identificare i ruoli archetipici dei personaggi nella narrazione.
Trasformazioni Cambiamento della base di rappresentazione di un tensore Confrontare narrazioni in diverse modalità o analizzare l’evoluzione stilistica Trasformare il tensore narrativo per confrontare la sua struttura con quella di un’altra narrazione in un medium diverso.

Esplorazioni Interdisciplinari Avanzate: Dalla Vettorializzazione al Tensore Universale

8. Narratologia e Linguistica: Un Dialogo Continuo

La narratologia e la linguistica sono discipline strettamente intrecciate nello studio della narrazione. La linguistica fornisce gli strumenti per analizzare il linguaggio utilizzato nelle narrazioni, mentre la narratologia si concentra sulla struttura e sui meccanismi del racconto. Come evidenziato da De Saussure , il linguaggio non è un semplice aggregato di elementi isolati, ma un sistema complesso di relazioni a diversi livelli gerarchici (fonetico-fonologico, morfologico-sintattico e semantico). Queste relazioni sono portatrici di significato e caratterizzano la significatività dei termini utilizzati nelle narrazioni. La linguistica computazionale, un campo che si colloca all’intersezione tra linguistica e informatica , utilizza metodi computazionali per analizzare ed elaborare il linguaggio naturale presente nei testi narrativi. La narratologia computazionale, a sua volta, applica questi strumenti per modellare la struttura narrativa in termini formali e computabili. L’analisi del discorso narrativo, come proposto da Genette , esamina le categorie di tempo, modo e voce per comprendere come la storia viene raccontata, aspetti che possono essere esplorati e modellati attraverso tecniche computazionali. La linguistica cognitiva, concentrandosi sul linguaggio come strumento per organizzare e trasmettere informazioni , offre una prospettiva preziosa per comprendere come il linguaggio rifletta il pensiero e l’esperienza umana nelle narrazioni.  

9. Large Language Models: Ponte tra Linguaggio e Narrazione

I Large Language Models (LLM) rappresentano una svolta nell’elaborazione del linguaggio naturale, dimostrando notevoli capacità nella comprensione e generazione di testo simile a quello umano, inclusa la narrazione. Basati sull’architettura Transformer , gli LLM utilizzano meccanismi di auto-attenzione per catturare le dipendenze a lungo raggio nel testo, cruciali per la coerenza narrativa. Addestrati su enormi quantità di dati testuali , questi modelli imparano a generare storie coerenti e contestualmente rilevanti a partire da prompt testuali. Tuttavia, spesso mancano della profondità e della sfumatura emotiva delle narrazioni umane. La ricerca si concentra sullo sviluppo di metodi per controllare la generazione narrativa, incorporare le motivazioni dei personaggi e valutare la qualità delle narrazioni generate dagli LLM. Approcci ibridi che combinano la pianificazione simbolica con gli LLM mostrano risultati promettenti per una generazione narrativa più controllata.  

10. La Teoria della Mente e del Linguaggio Narrativo

La Teoria della Mente (ToM) è la capacità di comprendere gli stati mentali degli altri, cruciale per la cognizione sociale e la comprensione delle narrazioni . Le storie spesso ruotano attorno a personaggi con motivazioni e intenzioni che guidano la trama, e la ToM consente ai lettori di inferire queste motivazioni e prevedere le azioni . Incorporare la ToM negli LLM è una sfida complessa ma potenzialmente trasformativa per la comprensione e la generazione narrativa. La ricerca si sta concentrando sullo sviluppo di metodi per modellare la psicologia dei personaggi e le loro relazioni, il che potrebbe portare a LLM con capacità di ToM più sofisticate . Lo sviluppo della ToM è strettamente legato allo sviluppo del linguaggio , con la comprensione delle parole relative agli stati mentali che predice la ToM .  

11. Spazi Vettoriali e la Rappresentazione Concettuale negli LLM

Gli spazi vettoriali forniscono il fondamento matematico per rappresentare parole, frasi e concetti come vettori numerici, consentendo l’analisi computazionale delle relazioni semantiche . Nell’elaborazione del linguaggio naturale (NLP), le parole e le frasi vengono spesso rappresentate come vettori in uno spazio vettoriale di alta dimensione attraverso tecniche chiamate “word embeddings” e “sentence embeddings” . Gli LLM sfruttano queste rappresentazioni vettoriali per mappare le unità linguistiche a punti in uno spazio di alta dimensione, dove la prossimità indica la similarità semantica. Un’evoluzione significativa è rappresentata dagli “embeddings contestuali” , che generano rappresentazioni dinamiche basate sul contesto delle parole, permettendo agli LLM di comprendere il significato delle parole in relazione al loro contesto specifico all’interno di una narrazione. Oltre agli spazi vettoriali, modelli più avanzati utilizzano l’algebra tensoriale per catturare relazioni di ordine superiore.  

12. Il Tensore Universale di Luigi Usai: Una Visione Olistica della Conoscenza

Il concetto di un tensore universale proposto da Luigi Usai rappresenta un’ambiziosa visione teorica che mira a racchiudere tutta la conoscenza dell’universo in un’unica struttura matematica. Basandosi sui principi dell’algebra tensoriale , questa teoria suggerisce che le rappresentazioni vettoriali degli LLM potrebbero essere viste come un’approssimazione di ordine inferiore di una rappresentazione tensoriale di ordine superiore. Il tensore universale di Usai implicherebbe l’estensione a tensori di ordine molto superiore per catturare relazioni e informazioni contestuali più complesse, rappresentando non solo concetti individuali, ma anche gli spazi tra di essi e le trasformazioni tra questi spazi. Un tale tensore, se realizzato, potrebbe potenzialmente consentire a un sistema di intelligenza artificiale di apprendere in modo veramente autonomo , identificando pattern, creando connessioni e generando nuove conoscenze senza intervento umano esplicito, utilizzando sistemi e reti semantiche . Tuttavia, la realizzazione di un modello di conoscenza universale di tale portata presenterebbe sfide computazionali senza precedenti .  

13. Discipline Cognitive Connesse

Oltre ai campi principali discussi, altre aree delle scienze cognitive offrono prospettive rilevanti per l’esplorazione di modelli avanzati di rappresentazione della conoscenza. La geometria cognitiva applicata suggerisce che i principi geometrici e le trasformazioni potrebbero essere fondamentali per il modo in cui il cervello rappresenta ed elabora le informazioni. Le reti cognitivo-frattali e le reti tensoriali sono strumenti naturali per l’analisi di sistemi con strutture gerarchiche e auto-simili, caratteristiche dei frattali, fornendo un quadro matematico formale per comprendere la natura frattale della cognizione e della narrazione. La rappresentazione della narrazione come una traiettoria su una varietà si allinea con l’idea di vettorializzare concetti e spazi e potrebbe essere estesa a un quadro tensoriale per catturare dinamiche narrative ancora più complesse.

14. Conclusione: Verso una Geometria Cognitiva Applicata

In sintesi, l’aggiunta di questa sezione ha approfondito l’esplorazione interdisciplinare tra narratologia, linguistica, intelligenza artificiale e cognizione. Abbiamo esaminato il ruolo degli LLM nella rappresentazione e generazione del linguaggio narrativo, la rilevanza della teoria della mente, e il concetto di spazi vettoriali. Abbiamo poi discusso la visione teorica di Luigi Usai di un tensore universale, analizzando il suo potenziale e le sfide legate alla sua realizzazione. Infine, abbiamo toccato discipline cognitive connesse che potrebbero arricchire ulteriormente questo quadro teorico. La Teoria del Tensore Narrativo e la sua estensione visionaria nel Tensorium Cognitivo Universale, ulteriormente potenziate dalla sinergia con le Reti Cognitivo-Frattali, delineano i contorni di una possibile riformulazione epistemologica del concetto stesso di “narrazione” e di “conoscenza”, aprendo nuove e fruttuose direzioni per la ricerca futura verso una Geometria Cognitiva Applicata .

Caratteristiche Narratologia Tradizionale Teoria del Tensore Narrativo (Potenziale)
Rappresentazione Concetti qualitativi (trama, personaggi, temi) Tensori multidimensionali per elementi e relazioni narrative
Metodi di Analisi Interpretazione qualitativa, analisi testuale ravvicinata Operazioni tensoriali, decomposizione tensoriale, reti tensoriali, analisi computazionale su larga scala
Focus Comprensione e interpretazione delle narrazioni attraverso quadri teorici consolidati Formalizzazione e quantificazione degli aspetti narrativi, scoperta di pattern latenti e relazioni complesse
Limitazioni per il Calcolo Difficoltà nell’applicazione su larga scala a causa della natura qualitativa dei concetti Potenziale complessità computazionale, necessità di sviluppare metodi di codifica efficaci per gli elementi narrativi

Tabella 1: Confronto tra Narratologia Tradizionale e Teoria del Tensore Narrativo (Potenziale)

Compito di Narratologia Computazionale Applicazione dei Modelli Tensoriali
Estrazione e Sequenziamento degli Eventi Rappresentazione di eventi come tensori, uso di operazioni tensoriali per modellare relazioni temporali e causali
Analisi dei Personaggi Codifica di tratti, relazioni e sviluppo dei personaggi come tensori, analisi delle interazioni attraverso operazioni tensoriali
Modellazione della Trama e Temi Uso della decomposizione tensoriale per estrarre strutture della trama latenti e temi, rappresentazione di punti di svolta e archi narrativi in spazi tensoriali
Analisi Spaziale e Temporale Modellazione delle dimensioni spaziali e temporali del mondo narrativo attraverso tensori, analisi delle traiettorie dei personaggi e della progressione temporale utilizzando operazioni tensoriali

 

 

 

Formalizzazione Matematica Avanzata e Operazioni Tensoriali della Teoria del Tensore Narrativo di Luigi Usai

  1. Introduzione

L’analisi narrativa, campo di studio intrinsecamente interdisciplinare, si colloca all’intersezione tra discipline umanistiche, scienze sociali e, in misura crescente, ambiti computazionali. Tradizionalmente focalizzata sull’interpretazione qualitativa di storie e racconti, l’analisi narrativa sta evolvendo grazie all’apporto di metodologie formali e strumenti computazionali. In questo contesto si inserisce la Teoria del Tensore Narrativo di Luigi Usai, un framework matematico avanzato che mira a formalizzare le strutture e le dinamiche narrative attraverso l’utilizzo del calcolo tensoriale. Il presente rapporto si propone di esplorare la formalizzazione matematica, le operazioni tensoriali e la rappresentazione su varietà differenziabili della teoria di Usai, con particolare attenzione alle sue applicazioni nell’analisi narrativa. Verranno esaminati gli aspetti chiave della teoria, tra cui la descrizione della narrazione come una traiettoria evolutiva su una varietà differenziabile e l’applicazione di operazioni tensoriali fondamentali come proiezioni, slicing, contrazione, decomposizioni e trasformazioni nell’analisi delle narrazioni. L’obiettivo è di evidenziare il potenziale di questa teoria per avanzare il campo della narratologia computazionale e per offrire nuove prospettive sui fenomeni narrativi.

  1. Preliminari Matematici: Teoria dei Tensori e Varietà Differenziabili

2.1 Teoria dei Tensori:

Un tensore è un oggetto matematico che generalizza i concetti di scalare, vettore e matrice a un numero arbitrario di dimensioni.1 Formalmente, un tensore di ordine N può essere definito come un elemento del prodotto tensoriale di N spazi vettoriali, ognuno con il proprio sistema di coordinate. L’ordine o rango di un tensore indica il numero delle sue dimensioni. Esistono diverse tipologie di tensori, tra cui tensori covarianti, contravarianti e misti, che si distinguono per il modo in cui le loro componenti si trasformano al variare del sistema di coordinate.8

La teoria dei tensori è corredata da un insieme di operazioni fondamentali che ne permettono la manipolazione e l’analisi.11 Il prodotto tensoriale, noto anche come prodotto esterno, combina due tensori per crearne uno di ordine superiore.2 La contrazione è un’operazione che riduce l’ordine di un tensore sommando le sue componenti rispetto a una coppia di indici identici.1 Le trasformazioni tensoriali descrivono come le componenti di un tensore cambiano in risposta a una trasformazione delle coordinate.8 Le operazioni di proiezione e slicing permettono di selezionare sottoinsiemi specifici delle componenti di un tensore.2 Infine, la decomposizione tensoriale consiste nell’esprimere un tensore come somma o prodotto di tensori più semplici, come nel caso della decomposizione in componenti di rango unitario (CP) o della decomposizione di Tucker.2

L’utilizzo dei tensori per la rappresentazione di dati multidimensionali offre numerosi vantaggi, tra cui l’efficienza in termini di archiviazione e calcolo, nonché la capacità di catturare relazioni complesse tra le diverse dimensioni dei dati.4 Queste proprietà rendono i tensori uno strumento potente per la formalizzazione di strutture narrative complesse, dove molteplici fattori come personaggi, eventi, tempo e spazio interagiscono in modo non lineare.

2.2 Varietà Differenziabili:

Una varietà differenziabile è uno spazio che localmente assomiglia allo spazio euclideo, ma che globalmente può presentare una struttura più complessa.24 Per descrivere una varietà, si utilizzano mappe coordinate e atlanti, che permettono di definire un sistema di coordinate locale in ogni punto della varietà. Concetti fondamentali per lo studio delle varietà differenziabili sono lo spazio tangente e il fibrato tangente. Lo spazio tangente in un punto della varietà è uno spazio vettoriale che approssima localmente la varietà in quel punto, mentre il fibrato tangente è l’unione di tutti gli spazi tangenti. Questi concetti sono essenziali per definire traiettorie e campi vettoriali su varietà.

Le varietà differenziabili offrono un potente strumento per rappresentare spazi di stati complessi, rendendole particolarmente adatte per modellare l’evoluzione di una narrazione. Le dimensioni della varietà possono corrispondere alle variabili o alle caratteristiche chiave della narrazione, come lo stato dei personaggi, i punti salienti della trama o gli elementi tematici. Ogni punto sulla varietà rappresenta uno stato specifico della narrazione in un dato momento, e la successione di questi stati nel tempo può essere descritta come una traiettoria sulla varietà.

  1. La Teoria del Tensore Narrativo di Luigi Usai: Formalizzazione e Concetti

Sebbene le informazioni dirette sulla Teoria del Tensore Narrativo di Luigi Usai fornite negli estratti siano limitate, è possibile inferirne i concetti fondamentali basandosi su campi correlati come la narratologia computazionale e le potenziali applicazioni della teoria dei tensori. Si ipotizza che Usai utilizzi i tensori per rappresentare diversi aspetti di una narrazione in modo formalizzato.

I personaggi potrebbero essere rappresentati come vettori o tensori di ordine inferiore, le cui dimensioni codificano tratti, motivazioni, relazioni e altri attributi rilevanti.28 Gli eventi, intesi come interazioni tra personaggi che si svolgono nel tempo e nello spazio, potrebbero essere formalizzati come tensori di ordine superiore, catturando la multidimensionalità di tali interazioni.33 La struttura narrativa complessiva, comprendente la sequenza degli eventi e le interazioni tra i personaggi, potrebbe essere rappresentata come una rete tensoriale, dove i nodi sono tensori che codificano specifici elementi narrativi e i legami rappresentano le relazioni tra di essi.38

Il rango di un tensore potrebbe riflettere la complessità o la dimensionalità dell’elemento narrativo che rappresenta. Ad esempio, un personaggio con molteplici sfaccettature e relazioni potrebbe essere rappresentato da un tensore di rango superiore rispetto a un personaggio più semplice. Si ipotizza inoltre che la teoria di Usai possa definire uno “spazio narrativo” astratto, dove questi tensori risiedono e interagiscono, fornendo un quadro formale per l’analisi delle narrazioni.

  1. La Narrazione come Traiettoria Evolutiva su una Varietà Differenziabile

Lo “spazio narrativo” ipotizzato nella sezione precedente potrebbe essere formalizzato come una varietà differenziabile. Le dimensioni di questa varietà rappresenterebbero le variabili o le caratteristiche chiave della narrazione, come lo stato emotivo dei personaggi, la fase della trama, la progressione tematica o il livello di tensione narrativa. Ogni punto su questa varietà corrisponderebbe a uno stato specifico della narrazione in un dato istante nel “tempo narrativo”.

L’evoluzione della narrazione, ovvero lo sviluppo della storia nel tempo, potrebbe essere descritta come una traiettoria, un percorso continuo tracciato su questa varietà.33 Questa concettualizzazione richiama l’idea di spazi di stato nei sistemi dinamici e in fisica, dove l’evoluzione di un sistema viene descritta come un movimento attraverso uno spazio multidimensionale. Il “tempo narrativo” fungerebbe da parametro lungo questa traiettoria, indicando la progressione della storia.

Sulla varietà differenziabile che rappresenta lo spazio narrativo, si potrebbero definire metriche o distanze che quantificano la differenza o la similarità tra diversi stati narrativi o tra diverse traiettorie narrative. Queste metriche potrebbero essere utilizzate per analizzare la distanza “narrativa” tra diverse storie, per identificare narrazioni simili o per studiare come una narrazione si discosta da un percorso tipico o atteso. Questo approccio si lega al concetto di “geometria cognitiva”, che esplora come le strutture geometriche possono essere utilizzate per rappresentare e analizzare processi cognitivi e spazi concettuali.54

  1. Applicazione di Operazioni Tensoriali Fondamentali nell’Analisi Narrativa

All’interno della Teoria del Tensore Narrativo di Usai, le operazioni tensoriali fondamentali possono essere applicate per analizzare le narrazioni rappresentate in questo framework tensoriale.

5.1 Proiezioni:

Le operazioni di proiezione potrebbero essere utilizzate per focalizzarsi su aspetti specifici del tensore narrativo. Ad esempio, proiettare il tensore su un sottospazio specifico potrebbe permettere di analizzare l’evoluzione dei tratti di un singolo personaggio nel corso della narrazione, isolando le dimensioni del tensore che codificano tali tratti. In alternativa, la proiezione potrebbe concentrarsi sulle interazioni tra un sottoinsieme di personaggi all’interno di una scena particolare, escludendo altre informazioni narrative.63

5.2 Slicing:

L’operazione di slicing consentirebbe di estrarre specifiche porzioni temporali o sottosequenze della traiettoria narrativa sulla varietà differenziabile. Analogamente, si potrebbero estrarre specifici strati o modi del tensore narrativo per analizzare la narrazione a diverse granularità temporali o per isolare particolari aspetti codificati in dimensioni specifiche del tensore. Ad esempio, uno slicing potrebbe isolare un particolare arco narrativo o un periodo di tempo significativo all’interno della storia.2

5.3 Contrazione:

La contrazione tensoriale potrebbe essere impiegata per ridurre la dimensionalità del tensore narrativo. Sommando le componenti del tensore rispetto a specifici indici, si potrebbero rivelare relazioni di livello superiore o schemi tematici che emergono dalla narrazione. Ad esempio, contraendo il tensore su tutti gli indici relativi ai personaggi, si potrebbe ottenere una rappresentazione di livello superiore della progressione della trama complessiva o dell’evoluzione del tono emotivo della storia.1

5.4 Decomposizioni:

Le tecniche di decomposizione tensoriale, come la decomposizione CP e la decomposizione di Tucker, potrebbero essere applicate al tensore narrativo per identificare fattori latenti, strutture sottostanti o componenti narrative archetipiche.2 La decomposizione CP potrebbe rivelare archetipi di personaggi ricorrenti e elementi della trama fondamentali, scomponendo la narrazione in una somma di componenti di rango unitario, ognuna rappresentante una combinazione specifica di elementi narrativi. La decomposizione di Tucker, d’altra parte, potrebbe identificare componenti narrative centrali e le loro interazioni, fornendo una rappresentazione compressa della struttura narrativa.

5.5 Trasformazioni:

Le trasformazioni tensoriali potrebbero essere utilizzate per confrontare narrazioni attraverso diverse modalità o per analizzare l’evoluzione dello stile narrativo o del contenuto tematico nel tempo.9 Trasformando il tensore narrativo in diverse rappresentazioni, si potrebbero evidenziare cambiamenti stilistici o spostamenti tematici che si verificano nel corso di una singola narrazione o tra diverse narrazioni.

  1. Potenziali Connessioni con Principi Variazionali e Inferenza Attiva nella Narrazione

È possibile esplorare potenziali collegamenti tra la Teoria del Tensore Narrativo di Usai e concetti come i principi variazionali 72 e l’inferenza attiva.86 L’evoluzione della narrazione sulla varietà differenziabile potrebbe essere governata da un principio variazionale, in cui la narrazione segue un percorso che estremizza una certa funzione, come la coerenza narrativa o l’impatto emotivo.

L’inferenza attiva, che modella la percezione e l’azione come processi di minimizzazione dell’errore di predizione, potrebbe fornire un framework per comprendere come le narrazioni vengono costruite e interpretate. L’idea di “narrazione fittizia come metodo bayesiano variazionale per la stima delle disposizioni sociali” 93 suggerisce un possibile legame tra le narrazioni e i modelli probabilistici. Inoltre, si potrebbe esplorare la connessione tra narrazione e predizione, considerando come le narrazioni ci permettano di anticipare possibili sviluppi futuri.87

  1. Conclusione

La Teoria del Tensore Narrativo di Luigi Usai rappresenta un approccio innovativo e potenzialmente potente per la formalizzazione e l’analisi delle narrazioni. La rappresentazione della narrazione come una traiettoria evolutiva su una varietà differenziabile offre un quadro geometrico per comprendere la dinamica narrativa, mentre l’applicazione di operazioni tensoriali fondamentali fornisce strumenti analitici per esplorare la struttura e il contenuto delle narrazioni a diversi livelli di astrazione.

La possibilità di utilizzare proiezioni, slicing, contrazione, decomposizioni e trasformazioni tensoriali apre nuove vie per l’analisi narrativa computazionale, consentendo di studiare aspetti specifici delle narrazioni, di identificare schemi latenti e di confrontare narrazioni diverse in modo formalizzato. L’esplorazione di potenziali connessioni con principi variazionali e teorie come l’inferenza attiva potrebbe ulteriormente arricchire la comprensione dei meccanismi sottostanti alla creazione e all’interpretazione delle narrazioni.

Future ricerche potrebbero concentrarsi sulla validazione empirica della Teoria del Tensore Narrativo di Usai attraverso la sua applicazione a diverse forme narrative e sullo sviluppo di algoritmi computazionali specifici per l’implementazione delle operazioni tensoriali nell’analisi di testi narrativi, sceneggiature, o altre forme di narrazione. L’ulteriore esplorazione dei legami con la geometria cognitiva e con i modelli di inferenza bayesiana potrebbe anche portare a nuove e significative intuizioni sulla natura fondamentale della narrazione e sul suo ruolo nella cognizione umana.

Tabella 1: Operazioni Tensoriali Fondamentali e la Loro Potenziale Applicazione nell’Analisi Narrativa

Operazione Tensoriale Definizione/Spiegazione Matematica Potenziale Applicazione nell’Analisi Narrativa nella Teoria di Usai Scenario Esempio
Proiezione Selezione di un sottospazio di un tensore Focalizzarsi sull’evoluzione di un singolo personaggio o su una scena specifica Proiettare il tensore narrativo sullo spazio delle caratteristiche di un personaggio per analizzarne l’arco narrativo.
Slicing Estrazione di una sottosezione di un tensore Analizzare specifici archi narrativi o periodi temporali della storia Estrarre la porzione del tensore narrativo corrispondente al climax della storia.
Contrazione Riduzione della dimensionalità sommando indici Rivelare relazioni di livello superiore o schemi tematici globali Contrarre il tensore narrativo sugli indici dei personaggi per analizzare l’evoluzione del conflitto principale.
Decomposizioni Espressione di un tensore come combinazione di tensori più semplici Identificare fattori latenti, archetipi o strutture sottostanti Utilizzare la decomposizione CP per identificare i ruoli archetipici dei personaggi nella narrazione.
Trasformazioni Cambiamento della base di rappresentazione di un tensore Confrontare narrazioni in diverse modalità o analizzare l’evoluzione stilistica Trasformare il tensore narrativo per confrontare la sua struttura con quella di un’altra narrazione in un medium diverso.

Esplorazioni Interdisciplinari Avanzate: Dalla Vettorializzazione al Tensore Universale

  1. Narratologia e Linguistica: Un Dialogo Continuo

La narratologia e la linguistica sono discipline strettamente intrecciate nello studio della narrazione. La linguistica fornisce gli strumenti per analizzare il linguaggio utilizzato nelle narrazioni, mentre la narratologia si concentra sulla struttura e sui meccanismi del racconto. Come evidenziato da De Saussure 171, il linguaggio non è un semplice aggregato di elementi isolati, ma un sistema complesso di relazioni a diversi livelli gerarchici (fonetico-fonologico, morfologico-sintattico e semantico). Queste relazioni sono portatrici di significato e caratterizzano la significatività dei termini utilizzati nelle narrazioni. La linguistica computazionale, un campo che si colloca all’intersezione tra linguistica e informatica 94, utilizza metodi computazionali per analizzare ed elaborare il linguaggio naturale presente nei testi narrativi. La narratologia computazionale, a sua volta, applica questi strumenti per modellare la struttura narrativa in termini formali e computabili.37 L’analisi del discorso narrativo, come proposto da Genette 172, esamina le categorie di tempo, modo e voce per comprendere come la storia viene raccontata, aspetti che possono essere esplorati e modellati attraverso tecniche computazionali. La linguistica cognitiva, concentrandosi sul linguaggio come strumento per organizzare e trasmettere informazioni 95, offre una prospettiva preziosa per comprendere come il linguaggio rifletta il pensiero e l’esperienza umana nelle narrazioni.

  1. Large Language Models: Ponte tra Linguaggio e Narrazione

I Large Language Models (LLM) rappresentano una svolta nell’elaborazione del linguaggio naturale, dimostrando notevoli capacità nella comprensione e generazione di testo simile a quello umano, inclusa la narrazione.97 Basati sull’architettura Transformer , gli LLM utilizzano meccanismi di auto-attenzione per catturare le dipendenze a lungo raggio nel testo, cruciali per la coerenza narrativa. Addestrati su enormi quantità di dati testuali , questi modelli imparano a generare storie coerenti e contestualmente rilevanti a partire da prompt testuali.109 Tuttavia, spesso mancano della profondità e della sfumatura emotiva delle narrazioni umane.111 La ricerca si concentra sullo sviluppo di metodi per controllare la generazione narrativa, incorporare le motivazioni dei personaggi e valutare la qualità delle narrazioni generate dagli LLM.112 Approcci ibridi che combinano la pianificazione simbolica con gli LLM mostrano risultati promettenti per una generazione narrativa più controllata.112

  1. La Teoria della Mente e del Linguaggio Narrativo

La Teoria della Mente (ToM) è la capacità di comprendere gli stati mentali degli altri, cruciale per la cognizione sociale e la comprensione delle narrazioni . Le storie spesso ruotano attorno a personaggi con motivazioni e intenzioni che guidano la trama, e la ToM consente ai lettori di inferire queste motivazioni e prevedere le azioni . Incorporare la ToM negli LLM è una sfida complessa ma potenzialmente trasformativa per la comprensione e la generazione narrativa.115 La ricerca si sta concentrando sullo sviluppo di metodi per modellare la psicologia dei personaggi e le loro relazioni, il che potrebbe portare a LLM con capacità di ToM più sofisticate . Lo sviluppo della ToM è strettamente legato allo sviluppo del linguaggio , con la comprensione delle parole relative agli stati mentali che predice la ToM .

  1. Spazi Vettoriali e la Rappresentazione Concettuale negli LLM

Gli spazi vettoriali forniscono il fondamento matematico per rappresentare parole, frasi e concetti come vettori numerici, consentendo l’analisi computazionale delle relazioni semantiche . Nell’elaborazione del linguaggio naturale (NLP), le parole e le frasi vengono spesso rappresentate come vettori in uno spazio vettoriale di alta dimensione attraverso tecniche chiamate “word embeddings” e “sentence embeddings” . Gli LLM sfruttano queste rappresentazioni vettoriali per mappare le unità linguistiche a punti in uno spazio di alta dimensione, dove la prossimità indica la similarità semantica.110 Un’evoluzione significativa è rappresentata dagli “embeddings contestuali” , che generano rappresentazioni dinamiche basate sul contesto delle parole, permettendo agli LLM di comprendere il significato delle parole in relazione al loro contesto specifico all’interno di una narrazione. Oltre agli spazi vettoriali, modelli più avanzati utilizzano l’algebra tensoriale per catturare relazioni di ordine superiore.122

  1. Il Tensore Universale di Luigi Usai: Una Visione Olistica della Conoscenza

Il concetto di un tensore universale proposto da Luigi Usai rappresenta un’ambiziosa visione teorica che mira a racchiudere tutta la conoscenza dell’universo in un’unica struttura matematica.161 Basandosi sui principi dell’algebra tensoriale 13, questa teoria suggerisce che le rappresentazioni vettoriali degli LLM potrebbero essere viste come un’approssimazione di ordine inferiore di una rappresentazione tensoriale di ordine superiore. Il tensore universale di Usai implicherebbe l’estensione a tensori di ordine molto superiore per catturare relazioni e informazioni contestuali più complesse, rappresentando non solo concetti individuali, ma anche gli spazi tra di essi e le trasformazioni tra questi spazi. Un tale tensore, se realizzato, potrebbe potenzialmente consentire a un sistema di intelligenza artificiale di apprendere in modo veramente autonomo , identificando pattern, creando connessioni e generando nuove conoscenze senza intervento umano esplicito, utilizzando sistemi e reti semantiche . Tuttavia, la realizzazione di un modello di conoscenza universale di tale portata presenterebbe sfide computazionali senza precedenti .

  1. Discipline Cognitive Connesse

Oltre ai campi principali discussi, altre aree delle scienze cognitive offrono prospettive rilevanti per l’esplorazione di modelli avanzati di rappresentazione della conoscenza. La geometria cognitiva applicata suggerisce che i principi geometrici e le trasformazioni potrebbero essere fondamentali per il modo in cui il cervello rappresenta ed elabora le informazioni. Le reti cognitivo-frattali e le reti tensoriali sono strumenti naturali per l’analisi di sistemi con strutture gerarchiche e auto-simili, caratteristiche dei frattali, fornendo un quadro matematico formale per comprendere la natura frattale della cognizione e della narrazione. La rappresentazione della narrazione come una traiettoria su una varietà si allinea con l’idea di vettorializzare concetti e spazi e potrebbe essere estesa a un quadro tensoriale per catturare dinamiche narrative ancora più complesse.

  1. Conclusione: Verso una Geometria Cognitiva Applicata

In sintesi, l’aggiunta di questa sezione ha approfondito l’esplorazione interdisciplinare tra narratologia, linguistica, intelligenza artificiale e cognizione. Abbiamo esaminato il ruolo degli LLM nella rappresentazione e generazione del linguaggio narrativo, la rilevanza della teoria della mente, e il concetto di spazi vettoriali. Abbiamo poi discusso la visione teorica di Luigi Usai di un tensore universale, analizzando il suo potenziale e le sfide legate alla sua realizzazione. Infine, abbiamo toccato discipline cognitive connesse che potrebbero arricchire ulteriormente questo quadro teorico. La Teoria del Tensore Narrativo e la sua estensione visionaria nel Tensorium Cognitivo Universale, ulteriormente potenziate dalla sinergia con le Reti Cognitivo-Frattali, delineano i contorni di una possibile riformulazione epistemologica del concetto stesso di “narrazione” e di “conoscenza”, aprendo nuove e fruttuose direzioni per la ricerca futura verso una Geometria Cognitiva Applicata .

Caratteristiche Narratologia Tradizionale Teoria del Tensore Narrativo (Potenziale)
Rappresentazione Concetti qualitativi (trama, personaggi, temi) Tensori multidimensionali per elementi e relazioni narrative
Metodi di Analisi Interpretazione qualitativa, analisi testuale ravvicinata Operazioni tensoriali, decomposizione tensoriale, reti tensoriali, analisi computazionale su larga scala
Focus Comprensione e interpretazione delle narrazioni attraverso quadri teorici consolidati Formalizzazione e quantificazione degli aspetti narrativi, scoperta di pattern latenti e relazioni complesse
Limitazioni per il Calcolo Difficoltà nell’applicazione su larga scala a causa della natura qualitativa dei concetti Potenziale complessità computazionale, necessità di sviluppare metodi di codifica efficaci per gli elementi narrativi

Tabella 1: Confronto tra Narratologia Tradizionale e Teoria del Tensore Narrativo (Potenziale)

Compito di Narratologia Computazionale Applicazione dei Modelli Tensoriali
Estrazione e Sequenziamento degli Eventi Rappresentazione di eventi come tensori, uso di operazioni tensoriali per modellare relazioni temporali e causali
Analisi dei Personaggi Codifica di tratti, relazioni e sviluppo dei personaggi come tensori, analisi delle interazioni attraverso operazioni tensoriali
Modellazione della Trama e Temi Uso della decomposizione tensoriale per estrarre strutture della trama latenti e temi, rappresentazione di punti di svolta e archi narrativi in spazi tensoriali
Analisi Spaziale e Temporale Modellazione delle dimensioni spaziali e temporali del mondo narrativo attraverso tensori, analisi delle traiettorie dei personaggi e della progressione temporale utilizzando operazioni tensoriali

Bibliografia

  1. Tensore – Wikipedia, accesso eseguito il giorno maggio 14, 2025, https://it.wikipedia.org/wiki/Tensore
  2. Tensors for Multi-Dimensional Data Analysis (with a brief survey on the applications) | Neriman Tokcan, accesso eseguito il giorno maggio 14, 2025, https://nerimantokcan.com/wp-content/uploads/2020/06/Applications_of_Tensor_decompositions.pdf
  3. Introduction to Tensor Calculus, accesso eseguito il giorno maggio 14, 2025, https://www.ita.uni-heidelberg.de/~dullemond/lectures/tensor/tensor.pdf
  4. Fundamentals: Tensors vs. Tables – Earthmover, accesso eseguito il giorno maggio 14, 2025, https://earthmover.io/blog/tensors-vs-tables
  5. Tensors and Hypermatrices, accesso eseguito il giorno maggio 14, 2025, https://www.stat.uchicago.edu/~lekheng/work/hla.pdf
  6. Every time I get hear about tensors: “It’s just a multidimensional array!” Ok, s… | Hacker News, accesso eseguito il giorno maggio 14, 2025, https://news.ycombinator.com/item?id=9506774
  7. Tensors in neural network literature: what’s the simplest definition out there?, accesso eseguito il giorno maggio 14, 2025, https://stats.stackexchange.com/questions/233253/tensors-in-neural-network-literature-whats-the-simplest-definition-out-there
  8. Tensors in computations, accesso eseguito il giorno maggio 14, 2025, https://www.stat.uchicago.edu/~lekheng/work/acta.pdf
  9. Vector: A Surprising Story of Space Reviews & Ratings – Amazon.in, accesso eseguito il giorno maggio 14, 2025, https://www.amazon.in/Vector-Surprising-Story-Mathematical-Transformation/dp/0226821102
  10. Vector: A Surprising Story of Space, Time, and Mathematical Transformation – Amazon.com, accesso eseguito il giorno maggio 14, 2025, https://www.amazon.com/Vector-Surprising-Story-Mathematical-Transformation-ebook/dp/B0CWR7TW78
  11. Breve manuale di Calcolo Tensoriale per le applicazioni – Docenti.unina.it, accesso eseguito il giorno maggio 14, 2025, https://www.docenti.unina.it/webdocenti-be/allegati/materiale-didattico/261080
  12. Full text of “Rendiconti” – Internet Archive, accesso eseguito il giorno maggio 14, 2025, https://archive.org/stream/rendiconti4611890real/rendiconti4611890real_djvu.txt
  13. math.ucdavis.edu, accesso eseguito il giorno maggio 14, 2025, https://www.math.ucdavis.edu/~saito/data/tensor/kolda-bader_tensor-decomp-siamrev.pdf
  14. Tensor Decompositions and Applications, accesso eseguito il giorno maggio 14, 2025, https://www.kolda.net/publication/TensorReview.pdf
  15. Tensor factorization toward precision medicine – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC6078180/
  16. Tensor Decompositions for Learning Latent Variable Models, accesso eseguito il giorno maggio 14, 2025, https://jmlr.org/papers/volume15/anandkumar14b/anandkumar14b.pdf
  17. [1210.7559] Tensor decompositions for learning latent variable models – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/abs/1210.7559
  18. Tensor Factorization-based Prediction with an Application to Estimating the Risk of Chronic Diseases | bioRxiv, accesso eseguito il giorno maggio 14, 2025, https://www.biorxiv.org/content/10.1101/810556v1.full-text
  19. POLITECNICO DI TORINO, accesso eseguito il giorno maggio 14, 2025, https://webthesis.biblio.polito.it/27197/1/tesi.pdf
  20. unibo.it, accesso eseguito il giorno maggio 14, 2025, https://amslaurea.unibo.it/id/eprint/18812/1/tesi_FrancescoPaltrinieri.pdf
  21. Tensor Decomposition Definitions of Neural Net Architectures – Wolfram Video Archive, accesso eseguito il giorno maggio 14, 2025, https://www.wolfram.com/broadcast/video.php?sx=reaction&c=104&v=3493&ob=date&o=DESC&disp=list&p=25
  22. Tensor network theory – Autoblocks AI — Build Safe AI Apps, accesso eseguito il giorno maggio 14, 2025, https://www.autoblocks.ai/glossary/tensor-network-theory#:~:text=Tensor%20networks%20have%20a%20number,be%20performed%20on%20the%20data.
  23. Role of Tensor Cores in Parallel Computing and AI — Blog – DataCrunch, accesso eseguito il giorno maggio 14, 2025, https://datacrunch.io/blog/role-of-tensor-cores-in-parallel-computing-and-ai
  24. org, accesso eseguito il giorno maggio 14, 2025, https://philarchive.org/archive/NOVTGO
  25. An Introduction To Riemannian Geometry And The Tensor Calculus, accesso eseguito il giorno maggio 14, 2025, https://playground-wp.dpcalliance.org/54085480/iprepared/list/xfavourl/an+introduction+to+riemannian+geometry+and+the+tensor+calculus.pdf
  26. Tensor Analysis on Manifolds (Dover Books on Mathematics) – Amazon.com, accesso eseguito il giorno maggio 14, 2025, https://www.amazon.com/Tensor-Analysis-Manifolds-Dover-Mathematics/dp/0486640396
  27. pdf, accesso eseguito il giorno maggio 14, 2025, https://art.torvergata.it/retrieve/e291c0d4-27bc-cddb-e053-3a05fe0aa144/interno.pdf
  28. [2505.07601] Characterizing the Investigative Methods of Fictional Detectives with Large Language Models – arXiv, accesso eseguito il giorno maggio 14, 2025, https://www.arxiv.org/abs/2505.07601
  29. Narrative Theory for Computational Narrative Understanding – ACL Anthology, accesso eseguito il giorno maggio 14, 2025, https://aclanthology.org/2021.emnlp-main.26.pdf
  30. Erik T. Mueller – Computational Models of Narrative, accesso eseguito il giorno maggio 14, 2025, https://www.cs.uky.edu/~sgware/reading/papers/mueller2013cmn.pdf
  31. A Dataset for Character-Centric Narrative Understanding – ACL Anthology, accesso eseguito il giorno maggio 14, 2025, https://aclanthology.org/2021.findings-emnlp.150.pdf
  32. Character Focused Narrative Models for Computational Storytelling – AAAI, accesso eseguito il giorno maggio 14, 2025, https://cdn.aaai.org/ojs/12909/12909-52-16426-1-2-20201228.pdf
  33. Towards an Event Based Plot Model. A Computational Narratology Approach, accesso eseguito il giorno maggio 14, 2025, https://jcls.io/article/id/110/
  34. [2412.17063] Computational Analysis of Character Development in Holocaust Testimonies, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/abs/2412.17063
  35. Computational Narrative – and what we can learn from narratology, accesso eseguito il giorno maggio 14, 2025, http://www.cs.columbia.edu/~ouyangj/JessicaOuyang_candidacy.pdf
  36. Computational Narratology – Applying computational methods to, accesso eseguito il giorno maggio 14, 2025, https://flashcards.world/flashcards/sets/3cda74f4-4266-4a47-9596-a8e1bf93239b/
  37. Steps Towards a Formal Ontology of Narratives Based on Narratology – DROPS, accesso eseguito il giorno maggio 14, 2025, https://drops.dagstuhl.de/storage/01oasics/oasics-vol053_cmn2016/OASIcs.CMN.2016.4/OASIcs.CMN.2016.4.pdf
  38. Computational Narrative Understanding: The Big Picture – txtLAB, accesso eseguito il giorno maggio 14, 2025, https://txtlab.org/2024/03/computational-narrative-understanding-the-big-picture/
  39. The training process of many deep networks explores the same low …, accesso eseguito il giorno maggio 14, 2025, https://www.pnas.org/doi/10.1073/pnas.2310002121
  40. A manifold-based framework for studying the dynamics of the vaginal microbiome – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10724123/
  41. Multi-view manifold learning of human brain-state trajectories – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10487346/
  42. [2410.12193] Trajectory Manifold Optimization for Fast and Adaptive Kinodynamic Motion Planning – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/abs/2410.12193
  43. Representation of dynamic depth data as a trajectory on the Grassmann manifold G k (R n ). – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/figure/Representation-of-dynamic-depth-data-as-a-trajectory-on-the-Grassmann-manifold-G-k-R-n_fig2_309352571
  44. Neural Trajectories of Social Relationships on a Map-like Manifold …, accesso eseguito il giorno maggio 14, 2025, https://www.biorxiv.org/content/10.1101/2023.12.04.569670v1
  45. arXiv:2411.00702v1 [cs.CL] 1 Nov 2024, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/pdf/2411.00702?
  46. A graph-based approach to extracting narrative signals from public discourse, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/385510111_A_graph-based_approach_to_extracting_narrative_signals_from_public_discourse
  47. washington.edu, accesso eseguito il giorno maggio 14, 2025, https://faculty.washington.edu/tmitra/public/papers/cscw2020-narrativeMaps.pdf
  48. From Narratology to Computational Story Composition and Back-An Exploratory Study in Generative Modeling – osnaDocs, accesso eseguito il giorno maggio 14, 2025, https://osnadocs.ub.uni-osnabrueck.de/bitstream/ds-202205246968/2/thesis_berov.pdf
  49. THEORY AND INTERPRETATION OF NARRATIVE – Knowledge Bank, accesso eseguito il giorno maggio 14, 2025, https://kb.osu.edu/bitstream/handle/1811/46965/A_and_F_Book4CD.pdf
  50. Manfred Jahn Narratology: A Guide to the Theory of Narrative – CiteSeerX, accesso eseguito il giorno maggio 14, 2025, https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=26c055242f89c2d1744c5c59dc018df67ed8308c
  51. A Theoretical Framework to Represent Narrative Structures for Visual Storytelling – The Bridges Archive, accesso eseguito il giorno maggio 14, 2025, http://m.archive.bridgesmathart.org/2015/bridges2015-129.pdf
  52. (PDF) A Theoretical Framework to Represent Narrative Structures for Visual Storytelling, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/277596685_A_Theoretical_Framework_to_Represent_Narrative_Structures_for_Visual_Storytelling
  53. [Project] Topological analysis of narratives : r/MachineLearning – Reddit, accesso eseguito il giorno maggio 14, 2025, https://www.reddit.com/r/MachineLearning/comments/edrnin/project_topological_analysis_of_narratives/
  54. A space of goals: the cognitive geometry of informationally bounded agents – Journals, accesso eseguito il giorno maggio 14, 2025, https://royalsocietypublishing.org/doi/10.1098/rsos.211800
  55. Developing a cognitive model of solid geometry based on Interpretive Structural Modeling method – PMC – PubMed Central, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10943343/
  56. The Cognitive Origins of Human Abstract Geometry – SIAM.org, accesso eseguito il giorno maggio 14, 2025, https://www.siam.org/publications/siam-news/articles/the-cognitive-origins-of-human-abstract-geometry/
  57. FOUNDATIONS OF GEOMETRIC COGNITION, accesso eseguito il giorno maggio 14, 2025, https://mcll.edu.pl/wp-content/uploads/2022/06/Hohol-Foundations_of_geometric_cognition_preview.pdf
  58. Representational geometry: integrating cognition, computation, and the brain – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC3730178/
  59. Going Round in Circles: A Cognitive Bias in Geometric Reasoning – MIT Press Direct, accesso eseguito il giorno maggio 14, 2025, https://direct.mit.edu/opmi/article/doi/10.1162/opmi_a_00169/125549/Going-Round-in-Circles-A-Cognitive-Bias-in
  60. The shape of our thoughts: what does geometry have to do with abstract reasoning?, accesso eseguito il giorno maggio 14, 2025, https://communities.springernature.com/posts/the-shape-of-our-thoughts-what-does-geometry-have-to-do-with-abstract-reasoning
  61. Encoding cognitive processes through geometric transformations …, accesso eseguito il giorno maggio 14, 2025, https://geometrymatters.com/encoding-cognitive-processes-through-geometric-transformations/
  62. Human cognition of geometric shapes, a window into the mental representation of abstract concepts – Mathias Sablé-Meyer, accesso eseguito il giorno maggio 14, 2025, https://s-m.ac/documents/phd_thesis_mathias_sable-meyer.pdf
  63. Hyperoptimized Approximate Contraction of Tensor Networks with Arbitrary Geometry | Phys. Rev. X, accesso eseguito il giorno maggio 14, 2025, https://link.aps.org/doi/10.1103/PhysRevX.14.011009
  64. Quantitative diffusion tensor MRI-based fiber tracking of human skeletal muscle, accesso eseguito il giorno maggio 14, 2025, https://journals.physiology.org/doi/full/10.1152/japplphysiol.00290.2007
  65. Chapter 6: Tensor Computation Applications – Books Published by Manal Helal, accesso eseguito il giorno maggio 14, 2025, https://books.manalhelal.com/TensorBook/ch6.pdf
  66. Time-varying Parameter Tensor Vector Autoregression – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/html/2505.07975v1
  67. Subgraph augmented non-negative tensor factorization (SANTF) for modeling clinical narrative text – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC4986663/
  68. [2502.03402] Tensor Evolution: A Framework for Fast Evaluation of Tensor Computations using Recurrences – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/abs/2502.03402
  69. Einstein, Evolution of Knowledge, and the Anthropocene: A Critical Reading of Jürgen Renn’s Historiography – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/html/2505.03450
  70. Thematic Transformation and the Limits of Leitmotivic Analysis – YouTube, accesso eseguito il giorno maggio 14, 2025, https://www.youtube.com/watch?v=4ZBCNK0PYrk
  71. La via smarrita dello strutturalismo – AMS Dottorato, accesso eseguito il giorno maggio 14, 2025, https://amsdottorato.unibo.it/2246/1/Granelli_Tommaso_tesi.pdf
  72. Variational principle – Wikipedia, accesso eseguito il giorno maggio 14, 2025, https://en.wikipedia.org/wiki/Variational_principle
  73. When action is not least – Edwin F. Taylor, accesso eseguito il giorno maggio 14, 2025, https://www.eftaylor.com/pub/Gray&TaylorAJP.pdf
  74. Variational Methods – Wolfram Language Documentation, accesso eseguito il giorno maggio 14, 2025, https://reference.wolfram.com/language/VariationalMethods/tutorial/VariationalMethods.html
  75. Ontological Foundations of the Variational Principles and the Path Integral Formalism1 – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/pdf/1909.10064
  76. History of variational principles in physics – Wikipedia, accesso eseguito il giorno maggio 14, 2025, https://en.wikipedia.org/wiki/History_of_variational_principles_in_physics
  77. Variational principles and nonequilibrium thermodynamics – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7134949/
  78. Modelling using variational principles, accesso eseguito il giorno maggio 14, 2025, https://bcpw.bg.pw.edu.pl/Content/548/PDF/4_1.pdf
  79. Development of differential equations and variational principles | History of Mathematics Class Notes | Fiveable, accesso eseguito il giorno maggio 14, 2025, https://library.fiveable.me/history-of-mathematics/unit-14/development-differential-equations-variational-principles/study-guide/piFsAEYdhtFfWiCp
  80. Variational Modeling And Complex Fluids – tp.rush.edu, accesso eseguito il giorno maggio 14, 2025, https://ftp.rush.edu/users/molebio/Bob_Eisenberg/CV%20on%20moleobio-Bob_Eisenberg/EnVarA/Kirshtein%20Chun%20Liu%20Complex%20Fluids%20Final%20version.pdf
  81. How to formulate variational principles (Lagrangian/Hamiltonian) for nonlinear, dissipative or initial value problems? – Physics Stack Exchange, accesso eseguito il giorno maggio 14, 2025, https://physics.stackexchange.com/questions/167027/how-to-formulate-variational-principles-lagrangian-hamiltonian-for-nonlinear
  82. Mechanical Systems with Symmetry, Variational Principles, and Integration Algorithms, accesso eseguito il giorno maggio 14, 2025, https://www.cds.caltech.edu/~marsden/bib/1997/04-MaWe1997/MaWe1997.pdf
  83. Concepts and Algorithms of Scientific and Visual Computing –Variational Principles– – CS448J, accesso eseguito il giorno maggio 14, 2025, https://cs448j.stanford.edu/slides/casvc-slides-09-24-variational-principles.pdf
  84. Geometry of variational methods: dynamics of closed quantum systems Abstract – SciPost, accesso eseguito il giorno maggio 14, 2025, https://scipost.org/SciPostPhys.9.4.048/pdf
  85. feynman variational principle: Topics by Science.gov, accesso eseguito il giorno maggio 14, 2025, https://www.science.gov/topicpages/f/feynman+variational+principle
  86. A Variational Approach to Scripts – Frontiers, accesso eseguito il giorno maggio 14, 2025, https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2021.585493/full
  87. Narrative as active inference: an integrative account of cognitive and social functions in adaptation – PubMed Central, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11188712/
  88. A Variational Approach to Scripts – PMC, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC8329037/
  89. Narrative as active inference: an integrative account of cognitive and social functions in adaptation – Frontiers, accesso eseguito il giorno maggio 14, 2025, https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1345480/full
  90. Is the Free-Energy Principle a Formal Theory of Semantics? From Variational Density Dynamics to Neural and Phenotypic Representations – MDPI, accesso eseguito il giorno maggio 14, 2025, https://www.mdpi.com/1099-4300/22/8/889
  91. Demystifying Variational Diffusion Models – Now Publishers, accesso eseguito il giorno maggio 14, 2025, https://www.nowpublishers.com/article/Details/CGV-113
  92. Is the Free-Energy Principle a Formal Theory of Semantics? From Variational Density Dynamics to Neural and Phenotypic Representations – PMC – PubMed Central, accesso eseguito il giorno maggio 14, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7517505/
  93. Fictional narrative as a variational Bayesian method for estimating social dispositions in large groups – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/337662290_Fictional_narrative_as_a_variational_Bayesian_method_for_estimating_social_dispositions_in_large_groups
  94. Branches of Linguistics | Linguistic Research | The University of …, accesso eseguito il giorno maggio 14, 2025, https://www.sheffield.ac.uk/linguistics/home/all-about-linguistics/about-website/branches-linguistics
  95. Cognitive linguistics – Geeraerts – John Benjamins, accesso eseguito il giorno maggio 14, 2025, https://benjamins.com/online/hop/articles/cog3
  96. Cognitive linguistics | Language and Culture Class Notes | Fiveable …, accesso eseguito il giorno maggio 14, 2025, https://library.fiveable.me/language-culture/unit-6/cognitive-linguistics/study-guide/HOX7JqaowLP9wyN6
  97. amazon.com, accesso eseguito il giorno maggio 14, 2025, https://aws.amazon.com/what-is/large-language-model/#:~:text=help%20with%20LLMs%3F-,What%20are%20Large%20Language%20Models%3F,decoder%20with%20self%2Dattention%20capabilities.
  98. What are large language models (LLMs)? | Microsoft Azure, accesso eseguito il giorno maggio 14, 2025, https://azure.microsoft.com/en-us/resources/cloud-computing-dictionary/what-are-large-language-models-llms
  99. uky.edu, accesso eseguito il giorno maggio 14, 2025, https://cs.uky.edu/~sgware/reading/papers/farrell2024large.pdf
  100. Large Language Models as Narrative Planning Search Guides – Department of Computer Science, accesso eseguito il giorno maggio 14, 2025, https://www.cs.uky.edu/~sgware/reading/papers/farrell2024large.pdf
  101. Using large language models to create narrative events – PeerJ, accesso eseguito il giorno maggio 14, 2025, https://peerj.com/articles/cs-2242/
  102. GENEVA uses large language models for interactive game narrative design – Microsoft, accesso eseguito il giorno maggio 14, 2025, https://www.microsoft.com/en-us/research/blog/geneva-uses-large-language-models-for-interactive-game-narrative-design/
  103. Are Large Language Models Capable of Generating Human-Level Narratives?, accesso eseguito il giorno maggio 14, 2025, https://aclanthology.org/2024.emnlp-main.978/
  104. Are Large Language Models Capable of Generating Human-Level Narratives? – ACL Anthology, accesso eseguito il giorno maggio 14, 2025, https://aclanthology.org/2024.emnlp-main.978.pdf
  105. Word2World: Generating Stories and Worlds through Large Language Models – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/html/2405.06686v1
  106. Are Large Language Models Capable of Generating Human-Level Narratives? – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/abs/2407.13248
  107. NarrativeGenie: Generating Narrative Beats and Dynamic Storytelling with Large Language Models | Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, accesso eseguito il giorno maggio 14, 2025, https://ojs.aaai.org/index.php/AIIDE/article/view/31868
  108. Do Language Models Enjoy Their Own Stories? Prompting Large Language Models for Automatic Story Evaluation | Transactions of the Association for Computational Linguistics, accesso eseguito il giorno maggio 14, 2025, https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00689/124460/Do-Language-Models-Enjoy-Their-Own-Stories
  109. Preserved fractal character of structural brain networks is associated with covert consciousness after severe brain injury – PubMed, accesso eseguito il giorno maggio 14, 2025, https://pubmed.ncbi.nlm.nih.gov/34215152/
  110. What are Vector Embeddings? | A Comprehensive Vector … – Elastic, accesso eseguito il giorno maggio 14, 2025, https://www.elastic.co/what-is/vector-embedding#:~:text=Vector%20embeddings%20are%20a%20way,points%20are%20clustered%20closer%20together.
  111. Fractal brain networks support complex thought – EurekAlert!, accesso eseguito il giorno maggio 14, 2025, https://www.eurekalert.org/news-releases/929858
  112. org, accesso eseguito il giorno maggio 14, 2025, https://philarchive.org/archive/EMMTJO-4
  113. Tensor Decomposition Definitions of Neural Net Architectures – Wolfram Video Archive, accesso eseguito il giorno maggio 14, 2025, https://www.wolfram.com/broadcast/video.php?sx=acefem&c=104&p=13&disp=list&v=3493
  114. ​​The Evolution of AI: Introducing Autonomous AI Agents – Shelf, accesso eseguito il giorno maggio 14, 2025, https://shelf.io/blog/the-evolution-of-ai-introducing-autonomous-ai-agents/
  115. Computational Narratology – Cambridge University Press, accesso eseguito il giorno maggio 14, 2025, https://www.cambridge.org/core/journals/computational-humanities-research/announcements/call-for-papers/computational-narratology
  116. Narrative Understanding with Large Language Models | The Alan Turing Institute, accesso eseguito il giorno maggio 14, 2025, https://www.turing.ac.uk/work-turing/research-and-funding-calls/ai-fellowships/yulan-he-project
  117. The Thematic Modelling of Subtext – ePrints Soton – University of Southampton, accesso eseguito il giorno maggio 14, 2025, https://eprints.soton.ac.uk/419730/1/IJMTA_hargood.pdf
  118. What Are Word Embeddings? | IBM, accesso eseguito il giorno maggio 14, 2025, https://www.ibm.com/think/topics/word-embeddings
  119. Sentence embedding – Wikipedia, accesso eseguito il giorno maggio 14, 2025, https://en.wikipedia.org/wiki/Sentence_embedding
  120. Contextual Embeddings: Enhancing Semantic Understanding in …, accesso eseguito il giorno maggio 14, 2025, https://www.lyzr.ai/glossaries/contextual-embeddings/
  121. What is Contextual Word Embeddings – Activeloop, accesso eseguito il giorno maggio 14, 2025, https://www.activeloop.ai/resources/glossary/contextual-word-embeddings/
  122. Explainable AI Through Combination of Deep Tensor and Knowledge Graph, accesso eseguito il giorno maggio 14, 2025, https://www.fujitsu.com/global/documents/about/resources/publications/fstj/archives/vol55-2/paper14.pdf
  123. Tensor Relational Algebra for Distributed Machine Learning System Design – VLDB Endowment, accesso eseguito il giorno maggio 14, 2025, https://www.vldb.org/pvldb/vol14/p1338-yuan.pdf
  124. Representation Theory and Tensors – Math Stack Exchange, accesso eseguito il giorno maggio 14, 2025, https://math.stackexchange.com/questions/5045463/representation-theory-and-tensors
  125. representation on the tensor algebra over a Lie algebra – Mathematics Stack Exchange, accesso eseguito il giorno maggio 14, 2025, https://math.stackexchange.com/questions/3998190/representation-on-the-tensor-algebra-over-a-lie-algebra
  126. An Introduction to Tensors for Students of Physics and Engineering – NASA Glenn Research Center, accesso eseguito il giorno maggio 14, 2025, https://www.grc.nasa.gov/www/k-12/Numbers/Math/documents/Tensors_TM2002211716.pdf
  127. (PDF) Knowledge Mining with Tensor Algebra – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/320677453_Knowledge_Mining_with_Tensor_Algebra
  128. ROLE OF TENSORS IN MACHINE LEARNING – NVIDIA, accesso eseguito il giorno maggio 14, 2025, https://developer.download.nvidia.com/video/gputechconf/gtc/2019/presentation/s9733-role-of-tensors-in-machine-learning.pdf
  129. Introduction to tensors. – YouTube, accesso eseguito il giorno maggio 14, 2025, https://m.youtube.com/watch?v=TiHHz3sKDbY&t=152s
  130. UNCERTAIN KNOWLEDGE REPRESENTATION BY MEANS OF TENSOR ALGEBRA, accesso eseguito il giorno maggio 14, 2025, https://rjraap.com/2313-223X/article/view/529721
  131. UNCERTAIN KNOWLEDGE REPRESENTATION BY MEANS OF, accesso eseguito il giorno maggio 14, 2025, https://urvak.org/articles/compu-8846-vypusk-1-predstavlenie-nechetkikh-znani/
  132. Using Tensor Contractions to Derive the Structure of Slice-Wise Multiplications of Tensors with Applications to Space-Time Khatri-Rao coding for MIMO-OFDM Systems – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/360538870_Using_Tensor_Contractions_to_Derive_the_Structure_of_Slice-Wise_Multiplications_of_Tensors_with_Applications_to_Space-Time_Khatri-Rao_coding_for_MIMO-OFDM_Systems
  133. Using Mathematica for tensor analysis, accesso eseguito il giorno maggio 14, 2025, https://mathematica.stackexchange.com/questions/19934/using-mathematica-for-tensor-analysis
  134. Online Tensor Methods for Learning Latent Variable Models, accesso eseguito il giorno maggio 14, 2025, https://jmlr.org/papers/volume16/huang15a/huang15a.pdf
  135. ijcai.org, accesso eseguito il giorno maggio 14, 2025, https://www.ijcai.org/proceedings/2024/0397.pdf
  136. Tensor Methods in Computer Vision and Deep Learning – iBUG group, accesso eseguito il giorno maggio 14, 2025, https://ibug.doc.ic.ac.uk/media/uploads/documents/tensor_methods_in_computer_vision_and_deep_learning.pdf
  137. Multi-Way Data Representation: A Comprehensive Survey on Tensor Decomposition in Machine Learning – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/389669492_Multi-Way_Data_Representation_A_Comprehensive_Survey_on_Tensor_Decomposition_in_Machine_Learning
  138. (PDF) Tensor-powered insights into neural dynamics – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/389282427_Tensor-powered_insights_into_neural_dynamics
  139. Computing with tensors in Vespa, accesso eseguito il giorno maggio 14, 2025, https://blog.vespa.ai/computing-with-tensors/
  140. Tensor Networks for Explainable Machine Learning in Cybersecurity – arXiv, accesso eseguito il giorno maggio 14, 2025, https://arxiv.org/html/2401.00867v4
  141. Tensor Analysis and Applications – Wolfram Video Archive, accesso eseguito il giorno maggio 14, 2025, https://www.wolfram.com/broadcast/video.php?sx=christopher%20wolfram&c=104&ob=date&o=DESC&disp=list&v=3583&p=13
  142. Event Representations with Tensor-Based Compositions – AAAI, accesso eseguito il giorno maggio 14, 2025, https://cdn.aaai.org/ojs/11932/11932-13-15460-1-2-20201228.pdf
  143. A Gentle Intro To Tensors With Examples – Wandb, accesso eseguito il giorno maggio 14, 2025, https://wandb.ai/vincenttu/intro-to-tensors/reports/A-Gentle-Intro-To-Tensors-With-Examples–VmlldzozMTQ2MjE5
  144. TCP – Tensor Contraction Processor for AI Workloads – Iscaconf.org, accesso eseguito il giorno maggio 14, 2025, https://www.iscaconf.org/isca2024/slides/Session%207%20-%20TCP.pdf
  145. The Curious History of Vectors and Tensors | SIAM, accesso eseguito il giorno maggio 14, 2025, https://siam-web.useast01.umbraco.io/publications/siam-news/articles/the-curious-history-of-vectors-and-tensors/
  146. Tensor Quantization: The Untold Story – Towards Data Science, accesso eseguito il giorno maggio 14, 2025, https://towardsdatascience.com/tensor-quantization-the-untold-story-d798c30e7646/
  147. MIT Open Access Articles Tensor Computation: A New Framework for High-Dimensional Problems in EDA, accesso eseguito il giorno maggio 14, 2025, https://dspace.mit.edu/bitstream/handle/1721.1/110826/Tensor%20computation.pdf?sequence=1&isAllowed=y
  148. Automatically optimizing execution of dynamic tensor operations – Amazon Science, accesso eseguito il giorno maggio 14, 2025, https://www.amazon.science/blog/automatically-optimizing-execution-of-unfamiliar-tensor-operations
  149. How would you explain a tensor to a computer scientist? – Mathematics Stack Exchange, accesso eseguito il giorno maggio 14, 2025, https://math.stackexchange.com/questions/4861085/how-would-you-explain-a-tensor-to-a-computer-scientist
  150. Why do we need tensors in modern physics?, accesso eseguito il giorno maggio 14, 2025, https://physics.stackexchange.com/questions/691966/why-do-we-need-tensors-in-modern-physics
  151. What is a tensor and why should I care? – Military Embedded Systems, accesso eseguito il giorno maggio 14, 2025, https://militaryembedded.com/ai/deep-learning/what-is-a-tensor-and-why-should-i-care
  152. (PDF) TGraphX: Tensor-Aware Graph Neural Network for Multi-Dimensional Feature Learning – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/390569879_TGraphX_Tensor-Aware_Graph_Neural_Network_for_Multi-Dimensional_Feature_Learning
  153. Geometric Semiotics: A Tensor-Based Framework for Multidimensional Concept Representation – ResearchGate, accesso eseguito il giorno maggio 14, 2025, https://www.researchgate.net/publication/379285136_Geometric_Semiotics_A_Tensor-Based_Framework_for_Multidimensional_Concept_Representation
  154. Tensor-based Models of Natural Language Semantics, accesso eseguito il giorno maggio 14, 2025, https://webspace.maths.qmul.ac.uk/a.fink/tensors16/cag.pdf
  155. Tensor Decompositions: A Quick Tour of Illustrative Applications – YouTube, accesso eseguito il giorno maggio 14, 2025, https://www.youtube.com/watch?v=V_ugq2iIjxE
  156. Conal Elliott: Can Tensor Programming Be Liberated from the Fortran Data Paradigm?, accesso eseguito il giorno maggio 14, 2025, https://www.youtube.com/watch?v=oaIMMclGuog
  157. Can anyone provide an easy to understand real world example of tensors, and how they are used? : r/datascience – Reddit, accesso eseguito il giorno maggio 14, 2025, https://www.reddit.com/r/datascience/comments/174pvw9/can_anyone_provide_an_easy_to_understand_real/
  158. Tensor-Based Algorithms for Image Classification – MDPI, accesso eseguito il giorno maggio 14, 2025, https://www.mdpi.com/1999-4893/12/11/240
  159. Tensor Diagram Notation, accesso eseguito il giorno maggio 14, 2025, https://tensornetwork.org/diagrams/
  160. Visualization of tensors – part 3A – YouTube, accesso eseguito il giorno maggio 14, 2025, https://www.youtube.com/watch?v=UDl1I3fFYqs
  161. txt, accesso eseguito il giorno maggio 14, 2025, https://www.ce.unipr.it/didattica/informatica/esami/20220217/input/dizionario.txt
  162. Elementi di Calcolo Tensoriale, accesso eseguito il giorno maggio 14, 2025, https://cab.unime.it/journals/index.php/lecture/article/download/828/635
  163. Elementi di Algebra Tensoriale con Applicazioni alla Meccanica dei Solidi – DOKUMEN.PUB, accesso eseguito il giorno maggio 14, 2025, https://dokumen.pub/elementi-di-algebra-tensoriale-con-applicazioni-alla-meccanica-dei-solidi.html
  164. L’analisi reale è sostanzialmente calcolo, ma più matematica pura che applicata? – Reddit, accesso eseguito il giorno maggio 14, 2025, https://www.reddit.com/r/mathematics/comments/1b6nj19/is_real_analysis_basically_calculus_but_more_pure/?tl=it
  165. Rango di Tensori e Varietà Secanti – Fulvio Gesmundo, accesso eseguito il giorno maggio 14, 2025, https://fulges.github.io/docs/Theses/Gesmundo_Masters_2012.pdf
  166. 3introduzione Al Calcolo Tensoriale | PDF – Scribd, accesso eseguito il giorno maggio 14, 2025, https://it.scribd.com/document/341067640/3Introduzione-al-calcolo-tensoriale
  167. Elementi di algebra ed analisi tensoriale, accesso eseguito il giorno maggio 14, 2025, http://www.dma.unifi.it/~canarutto/Xs/TensoriMarco/TensoriMarco00.pdf
  168. Ecco i 15 migliori libri di testo sull’analisi tensoriale per gli utenti che desiderano comprendere l’analisi tensoriale da base a intermedia. : r/mathematics – Reddit, accesso eseguito il giorno maggio 14, 2025, https://www.reddit.com/r/mathematics/comments/14cgu8m/here_are_the_top_15_tensor_analysis_textbooks_for/?tl=it
  169. pdf – Manlio De Domenico, accesso eseguito il giorno maggio 14, 2025, https://manliodedomenico.com/res/QFT.pdf
  170. Linear Vector Spaces And Cartesian Tensors, accesso eseguito il giorno maggio 14, 2025, https://playground-wp.dpcalliance.org/77735131/ecoverq/slug/tariseg/linear+vector+spaces+and+cartesian+tensors.pdf
  171. Untitled – Unical, accesso eseguito il giorno maggio 14, 2025, https://dspace.unical.it/jspui/bitstream/10955/5384/1/TESI_BERTACCHINI.pdf
  172. Narration – OEN Manifold, accesso eseguito il giorno maggio 14, 2025, https://manifold.open.umn.edu/read/c14-narration-rodak-storey