IL LIMITE DEL CONTROLLO
Complessità, misura e potere nella modernità
Abstract
Il presente saggio sostiene che il paradigma epistemologico dominante nella modernità, fondato sull’assunzione newtoniana della calcolabilità dei sistemi, costituisca un’applicazione strutturalmente illegittima di un metodo valido per i sistemi fisici lineari a sistemi sociali, economici e tecnologici di natura adattiva e non lineare.
L’argomentazione si sviluppa su tre piani distinti ma convergenti:
1. In primo luogo, una ricostruzione genealogica che, dall’intuizione pitagorica della realtà come relazione, conduce a Newton e alla trasformazione della relazione in legge calcolabile, origine del paradigma della previsione universale.
2. l’analisi dell’escatologia come tecnologia simbolica di coordinamento temporale transgenerazionale: un dispositivo che consente continuità strategica in assenza di comprensione totale del sistema.
3. la rilettura del sistema monetario-finanziario contemporaneo come struttura complessa non lineare, governata attraverso un paradigma deterministico epistemologicamente inadeguato, fino alla transizione odierna verso sistemi algoritmici la cui opacità eccede la comprensione dei progettisti stessi, generando una condizione in cui il potere delega il coordinamento di ciò che non può più comprendere né controllare pienamente.
La tesi centrale sostiene che i sistemi complessi non collassano per difetto di conoscenza, ma per eccesso di fiducia nei modelli che pretendono di contenerla.
I. L’eredità epistemologica Newtoniana
La distinzione che Newton praticava nella propria opera, tra la capacità di descrivere il comportamento di un sistema attraverso leggi matematiche e la comprensione della sua natura ontologica , è precisamente la distinzione che la modernità ha sistematicamente dissolto.
Le Principia Mathematica fornivano strumenti di straordinaria potenza predittiva per sistemi fisici chiusi, lineari, nei quali le variabili non reagiscono all’osservazione e non incorporano aspettative sul futuro: è significativo, in questa prospettiva, che Newton stesso non ritenesse tale apparato sufficiente a esaurire la comprensione della realtà, dedicando decenni paralleli allo studio dell’alchimia, della cronologia sacra e delle profezie bibliche come codici di struttura storica.
La scienza moderna ha ereditato la potenza descrittiva del metodo newtoniano eliminando contestualmente l’umiltà epistemica che ne costituiva il contrappeso implicito, trasformando la capacità di modellare il comportamento di un sistema nell’assunzione, non verificata e non verificabile, di possederne la comprensione sostanziale.
Il trasferimento di questo paradigma ai sistemi sociali ed economici costituisce un errore di categoria piuttosto che un errore di calcolo. I sistemi adattivi complessi, mercati finanziari, reti monetarie, comportamenti collettivi, differiscono strutturalmente dai sistemi fisici newtoniani in virtù di proprietà che rendono inapplicabile il modello della previsione a partire dalle condizioni iniziali: la riflessività, per cui la descrizione del sistema modifica il sistema descritto; la non linearità, per cui piccole perturbazioni producono effetti sproporzionati e non deducibili dalle parti; l’emergenza, per cui il comportamento aggregato non è riducibile alle proprietà degli elementi.
In tali sistemi, la precisione del modello non è indicatrice di comprensione: è, paradossalmente, potenziale vettore di vulnerabilità sistemica, nella misura in cui genera una fiducia nel perimetro di validità del modello che il sistema non può garantire.
La crisi finanziaria del 2008 rappresenta una manifestazione paradigmatica di questa struttura: i modelli di gestione del rischio che la precedevano non contenevano errori matematici rilevanti, bensì un’assunzione epistemologica infondata, che la distribuzione storica del rischio descrivesse adeguatamente la distribuzione futura, che le correlazioni tra classi di attivo si mantenessero stabili in condizioni di stress sistemico, che il comportamento aggregato fosse deducibile per sovrapposizione dal comportamento individuale.
L’illusione di controllo non aveva prodotto sicurezza: aveva prodotto un’esposizione sistematica ai fenomeni che il modello, per costruzione, non poteva vedere.
II. L’escatologia come infrastruttura temporale del potere
Il problema del coordinamento transgenerazionale del potere, ovvero la questione di come garantire continuità strategica attraverso mutamenti politici, discontinuità ideologiche e successioni generazionali, non trova soluzione nella comprensione totale del sistema, che nessun attore singolo ha mai posseduto, bensì in meccanismi capaci di produrre coerenza d’azione in assenza di visione d’insieme. L’escatologia, intesa non come dottrina teologica ma come dispositivo di organizzazione del tempo storico, assolve precisamente questa funzione: non unificando le credenze degli attori, bensì unificando la struttura temporale entro cui le loro azioni acquisiscono senso. L’assunzione condivisa che il presente costituisca una fase transitoria subordinata a un compimento futuro, indipendentemente dal contenuto specifico attribuito a tale compimento, consente il coordinamento di azioni il cui significato non è verificabile nel breve periodo, giustificando i costi presenti in funzione di un orizzonte che eccede la durata della vita individuale.
L’operazione intellettuale compiuta da Newton nello studio delle profezie bibliche , in particolare del libro di Daniele e dell’Apocalisse , risulta rilevante non sul piano teologico ma su quello epistemologico: la rilettura dei testi profetici come codici storici dotati di struttura sequenziale e interpretabile trasforma l’escatologia da attesa passiva di un evento soprannaturale imprevedibile a schema temporale razionalizzabile, in cui il compimento storico diventa oggetto di calcolo e collocazione consapevole.
Il tempo sacro viene tradotto in tempo storico non per negare la trascendenza, ma per permettere che diventi azione concreta: una minoranza intellettuale non si concepisce più come spettatrice del compimento, ma come soggetto capace di situarsi strategicamente nel suo interno.
La funzione di coordinamento esercitata dall’escatologia non presuppone la veridicità delle narrative escatologiche né la consapevolezza strategica di tutti gli attori coinvolti. Essa funziona precisamente perché opera al livello della struttura temporale piuttosto che del contenuto dottrinale: tradizioni escatologiche eterogenee e dottrinalmente incompatibili possono produrre coordinamento operativo in virtù della condivisione implicita di una medesima grammatica del tempo, il presente come transizione, il futuro come compimento, l’azione presente come investimento in un orizzonte che eccede il calcolo immediato. In epoche in cui la scala del sistema era sufficientemente ridotta da rendere plausibile l’illusione di una gestione approssimativa, questo dispositivo si è rivelato funzionale non perché garantisse la comprensione del sistema, ma perché produceva coerenza temporale in sua assenza.
III. La soglia algoritmica e il ritorno del limite
La transizione verso sistemi finanziari altamente interconnessi, algoritmicamente mediati e istantaneamente propagativi ha prodotto una modificazione qualitativa, non meramente quantitativa, delle condizioni di gestione della complessità.
Laddove nei secoli precedenti la lentezza dei cicli e la brevità delle reti di trasmissione rendevano i sistemi sufficientemente contenibili da tollerare l’illusione del controllo, non perché qualcuno ne possedesse effettivamente la visione totale, ma perché i margini temporali per l’adattamento erano compatibili con le capacità istituzionali di risposta, la struttura contemporanea ha eliminato questi margini, trasformando una vulnerabilità latente in esposizione sistemica permanente.
Un algoritmo di trading ad alta frequenza può propagare instabilità su scala globale in intervalli di tempo incompatibili con qualsiasi deliberazione istituzionale; un modello di ottimizzazione del portafoglio può amplificare correlazioni che assume stabili proprio nel momento in cui lo stress sistemico le rende instabili.
Il caso delle reti neurali profonde introduce una dimensione ulteriore e strutturalmente nuova: quella dell’opacità decisionale interna ai sistemi costruiti per aumentare la capacità di gestione della complessità.
Le architetture di deep learning producono output la cui accuratezza è empiricamente verificabile, ma il cui processo generativo non è ricostruibile attraverso l’analisi degli stati interni del sistema. Non si tratta di una limitazione contingente destinata a essere superata da strumenti analitici più raffinati, bensì di una proprietà emergente dei sistemi ad alta dimensionalità: la capacità predittiva non è separabile dall’opacità processuale. Il potere che delega a tali sistemi funzioni di coordinamento, gestione del rischio o modellazione delle aspettative non acquista in tal modo una protesi cognitiva trasparente, ma costruisce una dipendenza da processi che eccedono la propria comprensione esattamente come Newton non comprendeva la natura ontologica della forza gravitazionale che sapeva calcolare con precisione.
La soglia algoritmica non segna il compimento del paradigma del controllo, ma la sua metamorfosi in una forma di coordinamento sistemico che eccede la capacità cognitiva dei suoi stessi architetti.
Si configura in tal modo una condizione inedita: il sistema adattivo globale ha sviluppato meccanismi di auto-regolazione della propria fiducia, attraverso la modellazione algoritmica del sentiment, la gestione computazionale delle aspettative, il monitoraggio in tempo reale dei parametri di coesione sistemica, senza che nessun attore singolo ne possieda la visione totale né ne comprenda interamente il funzionamento. Non si tratta della realizzazione di un progetto di controllo totale, bensì del suo opposto: un ordine che si auto-organizza senza ordinatore, in cui la coerenza sistemica emerge da processi che eccedono la comprensione di qualsiasi soggetto, inclusi coloro che ne gestiscono i nodi dominanti.
IV. Il limite come condizione strutturale
L’argomento sviluppato in queste pagine non conduce alla tesi del collasso imminente né a quella della resilienza garantita dei sistemi complessi, bensì a una diagnosi della condizione epistemica permanente in cui tali sistemi operano. Il controllo totale non è mai esistito come realtà effettiva: è esistito come mito funzionale, la cui utilità risiedeva nella capacità di produrre fiducia nella continuità del sistema in assenza della comprensione che avrebbe potuto fondarla su basi più solide. L’escatologia e il paradigma newtoniano hanno assolto funzioni complementari in questa produzione di fiducia: la prima garantendo la coerenza temporale degli attori attraverso generazioni, il secondo legittimando attraverso il calcolo la gestione di ciò che rimaneva strutturalmente incompreso.
La specificità della condizione contemporanea non risiede nella novità del limite cognitivo, che è costitutivo di qualsiasi sistema adattivo complesso sufficientemente esteso, bensì nell’accelerazione che rende visibile ciò che era sempre stato presente. Gli strumenti sviluppati per estendere la capacità di gestione della complessità, la finanziarizzazione, la digitalizzazione, l’intelligenza artificiale, hanno prodotto contestualmente un’amplificazione della non linearità sistemica che eccede le capacità adattive delle strutture istituzionali esistenti. In questo senso, le élite che abitano i nodi dominanti del sistema non ne sono i registi onniscienti, bensì attori immersi nello stesso limite epistemico che caratterizza l’insieme del sistema: dipendenti da algoritmi che non comprendono interamente, da mercati la cui dinamica eccede i propri modelli, da strutture di coordinamento la cui coerenza dipende da una fiducia distribuita che nessun attore singolo può garantire o sostituire.
Il collasso sistemico, quando si produce, non emerge dall’assenza di conoscenza ma dalla fiducia epistemica mal calibrata che accompagna i modelli di controllo: dall’assunzione, strutturalmente infondata ma operativamente necessaria, che la capacità di descrivere il comportamento di un sistema equivalga alla comprensione della sua natura. È questa assunzione, e non l’incompetenza degli attori né l’assenza di una regia, a costituire la vulnerabilità fondamentale dei sistemi complessi contemporanei.
I sistemi complessi non collassano perché non li comprendiamo.
Collassano quando la fiducia nella loro comprensibilità supera il loro reale perimetro di stabilità.


