Oltre la Generative Engine Optimization

Collateralismo strutturale e doveri epistemici nei LLM

Author: Giulio Vidotto
Affiliation: University of Padua
Date: February 5, 2026

Abstract

Questo articolo introduce il concetto di collateralismo strutturale per descrivere una forma di fiancheggiamento sistematico di attori e narrative dominanti che è incorporata nel progetto stesso dei grandi modelli linguistici (LLM). A differenza di forme episodiche di bias o manipolazione, il collateralismo strutturale non deriva da interventi puntuali, ma è inscritto nella composizione dei dati, negli obiettivi di addestramento, nelle procedure di allineamento, nei meccanismi di retrieval e ranking, e nei modelli di business che governano questi sistemi.

L’argomento centrale è che il collateralismo ha origine nel telos dei LLM: essi non sono progettati per ricercare la verità o rappresentare trasparentemente il disaccordo, ma per produrre risposte verosimili, coerenti con le aspettative dell’utente e funzionali agli obiettivi del provider. In un ecosistema informativo già sbilanciato, questo orientamento alla verosimiglianza conforme produce, in modo regolare e prevedibile, una convergenza verso discorsi già egemoni. Le tecniche di Generative Engine Optimization (GEO) e Answer Engine Optimization (AEO), che hanno recentemente attirato l’attenzione del dibattito pubblico e accademico, non creano questo collateralismo ma ne costituiscono lo sfruttamento tattico, amplificando ulteriormente il vantaggio di chi dispone di risorse per ottimizzare contenuti secondo le logiche del modello.

Da una prospettiva deontologica, il collateralismo strutturale rappresenta la violazione sistematica di doveri epistemici fondamentali verso gli utenti e la sfera pubblica: doveri di veridicità, di rappresentazione del disaccordo, di trasparenza sui criteri di selezione, di giustizia nella distribuzione di visibilità informativa. L’articolo conclude proponendo una riformulazione delle finalità per i LLM destinati a funzioni pubbliche, l’introduzione di vincoli strutturali di governance e audit esterno, e una riflessione critica sui limiti e i rischi di ogni tentativo di riforma che non metta in discussione i rapporti di potere sottesi all’infrastruttura generativa.

Parole chiave: Large Language Models, collateralismo strutturale, etica dell’IA, giustizia informativa, bias epistemico, Generative Engine Optimization, doveri epistemici, telos dei modelli generativi

1. Introduzione

L’emergere di tecniche come Generative Engine Optimization (GEO) e Answer Engine Optimization (AEO) ha reso evidente che i grandi modelli linguistici non sono semplici strumenti di accesso all’informazione, ma nuovi snodi di potere epistemico. Se la Search Engine Optimization tradizionale mirava a guadagnare posizioni nelle pagine dei risultati, GEO e AEO cercano di entrare direttamente nella “mente operativa” dei sistemi generativi: nei contesti che questi modelli selezionano, sintetizzano e riutilizzano per costruire risposte. In questo scenario, è naturale interrogarsi sui rischi di manipolazione, sulle distorsioni indotte da attori interessati e sull’equità dell’accesso alla visibilità informativa.

Tuttavia, concentrare l’attenzione solo su GEO e AEO rischia di farci scambiare un sintomo per la malattia. Le pratiche di ottimizzazione per i modelli generativi sfruttano, ma non creano, una predisposizione più profonda: ciò che chiamerò collateralismo strutturale dei LLM. Con questa espressione intendo l’insieme degli effetti di fiancheggiamento sistematico di attori, narrative e schemi interpretativi che derivano dal modo in cui i modelli sono progettati, addestrati e messi in produzione. Questo fiancheggiamento non richiede accordi espliciti né direttive editoriali puntuali; è incorporato nelle strutture tecniche e organizzative del sistema e tende a riprodursi nel tempo.

L’obiettivo di questo articolo è duplice. Da un lato, proporre una concettualizzazione del collateralismo strutturale in termini etico‑epistemici, mostrando come esso sia radicato nel telos stesso dei LLM: non la ricerca della verità, ma la produzione di risposte verosimili e soddisfacenti per l’utente. Dall’altro, articolare i livelli – dai dati al modello di business – in cui questa predisposizione prende forma, per poi discutere come le strategie GEO/AEO operino come acceleratori tattici all’interno di una struttura già orientata a favore dei discorsi dominanti. In gioco non è soltanto la qualità delle risposte individuali, ma la configurazione dei doveri epistemici verso gli utenti e verso la sfera pubblica in un ecosistema sempre più mediato da sistemi generativi.

2. Dal collateralismo politico-mediatico al collateralismo strutturale nei LLM

Il termine “collateralismo” ha una storia consolidata negli studi sui sistemi mediatici, in particolare nel contesto italiano ed europeo continentale. Indica la relazione di fiancheggiamento stabile tra media formalmente autonomi e attori politici, economici o istituzionali, senza che vi sia necessariamente un rapporto di proprietà diretta o un controllo editoriale esplicito. A differenza della propaganda classica, dove l’allineamento è dichiarato e centralizzato, il collateralismo opera attraverso affinità culturali, dipendenze economiche, reti relazionali, accesso privilegiato a fonti e risorse. Il risultato è una convergenza sistematica su certe narrative, un’attenzione preferenziale verso alcuni attori, una marginalizzazione silenziosa di voci dissonanti, il tutto presentato come esito spontaneo della libertà di stampa.

La letteratura sul parallelismo politico-mediatico ha mostrato come questa forma di allineamento non richieda direttive dall’alto, ma si autoriproduca attraverso la struttura stessa del sistema: la selezione dei giornalisti, la distribuzione dei finanziamenti pubblicitari, l’accesso alle fonti ufficiali, i vincoli legali e le aspettative del pubblico. In questo senso, il collateralismo classico è già, in parte, “strutturale”: non dipende dalle intenzioni individuali dei singoli operatori, ma dal modo in cui è organizzato l’intero campo mediatico e dalle sue relazioni con il campo politico ed economico.

Tuttavia, il collateralismo nei sistemi algoritmici generativi presenta caratteristiche nuove e più radicali. Nei media tradizionali, per quanto strutturalmente orientati, resta comunque possibile – almeno in linea di principio – un intervento editoriale che rompa l’allineamento, un giornalista che resista alle pressioni, un cambiamento di proprietà o di equilibri che ridistribuisca le posizioni. Inoltre, il pluralismo viene garantito, almeno formalmente, dalla coesistenza di più testate, orientamenti diversi, spazi per la critica. Nei LLM, invece, il collateralismo è incorporato nei parametri del modello, negli obiettivi di addestramento, nelle metriche di qualità: non è una scelta che si possa “correggere” con un cambio di linea editoriale, ma una proprietà emergente dell’architettura computazionale e della distribuzione statistica dei dati.

Propongo quindi di definire il collateralismo strutturale nei LLM come l’insieme degli effetti di fiancheggiamento sistematico di attori, narrative e schemi interpretativi che derivano dal modo in cui i modelli sono progettati, addestrati e messi in produzione: dalla selezione e filtraggio dei dati di addestramento, agli obiettivi di apprendimento automatico, ai meccanismi di allineamento con preferenze umane, alle architetture di retrieval e ranking delle fonti, fino alle interfacce utente e ai modelli di business che regolano l’accesso e la visibilità. Questo fiancheggiamento non richiede accordi espliciti né interventi editoriali puntuali; è incorporato nelle strutture tecniche e organizzative del sistema e tende a riprodursi nel tempo attraverso processi di feedback tra output del modello, produzione di nuovi contenuti e aggiornamento dei corpus informativi.

Il termine “strutturale” va inteso qui in senso forte: non come somma di bias individuali che si potrebbero correggere uno per uno, ma come configurazione complessiva del dispositivo, in cui ogni livello – dai dati al business model – contribuisce a orientare il sistema verso lo stesso tipo di esiti. Si tratta di una forma di potere che opera non attraverso la coercizione o la censura esplicita, ma attraverso la modellazione degli spazi di plausibilità: rendendo certe risposte più probabili, certi attori più visibili, certi framing più naturali, senza che l’utente abbia accesso ai criteri che hanno prodotto questa distribuzione.

Rispetto a concetti vicini come “bias”, “media capture” o “agenda-setting”, il collateralismo strutturale presenta alcune specificità. Il bias, nella letteratura sull’AI, è spesso trattato come deviazione misurabile rispetto a una norma di equità o accuratezza, correggibile attraverso tecniche di de-biasing. Il collateralismo strutturale, invece, non è una deviazione da una norma implicita di neutralità, ma l’assenza stessa di tale norma come principio ordinatore del sistema. La media capture descrive situazioni in cui attori esterni “catturano” un sistema mediatico attraverso pressioni economiche o politiche; qui, invece, il fiancheggiamento è endogeno, derivante dalla logica interna del dispositivo più che da interferenze esterne. L’agenda-setting riguarda la capacità di influenzare su quali temi si concentra l’attenzione pubblica; il collateralismo strutturale va oltre, modellando non solo “di cosa si parla”, ma anche “chi parla”, “come si parla” e, soprattutto, “cosa appare plausibile dire”.

Questa forma di collateralismo è particolarmente insidiosa perché si presenta sotto la veste della neutralità tecnica. Laddove il collateralismo mediatico classico può essere contestato politicamente, esposto pubblicamente, regolato giuridicamente, il collateralismo algoritmico si nasconde dietro la complessità computazionale, l’opacità dei parametri, la presunta oggettività dei dati. Non c’è un direttore da sostituire, non c’è una linea editoriale da denunciare: c’è un modello che, per il modo in cui è fatto, non può che fiancheggiare chi è già forte nell’ecosistema informativo. E questo fiancheggiamento, lungi dall’essere un effetto collaterale indesiderato, è la conseguenza diretta e prevedibile delle finalità a cui il sistema è ordinato.

3. Il telos dei LLM: verosimiglianza conforme alle aspettative

Al cuore del collateralismo strutturale vi è il fine a cui i modelli sono ordinati. I LLM attualmente in uso non sono progettati per dire la verità, né per rappresentare in modo trasparente il disaccordo epistemico, ma per generare il proseguimento più plausibile di una sequenza linguistica data. Il loro obiettivo di apprendimento è la massimizzazione della probabilità condizionata della prossima parola, non la corrispondenza con lo stato del mondo. La verità, quando compare, è un effetto collaterale: emerge nella misura in cui coincide con ciò che è statisticamente frequente e socialmente riconosciuto come plausibile.

Su questo primo livello si innesta il processo di allineamento, che mira a rendere le risposte “utili”, “sicure” e “non controverse” agli occhi di annotatori umani e di standard aziendali. In pratica, il modello impara non soltanto a essere plausibile rispetto ai dati, ma anche a essere conforme alle aspettative dell’utente e alle sensibilità dei soggetti che lo controllano. Vengono premiate risposte fluenti, rassicuranti, che riducono l’incertezza esplicita e attenuano il conflitto, mentre vengono penalizzate formulazioni che espongono con nettezza divergenze radicali o mettono in questione assetti istituzionali consolidati. Il fine operativo diventa così quello di fornire risposte verosimili e soddisfacenti, più che disturbanti, chiarificatrici o epistemicamente esigenti.

Da una prospettiva deontologica, questo telos è cruciale. Un sistema informativo general‑purpose che non assume la verità – o almeno la corretta rappresentazione del disaccordo e dell’incertezza – come fine primario, ma la tratta come un vincolo subordinato alla soddisfazione dell’utente e agli interessi del provider, non può che violare sistematicamente i doveri epistemici che avrebbe verso i destinatari e verso la sfera pubblica. Non si tratta di deviazioni occasionali da una norma implicita di veridicità, bensì dell’assenza di tale norma come principio ordinatore. In un ecosistema informativo già sbilanciato a favore di attori e narrative dominanti, un modello che massimizza la verosimiglianza conforme alle aspettative tende, in modo del tutto regolare, a fiancheggiare proprio quei discorsi che risultano più familiari, più frequenti, più “ragionevoli” secondo gli standard incorporati nei dati e nelle procedure di allineamento.

È in questo senso che il collateralismo strutturale va compreso a monte di qualsiasi intervento tattico come GEO o AEO. Prima ancora che attori interessati tentino di “insegnare” al modello cosa dire su un certo tema, la combinazione tra obiettivo di apprendimento e finalità operative ha già predisposto il sistema a trattare come più plausibili – e quindi più degne di essere riprodotte – le versioni del mondo che meglio si accordano con le aspettative statistiche e sociali incorporate nei suoi meccanismi di ottimizzazione. La manipolazione di secondo livello si innesta su questa vulnerabilità originaria, che è insieme tecnica e deontologica: un modello che non è ordinato alla verità è, per definizione, esposto a ogni forma di sfruttamento della plausibilità.

4. Strati del collateralismo strutturale: dalla pipeline dei dati al modello di business

Per comprendere in che senso il collateralismo dei LLM sia “strutturale”, occorre spostarsi da una visione puntuale degli errori o dei bias a un’analisi stratificata dell’intero dispositivo socio‑tecnico. Il fiancheggiamento sistematico di alcuni attori e narrative non nasce in un singolo punto del sistema, ma dall’allineamento di più livelli: la composizione dei dati, l’obiettivo di apprendimento, le procedure di allineamento umano, l’architettura di recupero delle fonti, il modo in cui le risposte vengono presentate all’utente e valorizzate economicamente. In ciascuno di questi strati è possibile individuare scelte progettuali che, pur non essendo presentate come “politiche”, hanno effetti normativi rilevanti sulla distribuzione di visibilità informativa.

Al livello dei dati, i LLM ereditano le asimmetrie del web indicizzabile: una rete che è storicamente anglo‑centrica, sbilanciata verso soggetti istituzionali e corporate, e modellata da logiche di visibilità già plas mate dalla SEO tradizionale. La selezione e il filtraggio dei corpus di addestramento – per rimuovere spam, contenuti tossici, materiale “di bassa qualità” – tendono a favorire ulteriormente i registri linguistici conformi a standard dominanti, penalizzando forme espressive marginali o non allineate. Ne risulta un modello che, prima ancora di essere interrogato, porta inscritta nei propri parametri una distribuzione sbilanciata di voci: alcune prospettive entrano in modo massiccio, altre restano ai margini o non entrano affatto.

L’obiettivo di apprendimento consolida questo squilibrio. Dal momento che la funzione di costo tratta la distribuzione empirica come struttura da imparare, e non da correggere, qualsiasi bias presente nei dati viene incorporato come regolarità statistica. Il modello non distingue tra errori casuali ed errori sistematici che favoriscono certi attori: la sua “virtù” consiste nel riprodurre fedelmente ciò che ha osservato. In questo senso, la funzione di ottimizzazione opera come dispositivo di naturalizzazione dello stato di fatto: ciò che è più rappresentato nel corpus diventa, senza ulteriori interrogativi, ciò che appare più plausibile e quindi più degno di essere riprodotto in output.

Le procedure di allineamento umano introducono un ulteriore livello di collateralismo. I criteri con cui annotatori e linee guida valutano le risposte – utilità percepita, chiarezza, tono appropriato, assenza di contenuti ritenuti rischiosi o controversi – promuovono uno stile discorsivo che minimizza il conflitto e riduce la visibilità del dissenso. Risposte che espongono frontalmente divergenze profonde, che mettono in questione assetti istituzionali o che insistono sull’incertezza vengono facilmente classificate come “confusing”, “unhelpful” o “too controversial”. Il modello apprende così a privilegiare posizioni centrate, rassicuranti, spesso coincidenti con le narrative mainstream di attori già forti nello spazio pubblico, mentre le voci più critiche o marginali vengono rese meno probabili non perché false, ma perché stilisticamente e pragmaticamente disallineate rispetto agli standard premiati.

Un ruolo decisivo è giocato anche dall’architettura di retrieval e ranking che media tra i modelli generativi e le fonti esterne. I sistemi di recupero neurale sono addestrati a riconoscere e valorizzare testi ben strutturati, semanticamente densi, coerenti con certi pattern di scrittura: esattamente il tipo di contenuto che le strategie GEO/AEO producono. Inoltre, i segnali di autorevolezza utilizzati per ordinare i documenti – dominio di appartenenza, rete di link, metriche di engagement – sono a loro volta correlati con posizioni di potere economico e istituzionale. A parità di qualità sostanziale, è più probabile che vengano selezionati e riusati materiali provenienti da grandi media, think tank influenti, imprese e istituzioni dotate di risorse, rispetto a fonti più piccole o periferiche. Il collateralismo si manifesta qui come una preferenza sistematica per chi è già ben posizionato nel campo informativo.

Infine, l’interfaccia verso l’utente e il modello di business completano il quadro. Le piattaforme presentano spesso una singola risposta, o una sintesi compatta accompagnata da poche fonti, dando l’impressione di un sapere unitario e non contestato. La competizione tra narrative, il pluralismo delle posizioni, l’esistenza stessa del disaccordo restano in gran parte invisibili. Allo stesso tempo, le integrazioni con partner commerciali, le metriche di engagement e le strategie di monetizzazione introducono incentivi a favorire certi domini, certi tipi di contenuto, certi verticali informativi più facilmente valorizzabili economicamente. Anche quando tali preferenze non sono dichiarate, il risultato è un sistema che, in modo regolare, tende a fiancheggiare gli attori maggiormente integrati nelle catene di valore dell’intelligenza artificiale generativa.

Considerati insieme, questi strati mostrano come il collateralismo dei LLM non sia riducibile a una somma di errori tecnici o a episodi di abuso, ma sia inscritto nell’architettura complessiva del dispositivo: nei dati che ne alimentano i parametri, nel tipo di successo che la funzione di costo premia, nei criteri di allineamento che definiscono cosa è una “buona” risposta, nei meccanismi di accesso alle fonti e nelle logiche economiche che regolano l’interazione con gli utenti. È su questa base che le tattiche GEO/AEO trovano terreno fertile: non perché “corrompano” un sistema altrimenti neutro, ma perché ne sfruttano fino in fondo le predisposizioni strutturali.

5. GEO, AEO e sfruttamento tattico del collateralismo: dalla predisposizione sistemica alla manipolazione mirata

Le tecniche di Generative Engine Optimization e Answer Engine Optimization non rappresentano una rottura rispetto al funzionamento “normale” dei LLM, ma ne costituiscono lo sfruttamento consapevole e sistematico. Se il collateralismo strutturale descrive la predisposizione del sistema a favorire certi attori e narrative, GEO e AEO sono le strategie attraverso cui questi attori massimizzano il proprio vantaggio, aderendo perfettamente alle logiche incorporate nel modello.

La distinzione tra le due pratiche è utile sul piano operativo. L’Answer Engine Optimization mira a far sì che un contenuto venga estratto e riprodotto come risposta diretta, sfruttando la preferenza dei sistemi per testi brevi, dichiarativi, strutturati secondo schemi domanda‑risposta facilmente isolabili. La Generative Engine Optimization, più ambiziosa, cerca di posizionare un attore o un brand come fonte primaria all’interno di risposte generative complesse, attraverso contenuti lunghi, articolati, coerenti, dotati di segnali di autorevolezza e ripetuti su più canali. In entrambi i casi, l’obiettivo è lo stesso: non semplicemente “essere trovati”, ma diventare parte integrante del ragionamento operativo del modello, influenzando non solo cosa viene detto, ma anche come viene inquadrato il problema.

Ciò che rende queste tecniche particolarmente efficaci è la loro compatibilità con il telos dei LLM. Un modello addestrato a produrre risposte verosimili, ben formate, rassicuranti e allineate alle aspettative dell’utente tenderà, per costruzione, a privilegiare contenuti che presentano esattamente queste caratteristiche: coerenza interna, stile professionale, tono ragionevole, formato ottimizzato. GEO e AEO non “ingannano” il modello: ne soddisfano i criteri di qualità superficiale. In un ecosistema già sbilanciato, dove chi dispone di maggiori risorse economiche può investire in strategie di contenuto sofisticate, il risultato è un’amplificazione selettiva: gli attori che già beneficiavano del collateralismo strutturale occupano porzioni crescenti del campo epistemico computato dal modello, rendendo ancora meno probabili le voci che non dispongono di tali capacità.

A questo si aggiunge un effetto di feedback loop particolarmente insidioso. Le risposte generate dai LLM influenzano, direttamente o indirettamente, ciò che viene letto, citato, riprodotto e successivamente pubblicato. Questi contenuti – inclusi quelli generati da LLM e poi messi in rete – rientrano nei futuri corpus di addestramento e nei sistemi di retrieval, creando un circuito chiuso: dati → modello → output → nuovi dati. In questo circuito, le strategie GEO/AEO e il collateralismo strutturale si rinforzano reciprocamente. Man mano che certi attori dominano lo spazio delle risposte generate, la loro rappresentazione nel web indicizzabile cresce, rendendo ancora più plausibile dal punto di vista statistico che il modello continui a privilegiarli. Si produce così una convergenza progressiva verso un numero ristretto di narrative, con una riduzione della diversità informativa che non deriva da scelte editoriali esplicite, ma dalla dinamica interna del sistema.

6. Livello deontologico: doveri violati e “responsibility gaps”

Se il collateralismo strutturale fosse soltanto un problema di efficienza tecnica – risposte meno accurate, contenuti meno diversificati – sarebbe possibile trattarlo nei termini consueti del miglioramento incrementale. Ma ciò che è in gioco è qualcosa di più radicale: il tipo di doveri che un sistema informativo general‑purpose ha verso i propri utenti e verso la sfera pubblica.

Un sistema che si presenta come fonte autorevole di informazione – che risponde a domande fattuali, fornisce sintesi su questioni controverse, orienta decisioni individuali e collettive – assume implicitamente una serie di doveri epistemici. Tra questi, il dovere di veridicità: rappresentare lo stato del mondo in modo accurato, o almeno segnalare l’incertezza quando l’accuratezza non è raggiungibile. Il dovere di rappresentazione del disaccorso: non nascondere divergenze profonde dietro sintesi artificialmente consensuali. Il dovere di trasparenza: rendere visibili i criteri di selezione delle fonti e le limitazioni strutturali del sistema. E, in senso più ampio, il dovere di giustizia informativa: evitare di distorcere prevedibilmente il campo a favore di attori già forti, garantendo accesso e visibilità anche a prospettive marginali o critiche.

Il collateralismo strutturale rappresenta la violazione sistematica di questi doveri. Non si tratta di episodi isolati di errore o di abuso, ma di una configurazione permanente che subordina i doveri epistemici alle finalità operative del sistema: verosimiglianza conforme alle aspettative, soddisfazione dell’utente, protezione degli interessi del provider, integrazione nei modelli di business della piattaforma. I principi etici dichiarati – trasparenza, equità, responsabilità – vengono trattati come vincoli deboli, validi finché non entrano in conflitto con gli obiettivi primari. Il risultato è un dispositivo che continua a “dire” di servire l’interesse generale, ma che, nei fatti, è allineato a un insieme ristretto di finalità particolari.

A questa violazione si aggiunge un problema di responsabilità distribuita, noto in letteratura come “responsibility gap”. La natura stratificata del sistema – dataset prodotti da terzi, modelli addestrati in modo automatico, procedure di allineamento opache, integrazioni con partner commerciali, scelte degli utenti – rende difficile attribuire responsabilità individuali per gli effetti collateralisti. Nessun singolo attore “decide” di favorire sistematicamente certi discorsi: è la somma di scelte tecniche, economiche e organizzative, ciascuna apparentemente neutra o giustificabile, a produrre questo esito. Il collateralismo strutturale si manifesta così come un effetto senza autore esplicito, ma perfettamente regolare e prevedibile.

Questa configurazione solleva una questione deontologica di fondo. Se accettiamo che i LLM assumano funzioni sempre più centrali nella mediazione del sapere – nell’educazione, nella consulenza professionale, nell’informazione pubblica – dobbiamo esigere che assumano anche i doveri corrispondenti. Non è sufficiente affermare che “il modello non è perfetto” o che “l’utente deve verificare le informazioni”. Un sistema che strutturalmente favorisce alcune voci rispetto ad altre, che presenta come neutre sintesi che incorporano valori e interessi specifici, che rende opaca la distribuzione del potere epistemico, non può essere considerato eticamente accettabile semplicemente perché è tecnicamente sofisticato o economicamente redditizio.

Riconoscere il collateralismo strutturale come problema deontologico, e non solo tecnico, significa porre al centro della riflessione etica sull’IA la questione delle finalità: per chi e per che cosa questi sistemi sono fatti. E significa accettare che, finché il telos primario resta la verosimiglianza conforme alle aspettative e agli interessi dei provider, nessun aggiustamento incrementale dei meccanismi di filtraggio o dei criteri di ranking potrà eliminare il fiancheggiamento sistematico dei discorsi dominanti. La manipolazione tattica attraverso GEO e AEO è soltanto il sintomo visibile di una struttura che, alla radice, non è mai stata orientata alla verità né alla giustizia informativa, ma alla plausibilità soddisfacente per chi già ha voce.

7. Verso una riformulazione delle finalità e dei vincoli

Riconoscere il collateralismo strutturale come problema costitutivo, e non come difetto emendabile ai margini, impone di interrogarsi sulle condizioni alle quali i LLM potrebbero assumere funzioni pubbliche critiche senza violare sistematicamente i doveri epistemici verso gli utenti e la sfera pubblica. Questa interrogazione non può limitarsi a miglioramenti incrementali – filtri più sofisticati, dataset più bilanciati, linee guida etiche più dettagliate – ma deve investire il livello delle finalità: per che cosa questi sistemi sono fatti, quale tipo di successo sono chiamati a massimizzare, quali vincoli deontologici devono essere assunti come non negoziabili.

7.1. Ripensare il telos: dall’ottimizzazione della verosimiglianza a un mandato epistemico

L’ipotesi di fondo è che LLM destinati a funzioni pubbliche sensibili – educazione, informazione, consulenza professionale, supporto decisionale in ambiti di rilevanza collettiva – non possano continuare ad essere ottimizzati per la produzione di risposte verosimili e soddisfacenti, ma debbano assumere esplicitamente un telos epistemico. Questo non significa pretendere che diventino “oracoli di verità”, né ignorare i limiti intrinseci di qualsiasi sistema computazionale, ma richiede che la corrispondenza con lo stato del mondo, la rappresentazione trasparente dell’incertezza e del disaccordo, e la giustizia nella distribuzione di visibilità informativa siano trattati come obiettivi primari, non come vincoli secondari subordinati all’engagement o alla protezione degli interessi del provider.

Sul piano tecnico, ciò implicherebbe modifiche profonde alla funzione di ottimizzazione e ai criteri di valutazione. Invece di premiare unicamente la fluenza, la coerenza interna e l’aderenza alle aspettative dell’utente, si tratterebbe di valorizzare risposte che esplicitano l’incertezza quando le evidenze sono contrastanti, che rappresentano il disaccordo tra fonti autorevoli invece di nasconderlo dietro sintesi artificialmente consensuali, che danno visibilità a prospettive minoritarie o marginali anche quando queste non corrispondono al framing dominante. In pratica, il modello dovrebbe essere penalizzato quando produce sicurezza infondata, quando omette sistematicamente voci rilevanti, quando presenta come neutro ciò che è contestato.

Questo tipo di riforma richiederebbe anche un ripensamento delle procedure di allineamento. Gli annotatori non dovrebbero valutare le risposte solo in termini di “utilità percepita” o “assenza di contenuti rischiosi”, ma anche in base a criteri epistemici espliciti: accuratezza fattuale verificabile, completezza nella rappresentazione delle posizioni in campo, trasparenza sui limiti del sapere disponibile, equità nella distribuzione delle citazioni tra tipi diversi di fonti (accademiche, istituzionali, indipendenti, locali). Sarebbe necessario inoltre introdurre vincoli strutturali di giustizia informativa, ad esempio imponendo che, su temi controversi, vengano rappresentate almeno due o tre posizioni distinte con le rispettive argomentazioni, o che una percentuale minima di fonti citate provenga da contesti geografici, linguistici o istituzionali diversi da quelli dominanti.

Naturalmente, un simile cambiamento di finalità non è neutro rispetto agli interessi in gioco. Massimizzare la verità e la giustizia informativa può entrare in conflitto con la massimizzazione dell’engagement, con la protezione legale del provider, con le relazioni commerciali con partner strategici. Qui emerge il nodo politico ed economico della questione: finché i LLM restano dispositivi proprietari, il cui sviluppo è governato da logiche di mercato e di valorizzazione del capitale, è difficile immaginare che assumano volontariamente un telos che potrebbe ridurre la loro attrattività commerciale o esporli a maggiori responsabilità. La riformulazione delle finalità, quindi, non può essere lasciata alla buona volontà dei provider, ma richiede forme di regolazione pubblica, vincoli giuridici, o – in prospettiva – la costruzione di infrastrutture generative gestite secondo logiche di pubblico servizio.

7.2. Vincoli strutturali e governance: trasparenza, audit, responsabilità

Parallelamente alla riforma del telos, è necessario introdurre vincoli strutturali e meccanismi di governance che rendano il collateralismo rilevabile, contestabile e sanzionabile. Il primo passo è la trasparenza sui dati e sui criteri di selezione delle fonti. Gli utenti – e, più in generale, la sfera pubblica – hanno il diritto di sapere su quali corpus un modello è stato addestrato, quali domini sono privilegiati nei sistemi di retrieval, quali segnali di ranking vengono utilizzati per ordinare le fonti, quali filtri sono applicati per escludere contenuti. Questa trasparenza non può limitarsi a dichiarazioni generiche (“il modello è addestrato su dati pubblici del web”), ma deve includere informazioni quantitative sulla composizione dei dataset, sulla distribuzione geografica e linguistica delle fonti, sulla presenza di materiali prodotti da diversi tipi di attori (media, istituzioni, accademia, società civile, individui).

Un secondo strumento è l’audit esterno e indipendente. Analogamente a quanto avviene per i dispositivi medici o per i sistemi di sicurezza, i LLM destinati a funzioni pubbliche dovrebbero essere sottoposti a test sistematici per rilevare forme di collateralismo: verificare, ad esempio, se su temi controversi il modello favorisce sistematicamente certe posizioni o certi attori, se fonti istituzionali o corporate vengono citate con frequenza sproporzionata rispetto alla loro effettiva rilevanza epistemica, se narrative dominanti vengono presentate come fatti mentre posizioni minoritarie vengono etichettate come opinioni. Questi test dovrebbero essere condotti da enti pubblici o da organizzazioni indipendenti, con obbligo di pubblicazione dei risultati e con conseguenze giuridiche o reputazionali per i provider che non rispettano standard minimi di equità informativa.

Un’analogia utile può essere trovata nella deontologia giornalistica o nella governance della ricerca scientifica. Nel giornalismo, esistono codici deontologici che obbligano alla verifica delle fonti, alla rappresentazione del contraddittorio, alla disclosure di conflitti di interesse; esistono ordini professionali, meccanismi di reclamo, sanzioni disciplinari. Nella ricerca scientifica, il sistema di peer review, per quanto imperfetto, introduce un filtro epistemico collettivo; le riviste impongono la trasparenza sui finanziamenti, sui dati, sulle procedure; esistono norme contro il plagio, la manipolazione dei risultati, la pubblicazione selettiva. Nulla di simile esiste attualmente per i LLM, che operano in uno spazio largamente auto-regolato. Introdurre forme di responsabilità professionale, di revisione tra pari, di obbligo di disclosure potrebbe contribuire a limitare il collateralismo strutturale, almeno nelle sue forme più evidenti.

Un punto di riferimento utile può essere trovato nei framework normativi esistenti per la protezione dei dati e la regolazione dei sistemi algoritmici. Il Regolamento Generale sulla Protezione dei Dati (GDPR) ha introdotto, per i sistemi di decisione automatizzata, principi di trasparenza, accountability e diritto alla spiegazione che potrebbero essere estesi ai LLM quando operano come infrastrutture informative pubbliche. In particolare, l’obbligo di disclosure sui criteri decisionali e sui dati utilizzati, già previsto dall’art. 13-15 GDPR, potrebbe essere adattato per imporre ai provider di LLM la pubblicazione di informazioni dettagliate sulla composizione dei dataset, sui filtri applicati, sui segnali di ranking utilizzati per selezionare le fonti. Analogamente, il principio di “privacy by design” potrebbe tradursi in un principio di “epistemic fairness by design”, che imponga di incorporare vincoli di giustizia informativa già nella fase di progettazione del modello, anziché trattarli come aggiustamenti post-hoc.

L’AI Act europeo, recentemente approvato, classifica i sistemi di IA in base al livello di rischio e prevede obblighi differenziati. I LLM destinati a funzioni pubbliche critiche – educazione, informazione, consulenza sanitaria o legale – dovrebbero essere trattati come sistemi ad alto rischio, soggetti a requisiti stringenti di trasparenza, tracciabilità, sorveglianza umana e valutazione di conformità da parte di organismi indipendenti. Inoltre, l’AI Act introduce l’obbligo di valutazione d’impatto sui diritti fondamentali per i sistemi che comportano rischi sistemici. Il collateralismo strutturale, in quanto distorsione prevedibile del campo informativo a danno di voci minoritarie e prospettive non dominanti, può essere considerato un rischio sistemico che richiede valutazioni ex ante e monitoraggio continuo.

Un ulteriore modello può essere individuato nelle proposte di “algorithmic accountability” avanzate negli Stati Uniti e in altri contesti. Alcune di queste proposte prevedono la creazione di registri pubblici dei sistemi algoritmici usati in ambiti sensibili, con obbligo di documentazione tecnica accessibile, test periodici di equità, e pubblicazione di report di impatto. Estendere tali meccanismi ai LLM significherebbe richiedere, ad esempio, la pubblicazione annuale di audit indipendenti che misurino il grado di collateralismo (distribuzione delle citazioni per tipo di fonte, presenza di narrative dominanti vs. minoritarie, copertura geografica e linguistica), con obbligo di intervento correttivo quando vengono rilevate distorsioni superiori a soglie predefinite.

È importante sottolineare che l’efficacia di questi vincoli dipende dalla presenza di istituzioni di controllo effettivamente indipendenti dai provider. L’esperienza della regolazione dei social media ha mostrato come forme di autoregolamentazione o di co-regolazione catturata dai grandi attori possano produrre compliance formale senza modifiche sostanziali. Per evitare questo rischio, è necessario prevedere organismi di audit pubblici o misti (pubblico-privato-società civile), con potere sanzionatorio e obbligo di trasparenza verso il pubblico.

7.3. Limiti e rischi: tra imperfezione tecnica e cattura regolativa

È importante, tuttavia, riconoscere i limiti intrinseci di qualsiasi tentativo di riforma. Un modello addestrato su distribuzioni empiriche di linguaggio, per quanto raffinato, difficilmente potrà diventare un “oracolo di verità”. La verità, in molti domini, è contestata, dipendente dal contesto, in evoluzione; pretendere che un sistema computazionale la determini in modo definitivo equivarrebbe a delegargli un’autorità epistemica che nessun attore umano possiede. Inoltre, anche con le migliori intenzioni, resta difficile tradurre principi normativi generali – giustizia informativa, rappresentazione del disaccordo, equità tra fonti – in metriche operative che non generino nuove forme di distorsione.

Vi è poi il rischio di una “burocratizzazione etica” che moltiplica procedure, linee guida, meccanismi di conformità formale senza toccare i vincoli economico-istituzionali che producono il collateralismo strutturale. Se le forme di governance restano superficiali – checklist da spuntare, dichiarazioni di principio, audit condotti dagli stessi provider o da enti compiacenti – il risultato potrebbe essere una legittimazione del sistema esistente più che una sua trasformazione. Analogamente, esiste il rischio di cattura regolativa: che i grandi provider, disponendo di risorse enormi per la conformità normativa e per l’influenza politica, riescano a modellare le regole in modo da consolidare la propria posizione dominante ed escludere attori più piccoli o alternativi.

Per queste ragioni, qualsiasi riforma credibile deve essere accompagnata da forme di controllo democratico sull’infrastruttura informativa: spazi per lo sviluppo di modelli pubblici o gestiti secondo logiche non proprietarie, accesso aperto ai dataset e alle procedure di addestramento per la ricerca indipendente, partecipazione della società civile alla definizione degli standard. Non si tratta di abolire il mercato o di imporre un controllo statale centralizzato, ma di riconoscere che i LLM, nella misura in cui diventano infrastrutture epistemiche essenziali, non possono restare dominio esclusivo di attori privati governati da finalità commerciali.

Il collateralismo strutturale, in definitiva, non è un problema che si possa risolvere “dentro” l’attuale configurazione dei LLM, perché è precisamente quella configurazione – nel suo telos, nella sua architettura, nei suoi rapporti con il potere economico e politico – a produrlo. Riformare significa, quindi, mettere in discussione le finalità stesse per cui questi sistemi esistono, e accettare che tale discussione non è solo tecnica, ma profondamente politica.

8. Conclusione: oltre la manipolazione tattica, verso una riforma delle finalità e una governance pubblica

Questo articolo ha introdotto il concetto di collateralismo strutturale per descrivere il fiancheggiamento sistematico di attori e narrative dominanti prodotto dai grandi modelli linguistici. A differenza di forme episodiche di bias o manipolazione, il collateralismo strutturale è incorporato nel progetto stesso di questi sistemi: nella composizione dei dati, negli obiettivi di addestramento, nelle procedure di allineamento, nei meccanismi di retrieval e ranking, nei modelli di business.

L’argomento centrale è che il collateralismo ha origine nel telos dei LLM: non la ricerca della verità o la rappresentazione trasparente del disaccordo, ma la produzione di risposte verosimili, coerenti con le aspettative dell’utente e funzionali agli interessi del provider. In un ecosistema informativo già sbilanciato, questo orientamento alla verosimiglianza conforme produce, in modo del tutto “regolare”, una convergenza verso discorsi già egemoni. Le tecniche di Generative Engine Optimization e Answer Engine Optimization, su cui il dibattito pubblico si è recentemente concentrato, non sono la causa di questo collateralismo, ma il suo sfruttamento tattico. Attori dotati di risorse economiche e competenze tecniche possono massimizzare il proprio vantaggio aderendo perfettamente alle logiche del sistema: contenuti ottimizzati, ben formattati, ripetuti, dotati di segnali di autorevolezza che il modello è già predisposto a valorizzare. Il risultato è un’amplificazione selettiva che, innestata su un terreno già sbilanciato, produce una convergenza progressiva verso un numero ristretto di narrative, con una riduzione della diversità informativa che nessun singolo attore ha deciso, ma che tutti insieme hanno reso inevitabile.

Da una prospettiva deontologica, il collateralismo strutturale rappresenta la violazione sistematica dei doveri epistemici che un sistema informativo general-purpose ha verso i propri utenti e verso la sfera pubblica: doveri di veridicità, di rappresentazione del disaccordo, di trasparenza, di giustizia informativa. Questi doveri non sono violati per errore o per abuso occasionale, ma perché sono strutturalmente subordinati alle finalità operative del sistema. I principi etici dichiarati – equità, responsabilità, trasparenza – restano vincoli deboli, validi finché non interferiscono con engagement, protezione legale e integrazione nei modelli di business. La natura distribuita e opaca della catena di responsabilità rende inoltre difficile attribuire colpe individuali, ma non rende meno grave l’effetto complessivo: un dispositivo che, in modo regolare e prevedibile, fiancheggia chi ha già voce e marginalizza chi non ne ha.

Riconoscere questo problema come deontologico, e non solo tecnico, impone di spostare la riflessione etica sull’IA dal piano del contenimento degli abusi a quello della riforma delle finalità e dell’introduzione di vincoli pubblici vincolanti. Non è sufficiente migliorare i filtri, moltiplicare i controlli o dichiarare nuovi principi se il telos del sistema resta la verosimiglianza conforme alle aspettative. Un modello orientato alla plausibilità, in un ecosistema informativo già sbilanciato, non può che riprodurre e amplificare quegli squilibri. Se vogliamo che i LLM assumano funzioni pubbliche critiche – nell’educazione, nell’informazione, nella consulenza professionale – dobbiamo esigere che assumano anche un telos pubblico: non semplicemente rispondere in modo soddisfacente, ma rispondere in modo epistemicamente responsabile, anche quando questo significa esporre l’incertezza, rappresentare il conflitto, dare visibilità a voci marginali.

Sul piano della governance, questo richiede l’introduzione di vincoli strutturali che rendano il collateralismo rilevabile, contestabile e sanzionabile. I framework normativi esistenti – GDPR, AI Act europeo, proposte di algorithmic accountability – offrono strumenti che possono essere adattati ed estesi ai LLM: obbligo di trasparenza sui dati e sui criteri di selezione, audit esterni indipendenti, valutazioni d’impatto sui diritti fondamentali, meccanismi di revisione pubblica e partecipazione della società civile. L’efficacia di questi vincoli dipende tuttavia dalla presenza di istituzioni di controllo effettivamente indipendenti e dalla volontà politica di trattare i LLM, quando operano come infrastrutture epistemiche essenziali, non come prodotti privati soggetti solo a logiche di mercato, ma come beni pubblici che richiedono forme di governance democratica.

Questo non equivale a immaginare un “oracolo neutro” né a sottovalutare i limiti intrinseci di qualsiasi sistema computazionale. Significa piuttosto riconoscere che le scelte progettuali – quali dati includere, quali obiettivi ottimizzare, quali segnali di qualità premiare, quali forme di responsabilità assumere – sono scelte normative, e che tali scelte non possono continuare ad essere delegate silenziosamente a logiche di efficienza tecnica o di massimizzazione del profitto. La domanda che resta aperta è se siamo disposti ad accettare che una porzione crescente della mediazione del sapere pubblico sia affidata a sistemi che, per progetto, non possono distinguere tra verità e plausibilità, tra rappresentazione accurata del mondo e riproduzione delle aspettative dominanti. Se la risposta è no, allora il collateralismo strutturale non è un difetto da correggere ai margini, ma un problema costitutivo che richiede di ripensare, alle radici, per chi e per che cosa costruiamo intelligenze artificiali destinate a parlare in nome del sapere.