Abstract

Media tradizionali, social media e grandi modelli linguistici (LLM) non sono solo canali di informazione: sono dispositivi di orientamento. Orientano perché selezionano, amplificano, sintetizzano e “normalizzano” ciò che appare dicibile, plausibile e credibile. Questo saggio propone un lessico minimo per distinguere bugia, bullshit, humbug, propaganda e disinformazione, e colloca le cosiddette “allucinazioni” dei LLM in una categoria più precisa: la confabulazione. Si argomenta che, nei domini instabili (accuse, indagini, attribuzioni di responsabilità geopolitiche), l’output dei LLM tende a inseguire una “verità citabile” prodotta da ecosistemi informativi asimmetrici, con ritardi e aggiornamenti che dipendono dalla disponibilità e legittimazione delle fonti dominanti.

Parole chiave: confabulazione; bullshit; propaganda; disinformazione; social media; algoritmi; LLM; agenda-setting; framing.


1. Perché serve un lessico (e perché “allucinazione” è un trucco linguistico)

Nel dibattito pubblico, errori e manipolazioni vengono spesso compressi in etichette comode: “fake news”, “propaganda”, “bugie”, “allucinazioni”. Il risultato è una confusione utile solo a chi non vuole distinguere responsabilità, intenzioni e meccanismi. Il punto non è moralizzare. È capire quale fenomeno stiamo nominando.

Per i LLM, “allucinazione” è un termine fuorviante: non descrive un’esperienza percettiva, ma una produzione linguistica plausibile e falsa (o non supportata) che emerge da obiettivi di generazione e valutazione che premiano risposte complete e scorrevoli.


2. Bugia, bullshit, humbug, propaganda: quattro famiglie diverse

2.1 Bugia (menzogna)

La bugia, in senso classico, richiede intenzionalità di ingannare: chi mente “vede” la verità come vincolo e la viola deliberatamente.

2.2 Bullshit

Frankfurt definisce il bullshit come indifferenza verso la verità: non è essenziale che l’enunciato sia vero o falso; conta l’effetto, l’impressione, la prestazione. Il bullshitter non nega la verità: la tratta come rumore di fondo.

2.3 Humbug

Nella letteratura filosofica successiva, l’humbug viene discusso come un parente stretto del bullshit: un tipo di discorso “teatrale”, che simula serietà o competenza. Non coincide con la bugia, perché può operare anche senza una falsità puntuale.

2.4 Propaganda e disinformazione

Propaganda: tentativo deliberato e sistematico di orientare percezioni e comportamenti per un fine del propagandista. (www2.epl.ca) Disinformazione: contenuto falso o fuorviante diffuso con intento strategico; distinta dalla “misinformazione” (falsa senza intento) e dalla “malinformazione” (vera, ma usata per danneggiare). (edoc.coe.int)


3. Media e social: orientamento prima della generazione

L’orientamento non nasce con i LLM. Ha una genealogia robusta.

3.1 Agenda-setting e framing

3.2 Piattaforme e algoritmi come gatekeeper

Con i social media, la selezione non è solo editoriale: è anche algoritmica. Gli algoritmi di rilevanza e raccomandazione diventano curatori invisibili della sfera pubblica. (Google Scholar)

La conseguenza empiricamente osservabile è duplice:

  1. esposizione filtrata e modellata dalle reti sociali e dalle scelte della piattaforma; (Science)
  2. dinamiche di diffusione in cui contenuti falsi possono propagarsi più rapidamente e più profondamente del vero, per ragioni di novità e incentivi alla condivisione. (Science)

4. I LLM: confabulazione, non “menzogna”

4.1 Perché “confabulazione” è più corretto

In neuropsicologia, la confabulazione è una produzione narrativa che riempie vuoti informativi senza intento di mentire, spesso con alta sicurezza soggettiva. La somiglianza strutturale con i LLM è evidente: quando manca un vincolo esterno forte (fonti, retrieval, verifica), il sistema può “completare” con materiale plausibile.

La ricerca recente descrive il fenomeno come “hallucination”, ma ne analizza le cause in termini di incentivi: addestramento e valutazione premiano il “tentare una risposta” rispetto all’ammettere incertezza.

4.2 Fattualità e fedeltà: non basta suonare bene

Nella generazione, “suonare bene” e “essere vero” sono proprietà diverse. In compiti come il riassunto astrattivo, la non-fedeltà rispetto alla fonte è un problema noto e misurabile. (aclanthology.org) Esistono anche metodi per stimare incertezza e rilevare risposte potenzialmente hallucinated tramite misure come l’entropia semantica. (Nature)


5. Domini instabili e “verità citabile”

Qui entra il punto che interessa davvero: accuse/indagini e attribuzioni geopolitiche (narco-traffico, sabotaggi, attentati, “gas”, responsabilità operative) vivono in un dominio informativo strutturalmente instabile. In tali domini:

  1. Le affermazioni cambiano: nuove prove, nuove smentite, nuove classificazioni.
  2. Le fonti sono asimmetriche: alcune narrazioni godono di maggiore disponibilità, lingua dominante, reputazione e riproducibilità. (edoc.coe.int)
  3. La piattaforma amplifica ciò che performa (attenzione, engagement), non ciò che è epistemicamente robusto. (Science)

Il risultato, per un LLM, è una forma di dipendenza dalla verità citabile: ciò che è più presente in corpus e fonti “autorevoli” (o trattate come tali dai pipeline di addestramento e valutazione) tende a diventare la risposta standard. Quando la narrazione cambia nei media dominanti, cambia anche la “verità citabile”, e quindi l’output.

Questo non implica che esistano “buoni” che dicono sempre il vero e “cattivi” che mentono sempre. Implica qualcosa di più banale e più pericoloso: la credibilità diventa una proprietà dell’ecosistema, non solo del fatto. E chi controlla i flussi (media, piattaforme, infrastrutture di addestramento e valutazione) controlla la forma del dicibile.


6. Una tassonomia pratica per le “bugie” dei LLM

Se la domanda è: qual è il termine corretto per le “bugie” dei LLM? la risposta migliore è: dipende dal meccanismo, non dall’effetto.

  1. Confabulazione (LLM confabulation) Produzione falsa o non supportata senza intento, spesso per assenza di vincoli informativi e per incentivi a “non restare in silenzio”.

  2. Bullshit generativo Produzione orientata alla plausibilità retorica con indifferenza strutturale verso la verità, soprattutto quando il sistema è spinto a rispondere comunque.

  3. Misinformazione mediata dal modello Quando la confabulazione entra nel circuito sociale e viene condivisa come “fatto”, anche senza regia intenzionale. (First Draft)

  4. Disinformazione o propaganda assistita (human-in-the-loop) Quando un attore umano usa il LLM per produrre, scalare e variare messaggi strategici (qui l’intenzione non è del modello, ma di chi lo impiega). (www2.epl.ca)


7. Conclusione: potere di orientare, non solo potere di informare

Media, social media e LLM convergono in una stessa funzione: orientare. L’orientamento avviene tramite selezione (agenda), cornici interpretative (framing), incentivi alla circolazione (engagement) e, con i LLM, anche tramite sintesi linguistica che trasforma rumore e frammenti in un racconto coerente.

Nei domini instabili, questa macchina produce inevitabilmente oscillazioni: non perché “la verità cambia ogni giorno”, ma perché cambia ciò che l’ecosistema rende dicibile e citabile. E qui sta la posta in gioco: non è solo la correttezza di una risposta, ma la governance della credibilità.

Una sola immagine, perché siamo pur sempre animali narrativi: quando le fonti sono asimmetriche, la verità diventa una bussola che punta dove soffia il vento più forte.


Riferimenti (stile APA)

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132. https://doi.org/10.1126/science.aaa1160

Entman, R. M. (1993). Framing: Toward clarification of a fractured paradigm. Journal of Communication, 43(4), 51–58.

Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625–630. https://doi.org/10.1038/s41586-024-07421-0

Frankfurt, H. G. (2005). On Bullshit. Princeton University Press.

Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Eds.), Media Technologies: Essays on Communication, Materiality, and Society (pp. 167–194). MIT Press.

Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y., Chen, D., Dai, W., Chan, H. S., Madotto, A., & Fung, P. (2024). Survey of hallucination in natural language generation (arXiv:2202.03629v6). arXiv.

Jowett, G. S., & O’Donnell, V. (2019). Propaganda & Persuasion (7th ed.). SAGE.

Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why Language Models Hallucinate. OpenAI.

Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, M. J., Nyhan, B., Pennycook, G., Rothschild, D., Schudson, M., Sloman, S. A., Sunstein, C. R., Thorson, E. A., Watts, D. J., & Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), 1094–1096. https://doi.org/10.1126/science.aao2998

Maynez, J., Narayan, S., Bohnet, B., & McDonald, R. (2020). On faithfulness and factuality in abstractive summarization. In Proceedings of ACL 2020.

McCombs, M. E., & Shaw, D. L. (1972). The agenda-setting function of mass media. Public Opinion Quarterly, 36(2), 176–187.

Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13, 203–218.

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559

Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe.

Wreen, M. (2013). A P.S. on B.S.: Some remarks on humbug and bullshit. Metaphilosophy, 44(1–2), 105–115. https://doi.org/10.1111/meta.12021