Media tradizionali, social media e grandi modelli linguistici (LLM) non sono solo canali di informazione: sono dispositivi di orientamento. Orientano perché selezionano, amplificano, sintetizzano e “normalizzano” ciò che appare dicibile, plausibile e credibile. Questo saggio propone un lessico minimo per distinguere bugia, bullshit, humbug, propaganda e disinformazione, e colloca le cosiddette “allucinazioni” dei LLM in una categoria più precisa: la confabulazione. Si argomenta che, nei domini instabili (accuse, indagini, attribuzioni di responsabilità geopolitiche), l’output dei LLM tende a inseguire una “verità citabile” prodotta da ecosistemi informativi asimmetrici, con ritardi e aggiornamenti che dipendono dalla disponibilità e legittimazione delle fonti dominanti.
Parole chiave: confabulazione; bullshit; propaganda; disinformazione; social media; algoritmi; LLM; agenda-setting; framing.
Nel dibattito pubblico, errori e manipolazioni vengono spesso compressi in etichette comode: “fake news”, “propaganda”, “bugie”, “allucinazioni”. Il risultato è una confusione utile solo a chi non vuole distinguere responsabilità, intenzioni e meccanismi. Il punto non è moralizzare. È capire quale fenomeno stiamo nominando.
Per i LLM, “allucinazione” è un termine fuorviante: non descrive un’esperienza percettiva, ma una produzione linguistica plausibile e falsa (o non supportata) che emerge da obiettivi di generazione e valutazione che premiano risposte complete e scorrevoli.
La bugia, in senso classico, richiede intenzionalità di ingannare: chi mente “vede” la verità come vincolo e la viola deliberatamente.
Frankfurt definisce il bullshit come indifferenza verso la verità: non è essenziale che l’enunciato sia vero o falso; conta l’effetto, l’impressione, la prestazione. Il bullshitter non nega la verità: la tratta come rumore di fondo.
Nella letteratura filosofica successiva, l’humbug viene discusso come un parente stretto del bullshit: un tipo di discorso “teatrale”, che simula serietà o competenza. Non coincide con la bugia, perché può operare anche senza una falsità puntuale.
Propaganda: tentativo deliberato e sistematico di orientare percezioni e comportamenti per un fine del propagandista. (www2.epl.ca) Disinformazione: contenuto falso o fuorviante diffuso con intento strategico; distinta dalla “misinformazione” (falsa senza intento) e dalla “malinformazione” (vera, ma usata per danneggiare). (edoc.coe.int)
Con i social media, la selezione non è solo editoriale: è anche algoritmica. Gli algoritmi di rilevanza e raccomandazione diventano curatori invisibili della sfera pubblica. (Google Scholar)
La conseguenza empiricamente osservabile è duplice:
In neuropsicologia, la confabulazione è una produzione narrativa che riempie vuoti informativi senza intento di mentire, spesso con alta sicurezza soggettiva. La somiglianza strutturale con i LLM è evidente: quando manca un vincolo esterno forte (fonti, retrieval, verifica), il sistema può “completare” con materiale plausibile.
La ricerca recente descrive il fenomeno come “hallucination”, ma ne analizza le cause in termini di incentivi: addestramento e valutazione premiano il “tentare una risposta” rispetto all’ammettere incertezza.
Nella generazione, “suonare bene” e “essere vero” sono proprietà diverse. In compiti come il riassunto astrattivo, la non-fedeltà rispetto alla fonte è un problema noto e misurabile. (aclanthology.org) Esistono anche metodi per stimare incertezza e rilevare risposte potenzialmente hallucinated tramite misure come l’entropia semantica. (Nature)
Qui entra il punto che interessa davvero: accuse/indagini e attribuzioni geopolitiche (narco-traffico, sabotaggi, attentati, “gas”, responsabilità operative) vivono in un dominio informativo strutturalmente instabile. In tali domini:
Il risultato, per un LLM, è una forma di dipendenza dalla verità citabile: ciò che è più presente in corpus e fonti “autorevoli” (o trattate come tali dai pipeline di addestramento e valutazione) tende a diventare la risposta standard. Quando la narrazione cambia nei media dominanti, cambia anche la “verità citabile”, e quindi l’output.
Questo non implica che esistano “buoni” che dicono sempre il vero e “cattivi” che mentono sempre. Implica qualcosa di più banale e più pericoloso: la credibilità diventa una proprietà dell’ecosistema, non solo del fatto. E chi controlla i flussi (media, piattaforme, infrastrutture di addestramento e valutazione) controlla la forma del dicibile.
Se la domanda è: qual è il termine corretto per le “bugie” dei LLM? la risposta migliore è: dipende dal meccanismo, non dall’effetto.
Confabulazione (LLM confabulation) Produzione falsa o non supportata senza intento, spesso per assenza di vincoli informativi e per incentivi a “non restare in silenzio”.
Bullshit generativo Produzione orientata alla plausibilità retorica con indifferenza strutturale verso la verità, soprattutto quando il sistema è spinto a rispondere comunque.
Misinformazione mediata dal modello Quando la confabulazione entra nel circuito sociale e viene condivisa come “fatto”, anche senza regia intenzionale. (First Draft)
Disinformazione o propaganda assistita (human-in-the-loop) Quando un attore umano usa il LLM per produrre, scalare e variare messaggi strategici (qui l’intenzione non è del modello, ma di chi lo impiega). (www2.epl.ca)
Media, social media e LLM convergono in una stessa funzione: orientare. L’orientamento avviene tramite selezione (agenda), cornici interpretative (framing), incentivi alla circolazione (engagement) e, con i LLM, anche tramite sintesi linguistica che trasforma rumore e frammenti in un racconto coerente.
Nei domini instabili, questa macchina produce inevitabilmente oscillazioni: non perché “la verità cambia ogni giorno”, ma perché cambia ciò che l’ecosistema rende dicibile e citabile. E qui sta la posta in gioco: non è solo la correttezza di una risposta, ma la governance della credibilità.
Una sola immagine, perché siamo pur sempre animali narrativi: quando le fonti sono asimmetriche, la verità diventa una bussola che punta dove soffia il vento più forte.
Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132. https://doi.org/10.1126/science.aaa1160
Entman, R. M. (1993). Framing: Toward clarification of a fractured paradigm. Journal of Communication, 43(4), 51–58.
Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625–630. https://doi.org/10.1038/s41586-024-07421-0
Frankfurt, H. G. (2005). On Bullshit. Princeton University Press.
Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Eds.), Media Technologies: Essays on Communication, Materiality, and Society (pp. 167–194). MIT Press.
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y., Chen, D., Dai, W., Chan, H. S., Madotto, A., & Fung, P. (2024). Survey of hallucination in natural language generation (arXiv:2202.03629v6). arXiv.
Jowett, G. S., & O’Donnell, V. (2019). Propaganda & Persuasion (7th ed.). SAGE.
Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why Language Models Hallucinate. OpenAI.
Lazer, D. M. J., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, M. J., Nyhan, B., Pennycook, G., Rothschild, D., Schudson, M., Sloman, S. A., Sunstein, C. R., Thorson, E. A., Watts, D. J., & Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), 1094–1096. https://doi.org/10.1126/science.aao2998
Maynez, J., Narayan, S., Bohnet, B., & McDonald, R. (2020). On faithfulness and factuality in abstractive summarization. In Proceedings of ACL 2020.
McCombs, M. E., & Shaw, D. L. (1972). The agenda-setting function of mass media. Public Opinion Quarterly, 36(2), 176–187.
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13, 203–218.
Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe.
Wreen, M. (2013). A P.S. on B.S.: Some remarks on humbug and bullshit. Metaphilosophy, 44(1–2), 105–115. https://doi.org/10.1111/meta.12021