28002 - FILOSOFIA DEL LINGUAGGIO (1) (LM)

Anno Accademico 2025/2026

  • Docente: Sebastiano Moruzzi
  • Crediti formativi: 6
  • SSD: M-FIL/05
  • Lingua di insegnamento: Italiano

Conoscenze e abilità da conseguire

Lo studente al termine del corso raggiunge una competenza media sulla filosofia del linguaggio contemporanea, con l'approfondimento di un argomento specifico e la lettura guidata di un classico.

Contenuti

Argomento: Semantica e pragmatica con IA e LLM

L'insegnamento affronta gli aspetti semantici e pragmatici del linguaggio, focalizzandosi su come l’intelligenza artificiale e i Large Language Models influiscano sulla comprensione di questi fenomeni.

L'insegnamento verterà su queste domande:

1. Come cambia la nostra comprensione della semantica quando è applicata
a sistemi che non hanno esperienza del mondo né intenzioni proprie?

2. In che modo i modelli linguistici artificiali trattano fenomeni pragmatici
come le implicature, la deissi o il contesto conversazionale?

3. È possibile considerare i modelli linguistici come dotati di una forma di
competenza semantica, o si tratta soltanto di abilità statistiche?

4. Quali limiti emergono nella capacità degli LLM di riferirsi a entità del
mondo reale in modo stabile e coerente?

5. Quali criteri possiamo usare per distinguere tra comprensione autentica e simulazione di comprensione in un sistema artificiale?

6. Qual è il ruolo del contesto nell’attribuzione di significato a un output
generato da un LLM, e quanto dipende dall’interpretazione umana?

7. In che misura le strutture sintattiche e distribuzionali apprese da un LLM
sono sufficienti per generare inferenze pragmatiche corrette?

8. Che cosa implica l’uso di LLM per la nostra concezione tradizionale del
significato come qualcosa di legato all’intenzionalità, all’uso e alla comunicazione?

Calendario lezioni


Il seguente è un calendario indicativo delle lezioni che illustra gli articoli o libri che verranno discussi. Il calendario potrà cambiare in base a quanto si riusciranno a coprire in classe le tematiche e in funzione anche degli interessi delle studentesse e degli studenti frequentanti.

Lezioni 1-4 Introduzione al deep learning e ai Large Language Models Buckner (2019); Wolfram (2023)

Lezioni 4-8 Millière (2024), A Philosophical Introduction to Language Models – Part I: Continuity With Classic Debates & art II): The Way Forward

Lezione 9 Ma et al. (2025), Pragmatics in the Era of Large Language Models: A Survey on Datasets, Evaluation, Opportunities and Challenges

Lezione 10 Mandelkern and Linzen (2024), Language Models and Semantic Competence

Lezione 11 Baggio and Murphy (2024), Referential Capacity of Language Models

Lezione 12 Bang et al. (2022), The debate over understanding in AI’s large language models

Lezione 13 Cuskley et al. (2024), The Limitations of Large Language Models for Understanding Human Language and Cognition

Lezione 14 Johnson and Dupre (forthcoming), Uncanny Performance, Divergent Competence

Lezione 15 Borg (2025), LLMs, Turing tests and Chinese rooms: the prospects for meaning in large language models

Altri articoli saranno resi disponibili per poter eventualmente cambiare in
base agli interessi delle studentesse e degli studenti.

Questi sono altri lavori pertinenti per le tematiche del corso:
Budding (forthcoming) Cappelen and Dever (2021) Cappelen and Dever (forthcoming) Grindrod et al. (ming) Havlı́k (2024) Johnson and Dupre (ming) Ostertag (2023) Rothschild (ming) Cappelen et al. (2025) Grindrod (2024) Koch (2025) Mitchell (2021) Pepp (2025) Schwitzgebel et al. (2023) Queloz (2025) Éloı̈se Boisseau (2024).


Tutto il materiale bibliografico sarà disponibile su Virtuale.

Testi/Bibliografia

NOTA 1: tutti i testi saranno disponibili online su virtuale.

NOTA 2: tutti i testi scelti sono in inglese, questo perché, come accade nelle discipline scientificamente mature, la migliore letteratura contemporanea in filosofia è pubblicata in inglese su riviste specializzate internazionali.

 *****

Bibliografia di riferimento (le letture obbligatorie sono quelle calendarizzate nella sezione precedente).

Baggio, G. and Murphy, E. (2024). On the referential capacity of language
models: An internalist rejoinder to Mandelkern & Linzen.

Bang, J., Chung, J., and Rennie, S. J. (2022). The debate over understanding in ai’s large language models. European PMC, PMC10068812. Available at: https://pmc.ncbi.nlm.nih.gov/articles/PMC10068812/.

Borg, E. (2025). Llms, turing tests and chinese rooms: the prospects for meaning in large language models. Inquiry.

Buckner, C. (2019). Deep learning: A philosophical introduction. Philosophy Compass, 14(10): e12625.

Budding, C. (forthcoming). What do large language models know? tacit knowledge as a potential causal-explanatory structure. Philosophy of Science.

Cappelen, H. and Dever, J. (2021). Making Ai Intelligible: Philosophical Foundations. Oxford University Press, New York, USA.

Cappelen, H. and Dever, J. (forthcoming). A hyper-externalist manifesto for
llms. In Cappelen, H. and Sterken, R., editors, Communicating with AI:
Philosophical Perspectives. Oxford University Press.

Cappelen, H., Goldstein, S., and Hawthorne, J. (2025). Ai survival stories: a
taxonomic analysis of ai existential risk. Philosophy of AI.

Cuskley, C., Woods, R., and Flaherty, M. (2024). The limitations of large
language models for understanding human language and cognition. Open
Mind, 8:1058–1083.

Boisseau, E. (2024). Imitation and large language models. Minds and Ma-
chines, 34(4):1–24.

Grindrod, J. (2024). Large language models and linguistic intentionality. Synthese.

Grindrod, J., Porter, J. D., and Hansen, N. (forthcoming). Distributional se-
mantics, holism, and the instability of meaning. In Cappelen, H. and Sterken,
R., editors, Communicating with AI: Philosophical Perspectives. Oxford University Press.

Havlı́k, V. (2024). Meaning and understanding in large language models. Synthese, 205(1):1–21.

Johnson, G. and Dupre, G. (forthcoming). Uncanny performance, divergent
competence. In Cappelen, H. and Sterken, R., editors, Communicating with
AI: Philosophical Perspectives. Oxford University Press.

Koch, S. (2025). Babbling stochastic parrots? a kripkean argument for referencein large language models. Philosophy of AI, 1.

Ma, B., Li, Y., Zhou, W., Gong, Z., Liu, Y. J., Jasinskaja, K., Friedrich, A., Hirschberg, J., Kreuter, F., and Plank, B. (2025). Pragmatics in the era of large language models: A survey on datasets, evaluation, opportunities and
challenges.

Mandelkern, M. and Linzen, T. (2024). Do language models’ words refer? Computational Linguistics, 50(3):1191–1200.

Millière, R. and Buckner, C. (2023). A philosophical introduction to language models (part ii): The way forward. Arkiv

Millière, R. and Buckner, C. (2024). A philosophical introduction to language models part i: Continuity with classic debates. Arkiv

Mitchell, M. (2021). L’intelligenza artificiale. Una guida per esseri umani pensanti. Giulio Einaudi Editore, Torino.

Ostertag, G. (2023). Meaning by courtesy: Llm-generated texts and the illusion of content. American Journal of Bioethics, 23(10):91–93.

Pepp, J. (2025). Reference without intentions in large language models. Inquiry.

Queloz, M. (2025). Can ai rely on the systematicity of truth? the challenge of modelling normative domains. Philosophy and Technology, 38(34):1–27.

Rothschild, D. (forthcoming). Language and thought: The view from llms. In Sosa, D. and Lepore, E., editors, Oxford Studies in Philosophy of Language. Oxford University Press.

Schwitzgebel, E., Schwitzgebel, D., and Strasser, A. (2023). Creating a large
language model of a philosopher. Mind & Language.

Wolfram, S. (2023). What Is ChatGPT Doing ... and Why Does It Work?
Wolfram Media, Inc. Paperback.

Metodi didattici

Lezioni

Su Virtuale verrà pubblicato un sillabo dettagliato in cui verranno calendarizzate le lezioni con annesse letture.

Metodologie

Ogni lezione consisterà in una breve introduzione al tema a cui seguirà una discussione che coinvolgerà tutte le studentesse e gli studenti.

A seconda della dimensione della classe, durante le lezioni utilizzerò il metodo della peer instruction (se la classe è grande, si veda anche la spiegazione in metodi didattici in questo mio corso) o quello della comunità di ricerca (se la classe è piccola) per coinvolgere direttamente il gruppo classe.

Affinché queste metodologie di didattica attiva funzionino, al gruppo classe è richiesto di leggere in anticipo le letture obbligatorie assegnate a ogni lezione.

Tutti i testi verranno resi disponibili online anche su Perusall in modo da poterli discutere in asincrono prima della lezione.

Modalità di verifica e valutazione dell'apprendimento

Verifica durante il corso:

  • lettura collettiva dei testi durante il corso tramite la piattaforma di social reading perusall.com
  • domande di comprensione con metodo peer instruction/comunità di ricerca durante lezione

NOTA: queste verifiche non faranno media ma serviranno agli studenti frequentanti per consolidare l'apprendimento dei temi del corso.

Verifica d'esame:

  • scrittura di un saggio
  • prova orale.

La lunghezza del saggio è diversificata seconda si sia frequentanti o meno.

  • STUDENTI FREQUENTANTI saggio corto: almeno 1500 parole e non più di 3000 parole (tutto compreso: nome, cognome, matricola, corso di studio, titolo, bibliografia.)
  • STUDENTI NON-FREQUENTANTI saggio lungo: almeno 3000 parole e non più di 4000 parole (tutto compreso:nome, cognome, matricola, corso di studio, titolo, bibliografia.)

Essere frequentanti o meno verrà determinato in base alla continuità con si parteciperà alle verifiche durante il corso, in particolare si dovranno completare almeno il 70% degli assignment su perusall (l'indirizzo web verrà dato a inizio corso).

CRITERI DI VERIFICA PER L'ESAME

Userò questi criteri di verifica per determinare le seguenti soglie di valutazione:


30 e lode prova eccellente, sia nelle conoscenze che nell’articolazione critica ed espressiva.


30 prova ottima, conoscenze complete, ben articolate ed espresse correttamente, con alcuni spunti critici.


27-29 prova buona, conoscenze esaurienti e soddisfacenti, espressione sostanzialmente corretta.


24-26 prova discreta, conoscenze presenti nei punti sostanziali, ma non esaurienti e non sempre articolate con correttezza.

21-23 prova sufficiente, conoscenze presenti in modo talvolta superficiale, ma il filoconduttore generale risulta compreso. Espressione e articolazione lacunose e spesso non appropriate.


18-21 prova appena sufficiente, conoscenze presenti ma superficiali, il filo conduttore non è compreso con continuità. L’espressione e l’articolazione del discorso presentano lacune anche rilevanti.


<18 prova insufficiente, conoscenze assenti o molto lacunose, mancanza di orientamento nella disciplina, espressione carente e inappropriata. Esame non superato.

Persone con disabilità e DSA

Le persone con disabilità o disturbi specifici dell’apprendimento hanno diritto a speciali adattamenti in relazione alla loro condizione, previa valutazione del Servizio d’ateneo per le studentesse e gli studenti con disabilità e DSA. Si prega di non rivolgersi al/la docente, ma di contattare il Servizio per un appuntamento. Sarà cura del Servizio stabilire quali adattamenti si rendono opportuni. Maggiori informazioni alla pagina:

https://site.unibo.it/studenti-con-disabilita-e-dsa/it/per-studenti

Strumenti a supporto della didattica

Virtuale, slide e e handout, software Wooclap e Perusall (http://perusall.com) per metodo peer instruction.

Orario di ricevimento

Consulta il sito web di Sebastiano Moruzzi