- Docente: Sebastiano Moruzzi
- Crediti formativi: 6
- SSD: M-FIL/05
- Lingua di insegnamento: Italiano
- Modalità didattica: Convenzionale - Lezioni in presenza
- Campus: Bologna
- Corso: Laurea Magistrale in Semiotica (cod. 8886)
-
dal 12/11/2025 al 19/12/2025
Conoscenze e abilità da conseguire
Lo studente al termine del corso raggiunge una competenza media sulla filosofia del linguaggio contemporanea, con lapprofondimento di un argomento specifico e la lettura guidata di un classico.
Contenuti
Filosofia del linguaggio, IA e LLM
Questo insegnamento esplora i concetti fondazionali della filosofia del linguaggio con particolare riferimento alla metasemantica, considerando le sfide introdotte dai Large Language Models (LLM) e dall’Intelligenza Artificiale.
In particolare verrano affrontate le seguenti domande:
#1 Introduzione all’IA e LLM Cos’è il deep learning e come funzionano gli
LLM?
#2 Metasemantica e intelligibilità degli LLM In che modo la metasemantica
aiuta a chiarire come gli LLM generano significato, e quale ruolo svolge il
contesto esterno?
#3 Modelli linguistici e filosofia del linguaggio classica Come si collocano gli LLM nei dibattiti filosofici classici sul significato, sul riferimento e sull’intenzionalità?
#4 Intenzionalità e significato negli LLM Possiamo attribuire una vera intenzionalità agli LLM, o si tratta solo di simulazione?
#5 Significato, Test di Turing e stanza cinese Cosa ci insegnano gli esperimenti mentali (Turing test e stanza cinese) sulla comprensione del lin-
guaggio degli LLM?
#6 Riferimento senza intenzioni È filosoficamente sostenibile che gli LLM riescano a riferirsi al mondo pur non avendo intenzioni proprie?
#7 Semantica kripkeana e LLM Quali vantaggi e limiti presenta l’applicazione della semantica kripkeana all’analisi degli LLM?
#8 Attribuzione di significato e imitazione Quali problemi emergono quando attribuiamo significato ai testi prodotti dagli LLM, considerando che operano per imitazione?
Calendario lezioni
Il seguente è un calendario indicativo delle lezioni che illustra gli articoli o libri che verranno discussi. Il calendario potrà cambiare in base a quanto si riusciranno a coprire in classe le tematiche e in funzione anche degli interessi delle studentesse e degli studenti frequentanti.
Lezioni 1-4 Introduzione al deep learning e ai Large Language Models Buckner (2019) Wolfram (2023).
Lezioni 4-8 Millière (2024), A Philosophical Introduction to Language Models – Part I: Continuity With Classic Debates & art II): The Way Forward
Lezione 9 Cappelen and Dever (forthming), A Hyper-Externalist Manifesto for LLMs
Lezione 10 Grindrod (2024), Intentionality and Language Models
Lezione 11 Borg (2025), LLMs, Turing tests and Chinese rooms: the prospects for meaning in large language models
Lezione 12 Rothschild (ming), Reference and Thought in LLM
Lezione 13 Pepp (2025), Reference without intentions in large language models
Lezione 14 Koch (2025), Kripkean Semantics and LLM
Lezione 15 Havlı́k (2024), Meaning Attribution and AI
Altri articoli saranno resi disponibili per poter eventualmente cambiare in
base agli interessi delle studentesse e degli studenti.
Questi sono altri lavori pertinenti per le tematiche del corso: Budding (forthming), Cappelen and Dever (2021) Cappelen and Dever (ming) Grindrod et al. (forthming), Havlı́k (2024) Johnson and Dupre (ming) Ostertag (2023) Rothschild (forthming), Baggio and Murphy (2024) Mandelkern and Linzen (2024), Bang et al. (2022), Cappelen et al. (2025) Grindrod (2024) Ma et al. (2025), Mitchell (2021), Cuskley et al. (2024) Schwitzgebel et al. (2023), Queloz (2025), Boisseau (2024).
Tutto il materiale bibliografico è disponibile su Virtuale.
Testi/Bibliografia
NOTA 1: tutti i testi saranno disponibili online su Virtuale.
NOTA 2: tutti i testi scelti sono in inglese, questo perché, come accade nelle discipline scientificamente mature, la migliore letteratura contemporanea in filosofia è pubblicata in inglese su riviste specializzate internazionali.
*****
Bibliografia di riferimento (le letture obbligatorie sono quelle calendarizzate nella sezione precedente).
Baggio, G. and Murphy, E. (2024). On the referential capacity of language
models: An internalist rejoinder to Mandelkern & Linzen.
Bang, J., Chung, J., and Rennie, S. J. (2022). The debate over understanding in ai’s large language models. European PMC, PMC10068812. Available at: https://pmc.ncbi.nlm.nih.gov/articles/PMC10068812/.
Borg, E. (2025). Llms, turing tests and chinese rooms: the prospects for meaning in large language models. Inquiry.
Buckner, C. (2019). Deep learning: A philosophical introduction. Philosophy Compass, 14(10): e12625.
Budding, C. (forthcoming). What do large language models know? tacit knowledge as a potential causal-explanatory structure. Philosophy of Science.
Cappelen, H. and Dever, J. (2021). Making Ai Intelligible: Philosophical Foundations. Oxford University Press, New York, USA.
Cappelen, H. and Dever, J. (forthcoming). A hyper-externalist manifesto for
llms. In Cappelen, H. and Sterken, R., editors, Communicating with AI:
Philosophical Perspectives. Oxford University Press.
Cappelen, H., Goldstein, S., and Hawthorne, J. (2025). Ai survival stories: a
taxonomic analysis of ai existential risk. Philosophy of AI.
Cuskley, C., Woods, R., and Flaherty, M. (2024). The limitations of large
language models for understanding human language and cognition. Open
Mind, 8:1058–1083.
Boisseau, E. (2024). Imitation and large language models. Minds and Ma-
chines, 34(4):1–24.
Grindrod, J. (2024). Large language models and linguistic intentionality. Synthese.
Grindrod, J., Porter, J. D., and Hansen, N. (forthcoming). Distributional se-
mantics, holism, and the instability of meaning. In Cappelen, H. and Sterken,
R., editors, Communicating with AI: Philosophical Perspectives. Oxford University Press.
Havlı́k, V. (2024). Meaning and understanding in large language models. Synthese, 205(1):1–21.
Johnson, G. and Dupre, G. (forthcoming). Uncanny performance, divergent
competence. In Cappelen, H. and Sterken, R., editors, Communicating with
AI: Philosophical Perspectives. Oxford University Press.
Koch, S. (2025). Babbling stochastic parrots? a kripkean argument for referencein large language models. Philosophy of AI, 1.
Ma, B., Li, Y., Zhou, W., Gong, Z., Liu, Y. J., Jasinskaja, K., Friedrich, A., Hirschberg, J., Kreuter, F., and Plank, B. (2025). Pragmatics in the era of large language models: A survey on datasets, evaluation, opportunities and
challenges.
Mandelkern, M. and Linzen, T. (2024). Do language models’ words refer? Computational Linguistics, 50(3):1191–1200.
Millière, R. and Buckner, C. (2023). A philosophical introduction to language models (part ii): The way forward. Arkiv
Millière, R. and Buckner, C. (2024). A philosophical introduction to language models part i: Continuity with classic debates. Arkiv
Mitchell, M. (2021). L’intelligenza artificiale. Una guida per esseri umani pensanti. Giulio Einaudi Editore, Torino.
Ostertag, G. (2023). Meaning by courtesy: Llm-generated texts and the illusion of content. American Journal of Bioethics, 23(10):91–93.
Pepp, J. (2025). Reference without intentions in large language models. Inquiry.
Queloz, M. (2025). Can ai rely on the systematicity of truth? the challenge of modelling normative domains. Philosophy and Technology, 38(34):1–27.
Rothschild, D. (forthcoming). Language and thought: The view from llms. In Sosa, D. and Lepore, E., editors, Oxford Studies in Philosophy of Language. Oxford University Press.
Schwitzgebel, E., Schwitzgebel, D., and Strasser, A. (2023). Creating a large
language model of a philosopher. Mind & Language.
Wolfram, S. (2023). What Is ChatGPT Doing ... and Why Does It Work?
Wolfram Media, Inc. Paperback.
Metodi didattici
Lezioni
Su Virtuale verrà pubblicato un sillabo dettagliato in cui verranno calendarizzate le lezioni con annesse letture.
Metodologie
Ogni lezione consisterà in una breve introduzione al tema a cui seguirà una discussione che coinvolgerà tutte le studentesse e gli studenti.
A seconda della dimensione della classe, durante le lezioni utilizzerò il metodo della peer instruction (se la classe è grande, si veda anche la spiegazione in metodi didattici in questo mio corso) o quello della comunità di ricerca (se la classe è piccola) per coinvolgere direttamente il gruppo classe.
Affinché queste metodologie di didattica attiva funzionino, al gruppo classe è richiesto di leggere in anticipo le letture obbligatorie assegnate a ogni lezione.
Tutti i testi verranno resi disponibili online anche su Perusall in modo da poterli discutere in asincrono prima della lezione.
Alcuni lezioni potranno essere svolte in modalità seminariale affidando a gruppi di studenti la presentazione. E' fortemente consigliato agli studenti rendersi disponibili per acquisire competenze di presentazione e capire meglio i testi.
Modalità di verifica e valutazione dell'apprendimento
Verifica durante il corso:
- lettura collettiva dei testi durante il corso tramite la piattaforma di social reading perusall.com
- domande di comprensione con metodo peer instruction/comunità di ricerca durante lezione
NOTA: queste verifiche non faranno media ma serviranno agli studenti frequentanti per consolidare l'apprendimento dei temi del corso.
Verifica d'esame:
- scrittura di un saggio
- prova orale.
La lunghezza del saggio è diversificata seconda si sia frequentanti o meno.
- STUDENTI FREQUENTANTI saggio corto: almeno 1500 parole e non più di 3000 parole (tutto compreso: nome, cognome, matricola, corso di studio, titolo, bibliografia.)
- STUDENTI NON-FREQUENTANTI saggio lungo: almeno 3000 parole e non più di 4000 parole (tutto compreso:nome, cognome, matricola, corso di studio, titolo, bibliografia.)
Essere frequentanti o meno verrà determinato in base alla continuità con si parteciperà alle verifiche durante il corso, in particolare si dovranno completare almeno il 70% degli assignment su perusall (l'indirizzo web verrà dato a inizio corso).
CRITERI DI VERIFICA PER L'ESAME
Userò questi criteri di verifica per determinare le seguenti soglie di valutazione:
30 e lode prova eccellente, sia nelle conoscenze che nell’articolazione critica ed espressiva.
30 prova ottima, conoscenze complete, ben articolate ed espresse correttamente, con alcuni spunti critici.
27-29 prova buona, conoscenze esaurienti e soddisfacenti, espressione sostanzialmente corretta.
24-26 prova discreta, conoscenze presenti nei punti sostanziali, ma non esaurienti e non sempre articolate con correttezza.
21-23 prova sufficiente, conoscenze presenti in modo talvolta superficiale, ma il filoconduttore generale risulta compreso. Espressione e articolazione lacunose e spesso non appropriate.
18-21 prova appena sufficiente, conoscenze presenti ma superficiali, il filo conduttore non è compreso con continuità. L’espressione e l’articolazione del discorso presentano lacune anche rilevanti.
<18 prova insufficiente, conoscenze assenti o molto lacunose, mancanza di orientamento nella disciplina, espressione carente e inappropriata. Esame non superato.
Persone con disabilità e DSA
Le persone con disabilità o disturbi specifici dell’apprendimento hanno diritto a speciali adattamenti in relazione alla loro condizione, previa valutazione del Servizio d’ateneo per le studentesse e gli studenti con disabilità e DSA. Si prega di non rivolgersi al/la docente, ma di contattare il Servizio per un appuntamento. Sarà cura del Servizio stabilire quali adattamenti si rendono opportuni. Maggiori informazioni alla pagina:
https://site.unibo.it/studenti-con-disabilita-e-dsa/it/per-studenti
Strumenti a supporto della didattica
Elearning, slide e e handout, software Wooclap e Perusall (http://perusall.com) per metodo peer instruction.
Orario di ricevimento
Consulta il sito web di Sebastiano Moruzzi