- Docente: Sebastiano Moruzzi
- Crediti formativi: 6
- SSD: M-FIL/05
- Lingua di insegnamento: Italiano
- Modalità didattica: Convenzionale - Lezioni in presenza
- Campus: Bologna
-
Corso:
Laurea in
Scienze della comunicazione (cod. 5975)
Valido anche per Laurea in Scienze della comunicazione (cod. 8885)
-
dal 25/09/2024 al 25/10/2024
Conoscenze e abilità da conseguire
Al termine del corso lo/la studente/ssa ha acquisito i concetti fondamentali dell'intelligenza artificiale e delle scienze cognitive, con particolare riguardo al problem solving, alla pianificazione, alla rappresentazione della conoscenza sul web e nei sistemi intelligenti, alla modellizzazione cognitiva.
Contenuti
Intelligenza artificiale: filosofia, etica e società
SILLABO disponibile qui
Il corso introduce ai problemi etici, sociali, ambientali e filosofici posti dall'intelligenza artificiale. In particolare il corso si concentrerà sull'avvento dell'intelligenza artificiale generativa che con modelli LLM come ChatGPT ha cambiato il panorama dell'intelligenza artificiale.
In particolare due domande saranno al centro del corso:
D1) L'intelligenza artificiale può dare luogo a esseri artificiali intelligenti quanto o più degli essere umani?
D2) Quali sono le sfide che pone l'intelligenza artificiale per un uso responsabile delle tecnologie digitali?
Struttura del del corso
Il corso è diviso in tre parti:
1) fondamenti dell'intelligenza artificiale
In questa prima parte si introdurranno le nozioni basilari delle intelligenza artificiali che sono necessarie per affrontare le tematiche della seconda e terza parte. L'esposizione sarà il più possibile non tecnica e non presupporrà conoscenze di informatica.
1.1 algoritmo
1.2 intelligenza artificiale simbolica;
1.3 intelligenza artificiale sub-simbolica:
1.3.1 machine learning
1.3.2 rete neurale
1.3.3 Large Language Models (LLM) e il caso di ChatGPT (la tecnologia transformer
2) I fondamenti filosofici dell'intelligenza artificiale
In questa parte si presenteranno alcuni problemi sollevanti nel dibattito filosofico relativi alla relazione tra cognizione umana e artificiale.
2.1 il Test di Turing
2.2 l'argomento della stanza cinese di Searle
2.3 Coscienza e LLM: Chalmers
3) Problemi etici, sociali e ambientali posti dall'intelligenza artificiale
In questa ultima parte si analizzeranno alcuni dei problemi sollevati dall'intelligenza artificiale.
3.1) Il problema del value alignement
3.2) IA e existential risks
3.3) Deskilling e il problema della potenziale perdita di posti di lavoro sostituita dall'intelligenza artificiale
3.4) Bias algoritmici: trasparenza, spiegabilità e ingiustizia epistemica
3.5) l'impatto ambientale delle architetture computazionali
Testi/Bibliografia
Il corso si baserà di parti dei seguenti libri:
Crawford, Kate. Né intelligente né artificiale Il lato oscuro dell'IA. Bologna: Il Mulino, 2021.
Boden, Margaret. L'intelligenza artificiale. A cura di Diego Marconi. Bologna: Il Mulino, Universale paperbacks Il Mulino, 2019.
Cristianini, Nello. Machina sapiens. Bologna: Il Mulino, 2024.
Giunti, Marco, Pinna, Simone e Garavaglia, Fabrizia Giulia. Menti e macchine. Teorie filosofiche e scientifiche, Milano: Le Monnier Università, 2022.
Floridi, Luciano. Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano: Raffaello Cortina, 2022.
Galletti, Matteo e Zipoli Caiani, Silvano (a cura di). Filosofia dell'Intelligenza Artificiale. Sfide etiche e teoriche, Bologna: Il Mulino, 2024.
Giunti, Marco, Pinna, Simone e Garavaglia, Fabrizia Giulia, Menti e macchine. Teorie filosofiche e scientifiche, Milano: Le Monnier Università, 2022.
O'Neil, Cathy. Armi di distruzione matematica. Milano: Bompiani, 2017.
****
La letteratura accademica sull'intelligenza artificiale è vastissima e ha visto una rapida crescita negli ultimi anni. Come accade nelle discipline scientificamente mature, la migliore letteratura è pubblicata in inglese su riviste specializzate internazionali. Oltre a questi testi, saranno da sfondo per le lezioni parti dei seguenti testi in inglese la cui lettura è opzionale:
Possono pensare le macchine?
Turing, A. M. (1950) Computing machinery and intelligence. Mind,
49, 433-460. Link: https://www.cs.mcgill.ca/~dprecup/courses/AI/Materials/turing1950.pdf
Searle, John. R. (1980) Minds, brains, and programs. Behavioral and
Brain Sciences, 3(3): 417-457. Link: https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/minds-brains-and-
programs/DC644B47A4299C637C89772FACC2706A
Chalmers, David J. (2023) “Could a Large Language Model Be Conscious?”
Boston Review, August 9, 2023. Link: https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/
Lo statuto morale delle intelligenze artificiali avanzate:
Schwitzgebel, Eric, and Mara Garza (2020) 'Designing AI with Rights,
Consciousness, Self-Respect, and Freedom', in S. Matthew Liao
(a cura di), Ethics of Artificial Intelligence, New York, Oxford University Press.
Müller, V.C. (2021) Is it time for robot rights? Moral status in artificial
entities. Ethics and Information Technology, 23:579–587.
Véliz, C. (2021) Moral zombies: why algorithms are not moral agents. AI &
Society 36: 487–497.
Liao, S. Matthew, (2020) 'The Moral Status and Rights of Artificial
Intelligence', in in S. Matthew Liao (a cura di), Ethics of Artificial Intelligence, New York, Oxford University Press.
Intelligenza Generale Artificiale/Superintelligenza, rischio esistenziale e problema dell'allineamento dei valori.
Russell, S. (2020). Artificial Intelligence: A Binary Approach.
Oxford University Press, in S. Matthew Liao (a cura di), Ethics of Artificial Intelligence, New York, Oxford University Press. p. 327-341.
Bengio, Yoshua. (2023) “AI and Catastrophic Risk”, Journal of Democracy,
Septermber 2023, https://www.journalofdemocracy.org/ai-and-
catastrophic-risk/
Russell, Stuart J. (2019). Human Compatible : Artificial Intelligence
and the Problem of Control. New York: Viking.
Bostrom, Nick. (2014). Superintelligence: paths, dangers, strategies.
Oxford University Press
Bengio, Yoshua. “FAQ on Catastrophic AI Risks.” yoshuabengio.org. https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/
Maclure, J. (2020). The new AI spring: a deflationary view. AI and
Society, 35: 747-750.
Deep Learning & Large Language Models
Shanahan, Murray. “Talking About Large Language Models.”
December 7, 2022. Link: https://arxiv.org/abs/2212.03551
Floridi, L. (2023) AI as Agency Without Intelligence: on ChatGPT, Large
Language Models, and Other Generative Models. Philosophy and Technology. 36,15.
Bubeck et al., “Sparks of Artificial General Intelligence; Early
experiments with GPT-4.” March 22, 2023. Link: https://arxiv.org/abs/2303.12712
LeCun, Y., Bengio, Y. & Hinton, G. (2015) Deep learning. Nature. 521,
436–444.
Buckner, C. (2019). Deep learning: A philosophical introduction.
Philosophy Compass, 14(10), 1-19
Bender, E., Gebru, T. et al. (2021). On the Dangers of Stochastic
Parrots: Can Language Models Be Too Big? FAccT '21: Proceedings of
the 2021 ACM Conference on Fairness, Accountability, and
Transparency, 610-623.
Choi, Yejin. (2022). The Curious Case of Commonsense Intelligence. Daedalus 151 (2): 139–155.
Progettare agenti artificiali virtuosi
Wallach. W., Vallor S. (2020). Moral Machines: From Value
Alignment to Embodied Virtue, in S. Matthew Liao (a cura di), Ethics of Artificial Intelligence, New York, Oxford University Press, in cap. 13,
383-412.
Rini, Regina. “Creating Robots Capable of Moral Reasoning Is like
Parenting: Aeon Essays.” Aeon, 2017.Link: https://aeon.co/essays/creating-robots-capable-of-moral-reasoning-is-like-parenting
Automazione, giustizia distributiva e significato del lavoro
Danaher, John (2017). Will Life Be Worth Living in a World
Without Work? Technological Unemployment and the Meaning of
Life. Science and Engineering Ethics 23 (1):41-64.
Nieswandt, Katharina (2021). Automation, Basic Income and Merit.
In Keith Breen & Jean-Philippe Deranty (eds.), Whither Work? The
Politics and Ethics of Contemporary Work. Milton and New York:
Routledge. pp. 102–119.
James, A. (2020). Planning for Mass Unemployment. in S. Matthew Liao (a cura di), Ethics of Artificial Intelligence, New York, Oxford University Press, cap 6 183-211.
Il problema della spiegabilità dell'intelligenza artificiale
Buckner, Cameron (2023). Black Boxes or Unflattering Mirrors? Comparative Bias in the Science of Machine Behaviour. British Journal for the Philosophy of Science 74 (3):681-712.
Maclure, J. (2021). “AI, Explainability and Public Reason: The
Argument from the Limitations of the Human Mind”. Minds and
Machine, 31, 421-438.
Zerilli, J., Knott, A., Maclaurin, J., & Gavaghan, C. (2019).
Transparency in algorithmic and human decision-making: Is there a
double standard? Philosophy & Technology, 32(4), 661–683.
Vredenburgh, Kate (2021). The Right to Explanation. Journal of Political Philosophy 30 (2):209-229.
Vaassen, B. (2022) AI, Opacity, and Personal Autonomy. Philosophy and
Technology 35, 88.
Algoritmi predittivi, sistemi di raccomandazione, autonomia e privacy.
Prunkl, C. (2022). Human Autonomy in the Age of Artificial
Intelligence. Nature Machine Intelligence 4 (2):99-101.
Yeung, Karen. (2017). “Hypernudge: Big Data as a mode of
regulation by design.” Information, Communication & Society, 20:1, 118-136.
Laitinen, Arto & Sahlgren, Otto (2021). AI Systems and Respect for
Human Autonomy. Frontiers in Artificial Intelligence 4.
Jesse, Mathias & Jannach, Dietmar. (2021). “Digital nudging with
recommender systems: Survey and future directions.” Computers in
Human Behavior Reports 3.
Etica a intelligenza artificiale
Susser, D., Roessler, B., Nissenbaum, H. (2019). “Online Manipulation: Hidden Influences in a Digital World.” 4 Georgetown Law Technology Review 1.
Mhlambi, S., Tiribelli, S. (2023) Decolonizing “AI Ethics: Relational
Autonomy as a Means to Counter AI Harms.” Topoi 42, 867–880
van Maanen, G. (2002) AI Ethics, Ethics Washing, and the Need to
Politicize Data Ethics. DISO 1, 9
Birhane A. (2021). “Algorithmic injustice: a relational ethics
approach.” Patterns 2(2):100205.
Russo, F., Schliesser, E. & Wagemans, J. Connecting ethics and epistemology of AI. (2023). AI and Society: 1-19
Cole M., Cant C., Ustek Spilda F., Graham M. (2022). “Politics by
Automatic Means? A Critique of Artificial Intelligence Ethics at
Work.” Frontiers in Artificial Intelligence 5.
L Seger, E. (2022). “In Defence of Principlism in AI Ethics and
Governance.” Philosophy and Technology 35.
Metodi didattici
Didattica disciplinare attiva
Questo insegnamento cerca di implementare una metodo di didattica attiva finalizzato a facilitare l’apprendimento in un contesto di attività di gruppo.
Per fare questo verranno attivate tre azioni:
1. l’utilizzo della peer instruction durante le lezioni;
2. l’uso dell’applicativo Wooclap (http://wooclap.com);
3. l’uso della piattaforma di social reading Perusall (http://perusall.com) [blended opzionale].
Questo corso avrà un formato blended opzionale in cui oltre alle 30 ore di didattica in sincrono, verrà data la possibilità di integrare lo studio con attività in asincrono online sulla piattaforma Perusall (Perusall.com). Questa possibilità è del tutto opzionale e permette di avere un bonus all'esame.
METODOLOGIA DIDATTICA
La metodologia impiegata è quella della peer instruction inventata dal fisico sperimentale di Harvard Eric Mazur (https://en.wikipedia.org/wiki/Peer_instruction ). La peer instruction è un metodo di insegnamento che sfrutta il potenziale dell’interazione sociale per guidare l’apprendimento. Le lezioni in presenza in sincrono avranno luogo tramite una serie domande di comprensione in classe -ConcepTests- per testare la comprensione di alcuni punti specifici dei contenuti del materiale del corso, gli studenti risponderanno a queste domande e lavoreranno in piccoli gruppi confrontandosi tra loro quando si tratterà di affrontare i punti più difficili per loro. Il docente giocherà sia il ruolo di trasmettere conoscenza quando si tratterà di chiarire alcune incomprensioni in relazione alle domande, sia il ruolo di facilitatore quando si tratterà di facilitare i lavori di discussione delle domande in gruppi. Ogni lezione presupperò la lettura di materiali che saranno letti e discussi dagli studenti preventivamente online nell’ambiente digitale di social learning asincrono fornito dalla piattaforma Perusall.com (appositamente progettata dal gruppo di Harvard di Mazur per sostenere le lezioni in peer instruction).
Durante le ore in classe in presenza gli studenti potranno rispondere alle domande che porrà via via il docente usando l’applicativo gratuito Wooclap (http://wooclap.com/ ). In base alle risposte fornite, il docente chiederà o meno agli studenti di discutere fra di loro per pochi minuti per poi verificare di nuovo la comprensione del punto. Le risposte date in classe saranno memorizzate nel sistema in forma anonima e non saranno oggetto di valutazione per la prova finale.
Lo svolgimento di una lezione in presenza che usa la peer instruction può essere illustrato con i seguenti passaggi:
- Gli studenti leggono i materiali assegnati sul software di social reading Perusall (https://perusall.com/) e lasciano prima di venire in classe domande e commenti.
- Gli studenti avranno accesso ai materiali del corso online sia tramite Virtuale che tramite Perusall (https://perusall.com/ ).
- Verrà chiesto agli studenti frequentanti di leggere su Perusall il materiale assegnato una volta una settimana e di fare commenti e domande online (specialmente sui punti che non ti sono chiari).
- Il docente esamina il feedback degli studenti sui testi letti in anticipo su Perusall interagendo con loro in asincrono.
- Durante il tempo della lezione in presenza, si suscitano, affrontano e risolvono i pregiudizi degli studenti e le loro difficoltà che sono emerse online tramite le domande formulate dagli studenti su Perusall.
- Una lezione è suddivisa in una serie domande di comprensione -ConcepTest- eventualmente precedute di mini-lezioni.
- Un ConcepTest è una breve domanda concettuale progettata per dare agli studenti l’opportunità di testare il loro apprendimento (le osservazioni degli studenti su Perusall sono il materiale migliore per creare i ConcepTests). Si userà Wooclap (https://app.wooclap.com/) per far rispondere ai ConcepTests durante la lezione.
3. La struttura di una lezione in presenza è la seguenta:
- Un argomento della lezione può essere presentato con una minilezione (10-15 minuti) o si passa direttamente alla domanda.
- Viene presentato un ConcepTest.
- Gli studenti rispondono prima al ConcepTest individualmente.
- Se la maggior parte degli studenti fornisce risposte errate, viene chiesto agli studenti di discutere le loro risposte in piccoli gruppi con i loro colleghi e istruttori, per poi rispondere di nuovo.
- Il ciclo si completa con un’attività per chiarire eventuali risposte errate attraverso la discussione guidata in classe.
Modalità di verifica e valutazione dell'apprendimento
Il voto finale all’esame si baserà sulla valutazione di un saggio scritto (detto anche "paper") e su un esame orale in cui si discuterà il saggio.
La lunghezza è del saggio è:
(1) per chi si è iscritto a Perusall e ha fatto tutti gli assignment (studenti frequentanti) saggio corto;
(2) per chi non si è iscritto a Perusall o non ha tutti gli assignment saggio lungo (studenti non frequentanti.
Lunghezza saggio corto (per chi si è iscritto a Perusall e ha fatto tutti i 4 assignments): almeno 1000 parole e non più di 2000 parole (tutto compreso: nome, cognome, matricola, corso di studio, titolo, bibliografia.)
Lunghezza saggio lungo (per chi non si è iscritto a Perusall o non ha fatto tutti i 4 assignments) almeno 1500 parole e non più di 2500 parole (tutto compreso: nome, cognome, matricola, corso di studio, titolo, bibliografia.)
Formattazione: doppia interlinea, dimensione carattere 12
Formato elettronico pdf, doc o odt.
Tema del saggio La scelta del tema deve rientrare all’interno dei contenuti del corso.
La bibliografia di riferimento è costituita dai testi affrontati nel corso insieme a eventuale letteratura secondaria che si trova nella bibliografia del sillabo che verrà fornita su Virtuale.
Modalità di consegna Il saggio dovrà essere consegnato online su Compilatio (il link verrà dato su Almaesami contestualmente all’appello).
STUDENTI ERASMUS: gli studenti erasmus possono scrivere il saggio in inglese e posso avvalersi di una bibliografia equivalente in inglese.
CRITERI DI VALUTAZIONE
Userò questi criteri per determinare le seguenti soglie di valutazione:
30 e lode prova eccellente, sia nelle conoscenze che nell’articolazione critica ed espressiva.
30 prova ottima, conoscenze complete, ben articolate ed espresse correttamente, con alcuni spunti critici.
27-29 prova buona, conoscenze esaurienti e soddisfacenti, espressione sostanzialmente corretta.
24-26 prova discreta, conoscenze presenti nei punti sostanziali, ma non esaurienti e non sempre articolate con correttezza.
21-23 prova sufficiente, conoscenze presenti in modo talvolta superficiale, ma il filo conduttore generale risulta compreso. Espressione e articolazione lacunose e spesso non appropriate.
18-21 prova appena sufficiente, conoscenze presenti ma superficiali, il filo conduttore non è compreso con continuità. L’espressione e l’articolazione del discorso presentano lacune anche rilevanti.
<18 prova insufficiente, conoscenze assenti o molto lacunose, mancanza di orientamento nella disciplina, espressione carente e inappropriata. Esame non superato.
Persone con disabilità e DSA
Le persone con disabilità o disturbi specifici dell’apprendimento hanno diritto a speciali adattamenti in relazione alla loro condizione, previa valutazione del Servizio d’ateneo per le studentesse e gli studenti con disabilità e DSA. Si prega di non rivolgersi al/la docente, ma di contattare il Servizio per un appuntamento. Sarà cura del Servizio stabilire quali adattamenti si rendono opportuni. Maggiori informazioni alla pagina:
https://site.unibo.it/studenti-con-disabilita-e-dsa/it/per-studenti
Strumenti a supporto della didattica
Orario di ricevimento
Consulta il sito web di Sebastiano Moruzzi