Parole chiave:
Generative AI
Large Reasoning Models
LLM Evaluation
Quantization
RAG
Summarization
Human-In-The-Loop
Accessibility
Ed-Tech
LLM Evaluation & Reasoning Validation: Sviluppo di metodi per valutare l'affidabilità dei Large Language Models, con un focus specifico sulla validazione delle tracce di ragionamento (es. progetto "LAV") e sulla capacità dei modelli di agire come giudici affidabili(es. progetto "Do Large Language Models understand how to be judges?").
Computational Argumentation: Analisi e mining delle strutture argomentative per migliorare la logica e la coerenza nei testi generati dall'AI, specialmente in contesti multi-step.
AI for Accessibility: Applicazione dell'AI generativa per rimuovere barriere nell'editoria scientifica, come la generazione automatica di descrizioni (con 2 diversi livelli di dettaglio) per grafici e contenuti STEM complessi.
Retrieval-Augmented Generation (RAG): Integrazione di conoscenze esterne nei modelli generativi per migliorare l'accuratezza fattuale e ridurre le allucinazioni in contesti educativi e professionali.
Writing & Editing Support Systems: Progettazione di assistenti alla scrittura che rispettino standard editoriali specifici, inclusi adattamento stilistico (Stylistic Adaptation), riassunto astrattivo (Abstractive Summarization) e generazione di contenuti educativi (es. progetto "Generation and Evaluation of English Grammar Multiple-Choice Cloze Exercises").
Human-in-the-Loop Workflows: Studio di pipeline ibride Uomo-AI per garantire la qualità finale del dato, specialmente in domini ad alto rischio come l'educazione e la digitalizzazione di testi scolastici.