Foto del docente

Arianna Capirossi

Research fellow

Department of Classical Philology and Italian Studies

Teaching tutor

Department of Classical Philology and Italian Studies

Useful contents

Consigli per l'utilizzo dell'Intelligenza Artificiale nello studio e nel lavoro di ricerca, a beneficio degli studenti (in aggiornamento)

L'impiego dei chatbot di Intelligenza Artificiale generativa sta diventando sempre più diffuso e pervasivo. Tuttavia, quando si tratta di studio e ricerca (ad esempio, nella scrittura della tesi di laurea) occorre utilizzarli con estrema cautela.

DISCLAIMER: questo "Contenuto utile" non sostituisce il dialogo e il confronto con i propri docenti a proposito di questo tema; ogni docente, a seconda della disciplina, può avere un approccio diverso con gli strumenti di AI. L'eventuale impiego dell'Intelligenza Artificiale in un elaborato o nella tesi va preliminarmente valutato e concordato con il/la proprio/a docente // relatore/trice.

Fornisco qui di seguito alcuni consigli che possono tornare utili a studentesse e studenti che si approcciano per la prima volta a questi nuovi strumenti, in modo da poterli usare con consapevolezza e sensibilità critica: la macchina non deve in alcun modo sostituire la capacità di autonomo giudizio dello studente.

- - - - -

Prima di cominciare, occorre consultare la Policy di Ateneo e i documenti disponibili alla pagina https://www.unibo.it/it/ateneo/chi-siamo/intelligenza-artificiale/intelligenza-artificiale, dove, tra le altre cose, si legge: "gli utilizzi della GenAI devono essere dichiarati e correttamente riconosciuti". L'utilizzo dell'AI nello studio e nel lavoro deve essere deontologico e responsabile.

- - - - -

I consigli che seguono sono frutto dell'esperienza mia e di alcuni studenti con le versioni base gratuite di ChatGPT, Gemini e l'AI Overview di Google. Premetto che, a mio parere, attualmente la più performante tra queste risulta essere ChatGPT, pertanto mi baserò perlopiù su questa. Gemini e l'AI Overview di Google commettono errori molto più frequentemente di ChatGPT.

1 - Uso dell'AI per la ricerca bibliografica.

I chatbot come ChatGPT e Gemini e anche l'AI Overview di Google attualmente non sono in grado di svolgere ricerche bibliografiche accurate. I loro output sono incompleti e pieni di errori relativi ad autori, titoli e date di pubblicazione. Spesso vengono fraintesi persino i contenuti delle pubblicazioni. (Talora, le informazioni sono persino inventate! Si tratta del fenomeno dell'hallucination*). Pertanto, per la ricerca bibliografica è necessario continuare a utilizzare i canali tradizionali -> SISTEMA BIBLIOTECARIO DI ATENEO

2 - Uso dell'AI per l'argomentazione.

L'argomentazione che può fornire un chatbot su un tema dato risulta molto meccanica, semplificata e sviluppata a blocchi. Può essere utile solo in fase di brainstorming per trovare spunti di ricerca: "i chatbot generativi possono offrire spazio per esplorare idee, abbozzare domande di ricerca e scoprire nuove direzioni di interesse. In fase iniziale, utilizzare uno strumento basato sull'IA potrebbe rivelarsi un modo semplice per iniziare il processo di brainstorming" (da https://sba.unibo.it/it/servizi/formazione/copy_of_tipi-di-iniziative-formative-di-information-literacy). Qualsiasi output argomentativo fornito dall'AI va vagliato con cautela e confrontato con fonti affidabili. Anche se si dichiara l'impiego dell'AI per la stesura di un elaborato, è assolutamente controproducente e totalmente da evitare il copiare di peso argomentazioni fornite dai chatbot: "Non è coerente con i principi della Policy il ‘copia e incolla’ delle frasi e paragrafi generati visto che non prevede una supervisione attiva e critica" (da https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/Casi-uso-GenAI-comunita-studentesca-valutazione). Un primo passo utile potrebbe essere la consultazione della sitografia che gli output di ChatGPT ormai sempre più spesso contengono, in modo da verificare se i siti che ha consultato sono affidabili (ad es. Treccani), e, se sì, continuare la ricerca su quelli. Non bisogna mai dare per scontato che l'AI abbia interpretato e sintetizzato in maniera esatta ed esauriente i contenuti dei siti che indica come proprie fonti: la verifica va fatta in prima persona.

3 - Uso dell'AI per la traduzione di testi da lingue antiche o straniere all'italiano e viceversa.

ChatGPT è abbastanza affidabile per traduzioni in inglese oppure dall'inglese all'italiano. Meno affidabile per altre lingue, specialmente quelle antiche, come greco e latino. In questi casi, con l'input di periodi lunghi da tradurre facilmente sbaglia e si confonde; fornisce risultati abbastanza buoni solo in caso di frasi brevi, ma anche in questo caso la loro correttezza va vagliata accuratamente attraverso il filtro delle proprie conoscenze e la consultazione di strumenti lessicografici (per approfondire questo tema, consiglio la lettura dell'articolo del prof. Andrea Balbo: Intelligenza artificiale e latino: sondaggi e riflessioni).

4 - Uso dell'AI per risalire a definizioni di parole o sinonimi e contrari.

ChatGPT è piuttosto affidabile per il controllo rapido della definizione di una parola italiana o straniera, oppure per trovare i sinonimi e i contrari di parole italiane e straniere. Tuttavia, ogni tanto commette errori, creando parole inesistenti: quindi, se non siamo sicuri dell'output, è sempre meglio ricorrere ai classici dizionari, che ormai si trovano anche online (ad esempio: Il Nuovo De MauroDizionario dei Sinonimi e dei Contrari Hoepli).

5 - Uso dell'AI per la scrittura di messaggi e-mail.

ChatGPT e anche Gemini possono essere utili per la scrittura di e-mail in italiano o in lingue straniere; è bene fornire un prompt (input testuale) il più possibile accurato, specificando tono (formale o familiare), contenuto, contesto (accademico, professionale). È però sempre necessario rileggere attentamente l'output e apportare le correzioni necessarie, dato che spesso l'AI fraintende le nostre intenzioni comunicative. Può essere utile per creare un canovaccio del nostro messaggio, da sistemare e riadattare in modo personale.

6 - Uso dell'AI per generare riassunti o descrivere opere letterarie o artistiche.

Se fornite al chatbot un vostro testo in input, potete chiederne un riassunto o sintesi e generalmente l'output sarà abbastanza soddisfacente; tuttavia, anche in questo caso occorre valutarlo con cautela. Può essere utile, ad esempio, per creare una scaletta per una presentazione orale a partire da un testo più lungo che avete scritto. ATTENZIONE! Assolutamente da NON fare: chiedere a un chatbot il riassunto di libri o articoli, oppure descrizioni di dipinti o altre opere d'arte, perché sbaglierà quasi tutto, confondendo autori, contenuti, temi e persino epoche storiche.

7 - FONDAMENTALE: COME CITARE L'IMPIEGO DELL'AI IN UNA TESI O UN CONTRIBUTO.

Se abbiamo impiegato l'AI in qualsiasi modo per avere supporto nella stesura di una tesi, un elaborato o un contributo, è obbligatorio dichiararlo, specificando quale AI abbiamo utilizzato, a quale scopo e in che misura.

Esempio (tratto da https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/citazione-GenAI):

“Nel corso della redazione di questo lavoro, ho fatto uso di strumenti di intelligenza artificiale generativa, nello specifico ChatGPT-4 (versione rilasciata a marzo 2024). Questi strumenti sono stati impiegati principalmente durante il periodo novembre 2023 - gennaio 2024, con l’obiettivo di migliorare la chiarezza e la coerenza di alcuni paragrafi e di supportare la creazione di grafici utili per l’analisi dei risultati. L’uso di ChatGPT-4 ha riguardato in particolare le sezioni relative ai ‘Risultati sperimentali’ (Capitolo 3) e alla ‘Discussione’ (Capitolo 5).”

SITI UTILI:

- - - - -

hallucination (in italiano, 'allucinazione' o 'confabulazione'): fenomeno tipico delle intelligenze artificiali generative che porta a errori di contenuto. Ma lascio spiegare il concetto direttamente a https://chatgpt.com/ (ho controllato il contenuto dell'output: almeno spiegando sé stessa mi pare che ChatGPT non sia incorsa in hallucinations...):

"🤯 Cos’è l’hallucination (allucinazione) nei modelli di AI generativa?

In ambito AI, hallucination è un termine tecnico che indica quando un modello come ChatGPT:

Genera contenuti che sembrano corretti ma sono completamente inventati, falsi o inaccurati.

🧠 In altre parole:

Il modello “immagina” una risposta plausibile, anche se non è basata su dati reali o su fonti attendibili. Succede perché i modelli linguistici non "sanno" nel senso umano: predicono parole in base alle probabilità, non in base alla verità.

🧾 Esempi di hallucination

 📚 1. Citazioni bibliografiche inventate:

“Secondo Maria Rossi nel suo libro del 1987 La memoria dell’argilla, …”
📌 Problema: il libro non esiste e l’autrice non ha mai scritto nulla del genere.

🎨 2. Errori nei contenuti artistici/storici:

“La Guernica è stata dipinta da Dalí nel 1940.”
📌 In realtà è di Picasso, nel 1937.

🌐 3. Link o fonti inesistenti:

“Puoi leggere tutto su questo tema su www.storiaromana.it/caesar-libri.” [http://www.storiaromana.it/caesar-libri.%E2%80%9D]
📌 Quel link non esiste, anche se sembra plausibile.

🧭 Perché succede?

Perché i modelli come ChatGPT:

  • Non accedono in tempo reale a un database di verità, ma generano testo in modo probabilistico.

  • Possono confondere contesti simili o “completare” informazioni mancanti con invenzioni plausibili.

✅ Come evitare problemi legati alle hallucinations

  • Verificare sempre le fonti citate (es. Google Scholar, cataloghi ufficiali, siti affidabili).

  • Non usare mai dati, citazioni o link prodotti dall’AI senza controllo umano.

  • Usare l’AI per supportare, non per sostituire, la ricerca personale".

Oltre alla schematica spiegazione di ChatGPT, potete approfondire l'argomento leggendo questo articolo di Andrea Signorelli: Le "allucinazioni" dell’intelligenza artificiale.