Foto del docente

Arianna Capirossi

Assegnista di ricerca

Dipartimento di Filologia Classica e Italianistica

Tutor didattico

Dipartimento di Filologia Classica e Italianistica

Contenuti utili

Consigli per l'utilizzo dell'Intelligenza Artificiale nello studio e nel lavoro di ricerca, a beneficio degli studenti (in aggiornamento)

L'impiego dei chatbot di Intelligenza Artificiale generativa sta diventando sempre più diffuso e pervasivo. Tuttavia, quando si tratta di studio e ricerca (ad esempio, nella scrittura della tesi di laurea) occorre utilizzarli con estrema cautela.

DISCLAIMER: questo "Contenuto utile" non sostituisce il dialogo e il confronto con i propri docenti a proposito di questo tema; ogni docente, a seconda della disciplina, può avere un approccio diverso con gli strumenti di AI. L'eventuale impiego dell'Intelligenza Artificiale in un elaborato o nella tesi va preliminarmente valutato e concordato con il/la proprio/a docente // relatore/trice.

Fornisco qui di seguito alcuni consigli che possono tornare utili a studentesse e studenti che si approcciano per la prima volta a questi nuovi strumenti, in modo da poterli usare con consapevolezza e sensibilità critica: la macchina non deve in alcun modo sostituire la capacità di autonomo giudizio dello studente.

- - - - -

Prima di cominciare, occorre consultare la Policy di Ateneo e i documenti disponibili alla pagina https://www.unibo.it/it/ateneo/chi-siamo/intelligenza-artificiale/intelligenza-artificiale, dove, tra le altre cose, si legge: "gli utilizzi della GenAI devono essere dichiarati e correttamente riconosciuti". L'utilizzo dell'AI nello studio e nel lavoro deve essere deontologico e responsabile.

- - - - -

I consigli che seguono sono frutto dell'esperienza mia e di alcuni studenti con le versioni base gratuite di ChatGPT, Gemini e l'AI Overview di Google. Premetto che, a mio parere, attualmente la più performante tra queste risulta essere ChatGPT, pertanto mi baserò perlopiù su questa. Gemini e l'AI Overview di Google commettono errori molto più frequentemente di ChatGPT.

1 - Uso dell'AI per la ricerca bibliografica.

I chatbot come ChatGPT e Gemini e anche l'AI Overview di Google attualmente non sono in grado di svolgere ricerche bibliografiche accurate. I loro output sono incompleti e pieni di errori relativi ad autori, titoli e date di pubblicazione. Spesso vengono fraintesi persino i contenuti delle pubblicazioni. (Talora, le informazioni sono persino inventate! Si tratta del fenomeno dell'hallucination*). Pertanto, per la ricerca bibliografica è necessario continuare a utilizzare i canali tradizionali -> SISTEMA BIBLIOTECARIO DI ATENEO

2 - Uso dell'AI per l'argomentazione.

L'argomentazione che può fornire un chatbot su un tema dato risulta molto meccanica, semplificata e sviluppata a blocchi. Può essere utile solo in fase di brainstorming per trovare spunti di ricerca: "i chatbot generativi possono offrire spazio per esplorare idee, abbozzare domande di ricerca e scoprire nuove direzioni di interesse. In fase iniziale, utilizzare uno strumento basato sull'IA potrebbe rivelarsi un modo semplice per iniziare il processo di brainstorming" (da https://sba.unibo.it/it/servizi/formazione/copy_of_tipi-di-iniziative-formative-di-information-literacy). Qualsiasi output argomentativo fornito dall'AI va vagliato con cautela e confrontato con fonti affidabili. Anche se si dichiara l'impiego dell'AI per la stesura di un elaborato, è assolutamente controproducente e totalmente da evitare il copiare di peso argomentazioni fornite dai chatbot: "Non è coerente con i principi della Policy il ‘copia e incolla’ delle frasi e paragrafi generati visto che non prevede una supervisione attiva e critica" (da https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/Casi-uso-GenAI-comunita-studentesca-valutazione). Un primo passo utile potrebbe essere la consultazione della sitografia che gli output di ChatGPT ormai sempre più spesso contengono, in modo da verificare se i siti che ha consultato sono affidabili (ad es. Treccani), e, se sì, continuare la ricerca su quelli. Non bisogna mai dare per scontato che l'AI abbia interpretato e sintetizzato in maniera esatta ed esauriente i contenuti dei siti che indica come proprie fonti: la verifica va fatta in prima persona.

3 - Uso dell'AI per la traduzione di testi da lingue antiche o straniere all'italiano e viceversa.

ChatGPT è abbastanza affidabile per traduzioni in inglese oppure dall'inglese all'italiano. Meno affidabile per altre lingue, specialmente quelle antiche, come greco e latino. In questi casi, con l'input di periodi lunghi da tradurre facilmente sbaglia e si confonde; fornisce risultati abbastanza buoni solo in caso di frasi brevi, ma anche in questo caso la loro correttezza va vagliata accuratamente attraverso il filtro delle proprie conoscenze e la consultazione di strumenti lessicografici (per approfondire questo tema, consiglio la lettura dell'articolo del prof. Andrea Balbo: Intelligenza artificiale e latino: sondaggi e riflessioni).

4 - Uso dell'AI per risalire a definizioni di parole o sinonimi e contrari.

ChatGPT è piuttosto affidabile per il controllo rapido della definizione di una parola italiana o straniera, oppure per trovare i sinonimi e i contrari di parole italiane e straniere. Tuttavia, ogni tanto commette errori, creando parole inesistenti: quindi, se non siamo sicuri dell'output, è sempre meglio ricorrere ai classici dizionari, che ormai si trovano anche online (ad esempio: Il Nuovo De MauroDizionario dei Sinonimi e dei Contrari Hoepli).

5 - Uso dell'AI per la scrittura di messaggi e-mail.

ChatGPT e anche Gemini possono essere utili per la scrittura di e-mail in italiano o in lingue straniere; è bene fornire un prompt (input testuale) il più possibile accurato, specificando tono (formale o familiare), contenuto, contesto (accademico, professionale). È però sempre necessario rileggere attentamente l'output e apportare le correzioni necessarie, dato che spesso l'AI fraintende le nostre intenzioni comunicative. Può essere utile per creare un canovaccio del nostro messaggio, da sistemare e riadattare in modo personale.

6 - Uso dell'AI per generare riassunti o descrivere opere letterarie o artistiche.

Se fornite al chatbot un vostro testo in input, potete chiederne un riassunto o sintesi e generalmente l'output sarà abbastanza soddisfacente; tuttavia, anche in questo caso occorre valutarlo con cautela. Può essere utile, ad esempio, per creare una scaletta per una presentazione orale a partire da un testo più lungo che avete scritto. ATTENZIONE! Assolutamente da NON fare: chiedere a un chatbot il riassunto di libri o articoli, oppure descrizioni di dipinti o altre opere d'arte, perché sbaglierà quasi tutto, confondendo autori, contenuti, temi e persino epoche storiche.

7 - FONDAMENTALE: COME CITARE L'IMPIEGO DELL'AI IN UNA TESI O UN CONTRIBUTO.

Se abbiamo impiegato l'AI in qualsiasi modo per avere supporto nella stesura di una tesi, un elaborato o un contributo, è obbligatorio dichiararlo, specificando quale AI abbiamo utilizzato, a quale scopo e in che misura.

Esempio (tratto da https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/citazione-GenAI):

“Nel corso della redazione di questo lavoro, ho fatto uso di strumenti di intelligenza artificiale generativa, nello specifico ChatGPT-4 (versione rilasciata a marzo 2024). Questi strumenti sono stati impiegati principalmente durante il periodo novembre 2023 - gennaio 2024, con l’obiettivo di migliorare la chiarezza e la coerenza di alcuni paragrafi e di supportare la creazione di grafici utili per l’analisi dei risultati. L’uso di ChatGPT-4 ha riguardato in particolare le sezioni relative ai ‘Risultati sperimentali’ (Capitolo 3) e alla ‘Discussione’ (Capitolo 5).”

SITI UTILI:

- - - - -

hallucination (in italiano, 'allucinazione' o 'confabulazione'): fenomeno tipico delle intelligenze artificiali generative che porta a errori di contenuto. Ma lascio spiegare il concetto direttamente a https://chatgpt.com/ (ho controllato il contenuto dell'output: almeno spiegando sé stessa mi pare che ChatGPT non sia incorsa in hallucinations...):

"🤯 Cos’è l’hallucination (allucinazione) nei modelli di AI generativa?

In ambito AI, hallucination è un termine tecnico che indica quando un modello come ChatGPT:

Genera contenuti che sembrano corretti ma sono completamente inventati, falsi o inaccurati.

🧠 In altre parole:

Il modello “immagina” una risposta plausibile, anche se non è basata su dati reali o su fonti attendibili. Succede perché i modelli linguistici non "sanno" nel senso umano: predicono parole in base alle probabilità, non in base alla verità.

🧾 Esempi di hallucination

 📚 1. Citazioni bibliografiche inventate:

“Secondo Maria Rossi nel suo libro del 1987 La memoria dell’argilla, …”
📌 Problema: il libro non esiste e l’autrice non ha mai scritto nulla del genere.

🎨 2. Errori nei contenuti artistici/storici:

“La Guernica è stata dipinta da Dalí nel 1940.”
📌 In realtà è di Picasso, nel 1937.

🌐 3. Link o fonti inesistenti:

“Puoi leggere tutto su questo tema su www.storiaromana.it/caesar-libri.” [http://www.storiaromana.it/caesar-libri.%E2%80%9D]
📌 Quel link non esiste, anche se sembra plausibile.

🧭 Perché succede?

Perché i modelli come ChatGPT:

  • Non accedono in tempo reale a un database di verità, ma generano testo in modo probabilistico.

  • Possono confondere contesti simili o “completare” informazioni mancanti con invenzioni plausibili.

✅ Come evitare problemi legati alle hallucinations

  • Verificare sempre le fonti citate (es. Google Scholar, cataloghi ufficiali, siti affidabili).

  • Non usare mai dati, citazioni o link prodotti dall’AI senza controllo umano.

  • Usare l’AI per supportare, non per sostituire, la ricerca personale".

Oltre alla schematica spiegazione di ChatGPT, potete approfondire l'argomento leggendo questo articolo di Andrea Signorelli: Le "allucinazioni" dell’intelligenza artificiale.