Allucinazioni e AI: cosa sono le hallucination e come prevenirle
Scopri cosa sono le allucinazioni nell'AI, quali sono le cause e difese contro di esse e che ruolo può avere l'intervento umano nel mitigare i rischi.
DI Pierfilippo Pierucci / luglio 2024
Tuttavia, come con ogni tecnologia avanzata, l'AI può incorrere in alcuni problemi, tra cui il fenomeno delle allucinazioni (hallucination), fenomeni di generazione di output che veicolano informazioni false.
In questo articolo esploreremo cosa sono le allucinazioni nell'AI, come si generano, come difendersi da esse e le possibili tecniche per evitarle.
1. Cosa sono le allucinazioni nell'AI?
Le allucinazioni nell'AI si riferiscono a situazioni in cui un sistema di intelligenza artificiale produce output che non sono basati sulla realtà o sulla verità oggettiva. In altre parole, l'AI genera informazioni che non corrispondono alla realtà o che non sono coerenti con i dati di input forniti.
Questo fenomeno può verificarsi in vari tipi di sistemi di intelligenza artificiale, inclusi quelli basati su reti neurali artificiali e algoritmi di apprendimento automatico.
Le allucinazioni nell'AI possono manifestarsi in diverse forme, tra cui:
- nei sistemi di riconoscimento di immagini, con l'identificazione di oggetti che non sono presenti nella scena o la generazione di oggetti incoerenti con le caratteristiche reali;
- nei sistemi di assistenza virtuale come gli LLM, rispondendo a domande fornendo informazioni completamente errate o generando risposte non partendo da dati reali.
2. Come nascono e perché le AI possono generare allucinazioni?
Le allucinazioni nell'AI possono avere diverse cause. Una delle principali ragioni è l'eccessiva complessità e profondità delle reti neurali utilizzate per addestrare l'AI. Queste reti neurali possono apprendere pattern complessi e astratti dai dati di addestramento, ma a volte possono interpretare erroneamente i dati o estrarre informazioni non realistiche. Ciò può portare alla generazione di allucinazioni nell'output dell'AI.
Un'altra causa delle allucinazioni può essere la mancanza di dati di addestramento rappresentativi. Se un sistema di AI non è stato addestrato su un ampio spettro di dati realistici e rappresentativi, potrebbe non avere una comprensione accurata del contesto e produrre output che non corrispondono alla realtà.
Le allucinazioni possono essere generate però anche da problemi insiti nel modello di apprendimento dell'AI o da altre complicazioni che possono sorgere durante il processo di elaborazione delle informazioni.
3. Come difendersi dalle allucinazioni dell'AI?
Per difendersi dalle allucinazioni dell'AI, è fondamentale adottare una metodologia di verifica e controllo degli output ottenuti per garantire sicurezza nell'utilizzo dell'AI.
È innanzitutto fondamentale utilizzare dati di addestramento accurati, rappresentativi e diversificati per l'AI, in modo che possano imparare a comprendere il contesto e a produrre output accurati (soprattutto per chi utilizza l'intelligenza artificiale in ottica di data analysis). Questo può contribuire a ridurre la probabilità che l'AI generi allucinazioni.
In secondo luogo, la validazione e la verifica rigorosa dell'output dell'AI sono essenziali. Se mai ci fosse bisogno di ripeterlo lo ribadiamo: l'AI non può mai essere lasciata a se stessa. I sistemi di AI dovrebbero essere sottoposti a test accurati e a un'attenta revisione umana per identificare eventuali allucinazioni e correggerle.
Nel nostro caso specifico di DD, all'interno del nostro brand ihealthyou, abbiamo testato in più occasioni output generati da intelligenze artificiali generative come gli LLM (ChatGPT, Bard, Perplexity, Bing, ...) e in nessun caso gli output generati potevano essere considerati perfettamente corretti.
“La piena autonomia di questi strumenti, in ottica di generazione di output corretti, sicuri e utilizzabili così come generati è ancora lontana. ”
L'intervento umano può svolgere un ruolo cruciale nel garantire la coerenza e la veridicità dell'output dell'AI, come abbiamo dimostrato e descritto ampiamente all'interno della nostra guida avanzata a ChatGPT e al prompt engineering.
4. Come capire se un output è viziato da allucinazione?
Riconoscere se un output è generato da un'allucinazione è complesso. Per sua natura, infatti, l'allucinazione rappresenta un problema di cui l'AI non si accorge, pertanto risulta difficile farne identificare la presenza in un secondo momento alla stessa. Il ruolo dell'operatore umano e di un'adeguata filiera di controllo e auditing diventa dunque cruciale.
Sintomi di un'allucinazione possono essere un'incoerenza generalizzata del contesto, oppure la presenza di informazioni che vanno contro le conoscenze oggettive consolidate, ma anche un'improvvisa mancanza di precisione nel dettaglio dell'output. Sono tutti indizi che, però, potrebbero celarsi efficacemente agli occhi meno attenti. Col tempo è possibile sviluppare una certa sensibilità personale in grado di captare accenni di allucinazioni da parte dell'AI, ma di certo non basta il semplice "polso".
5. Come tutelarsi contro le allucinazioni dell'AI?
La tecnica più utile per comprendere se un output è viziato da un'allucinazione potrebbe essere quella di confrontare le risposte dell'AI con quelle di altri modelli o esperti umani.
Ad esempio, partendo da un output generato da Chat GPT è saggio provare a fare un check all'interno di altri LLM - NB: non devono essere basati su API GPT (come God Mode o AgentGPT) - come Bard e Perplexity per confrontare i risultati dello stesso prompt, nonché per validare le informazioni ricevute.
La validazione di un output può avvenire attraverso l'esecuzione di un prompt simile al seguente:
Sei un esperto in [ARGOMENTO TRATTATO] con oltre 15 anni di esperienza come professore presso alcune delle più importanti università al mondo.
Leggi il seguente testo e valida il contenuto riportando:
- errori dal punto di vista tecnico (non linguistici)
- errori dal punto di vista scientifico
- errori concettuali
- allucinazioni
- frasi o discorsi fuori contesto
Di seguito il testo: [TESTO]
Esistono anche tecniche specifiche per ridurre le allucinazioni nell'AI, tra cui l'uso di approcci di apprendimento multi-task o tecniche di apprendimento federato (ricaviamo questi concetti da nozioni medio-avanzate di machine learning) che possono contribuire a migliorare la capacità dell'AI di comprendere il contesto e di produrre output accurati.
Attenzione inoltre a fare una buona "prevenzione".
La generazione di prompt di qualità e dettagliati riduce notevolmente il rischio di allucinazioni. La logica insita è quella alla base di tecniche quali la Chain of Thought o il Tree of Thought, cioè di ridurre il rischio di errori mettendo in condizione il modello di ragionare in maniera più schematica e attenta sugli input (prompt).
6. Conclusioni
Nel futuro lo scenario cambierà sicuramente, ma oggi l'interazione umana continua a svolgere un ruolo fondamentale nel mitigare le allucinazioni dell'AI.
I principali sviluppatori di di AI oggi stanno lavorando costantemente allo sviluppo di tecniche per evitare le allucinazioni nei sistemi di intelligenza artificiale, consci del rischio che esse comportano. Le soluzioni possibili finora individuate potrebbero riguardare:
- l'implementazione di meccanismi di controllo e regolazione dell'output dell'AI (ancora da completare);
- l'uso di architetture di rete neurale più semplici e interpretabili (in modo da risalire più facilmente all'origine dell'errore, per correggerlo e migliorare il modello);
- l'introduzione di metodi di addestramento che mettono l'accento sulla responsabilità etica e sulla coerenza dell'output.
C'è ancora da lavorare e noi vi terremo aggiornati sulla questione. Per ora possiamo continuare a sorridere quando leggiamo che le macchine non hanno più bisogno dell'uomo per essere completamente autonome... :-)
CHI L’HA SCRITTO?
Riminese, classe '94. Nel mondo del marketing da oltre 10 anni, tra lavoro e progetti personali. Oggi Platform Business Leader in ihealthyou e DD, dove seguo progetti su sanità, AI, metaverso e web3.0. Pieno di passioni, podio a ciclismo, fitness e libri.