Quando l’AI
“allucina”
Giuseppina
Melino
Social Media Marketer
Cosmica Digital Marketing
Social Media Marketer.
Esperta in analisi strategi-
ca, creazione di piani edito-
riali e sviluppo di contenuti
digitali. Specializzata in
analisi del cliente, competi-
tor, copywriting, montaggio
video e grafica per i social.
Supporto i clienti nel rag-
giungimento dei loro obiet-
tivi
attraverso
l’ascolto
attivo, la curiosità e la cre-
atività.
L’intelligenza arti�ciale sta cambiando il nostro modo di lavora-
re, scrivere e comunicare. Ma dietro l’ef�cienza di questi stru-
menti si nasconde un fenomeno poco noto al grande pubblico: le
“hallucinations”. No, non si tratta di visioni o sogni, ma di errori
generati con estrema sicurezza da modelli come ChatGPT o Ge-
mini e similari. Capire cosa sono queste “allucinazioni digitali”
è essenziale per evitare fraintendimenti, fake news e danni re-
putazionali. In questo articolo ti spieghiamo come riconoscerle,
perché succedono e qual è il ruolo umano per contrastarle.
ne sentenze di ChatGpt senza
verificarle nel tribunale della
sua città. Un suo assistente
aveva utilizzato il software
per ricercare precedenti le-
gali sull’acquisto di merce
contraffatta. I documenti tro-
vati e usati erano verosimili e
inventati.
L’intelligenza artificiale non
mente intenzionalmente:
semplicemente, predice pa-
role sulla base di pattern
linguistici, senza avere una
comprensione reale dei fatti.
Nel contesto dell’intelligenza
artificiale, si parla di “hallu-
cination” quando un modello
genera un’informazione er-
rata, inventata o fuorviante,
ma lo fa in modo apparente-
mente credibile e sicuro. A
differenza di un errore bana-
le, l’hallucination è subdola
perché si maschera da verità,
rendendo difficile distinguer-
la a occhio nudo.
A fare scalpore l’imbarazzo
di un avvocato fiorentino che
il mese scorso ha citato alcu-
TORNA ALL’INDICE
ARTICOLO ON LINE
L’ECOSISTEMA
DIGITALE
COSA SONO LE “HALLUCINATIONS” NELL’AI
APRILE 2025