Allucinazioni:
come e perché i modelli inventano informazioni
A volte l’AI risponde in modo fluido e convincente… ma sbagliato. Questo fenomeno si chiama allucinazione: il modello genera informazioni che sembrano vere, ma non sono supportate da fonti o dati reali. In questa scheda capirai perché succede (anche con modelli avanzati), quali segnali la rendono riconoscibile e cosa fare per ridurre il rischio quando usi l’AI per studio, lavoro o decisioni.
Che cosa sono le allucinazioni
Un’allucinazione avviene quando un modello genera un’informazione non verificata o inventata (nomi, date, citazioni, numeri, riferimenti), presentandola come se fosse corretta. Non è “bug”, ma una conseguenza del modo in cui i modelli linguistici producono testo: predicono token plausibili (Art. 20.10), non controllano automaticamente la verità di ciò che dicono.
È importante distinguere due casi:
- Errore innocuo: risposta imprecisa o semplificata (es. una definizione).
- Falsa precisione: dettagli specifici inventati (es. “studio del 2018”, “articolo n. 4”, “dati esatti”).
Il problema più rischioso non è l’errore in sé, ma il fatto che spesso viene espresso con sicurezza e coerenza.
Perché accadono (e quando aumentano)
Le allucinazioni aumentano quando il modello è “spinto” a completare un compito senza avere abbastanza segnali affidabili nel contesto.
- Contesto insufficiente: mancano dati, vincoli o fonti (Art. 20.6).
- Domanda troppo ampia: richiesta generica (“dimmi tutto su…”), senza confini.
- Pressione a essere utile: il modello tende a “riempire i vuoti” pur di rispondere.
- Sampling creativo: temperature/top-p/top-k alti aumentano varietà… e rischio (Art. 20.9).
- Conoscenza non aggiornata: se chiedi “ultime notizie” senza strumenti di ricerca, può inventare.
In pratica: quando mancano ancoraggi (dati, documenti, citazioni), il modello produce ciò che è linguisticamente plausibile, non ciò che è fattualmente corretto.
Cosa ricordare in pratica
- Un LLM genera testo plausibile: la “verità” non è garantita.
- Il rischio cresce con richieste vaghe, contesto povero e parametri creativi alti.
- I dettagli specifici (date, numeri, citazioni) sono il punto più fragile.
- La difesa migliore è operativa: vincoli + fonti + verifica.
Come ridurre il rischio nel W.I.L.A.I. LAB
Nel W.I.L.A.I. LAB trattiamo le allucinazioni come un tema di progettazione, non di “fiducia”. Se devi usare l’AI per lavoro o studio, l’obiettivo è costruire un flusso in cui:
- l’AI produce una bozza strutturata (non la “verità finale”);
- le affermazioni critiche vengono marcate come da verificare;
- la richiesta include sempre confini (“se non sei sicuro, dillo”);
- quando possibile, si lavora su materiale fornito (documenti, appunti, fonti).
Questo approccio riduce rilavorazioni e rischi: usi la velocità dell’AI per produrre struttura e alternative, ma mantieni tu il controllo su verifiche, responsabilità e decisioni (principio WILAI: “ti aiuta, tu controlli”).
Per capire le allucinazioni senza confonderle con “bug”, collega questa scheda a Art. 20.10 – Come nasce una risposta: dal prompt all’output (meccanismo di generazione) e a Art. 20.9 – Temperature, top-K e top-P: come controllare la creatività (scelte di campionamento). Se vuoi capire perché l’AI appare “sicura” anche quando sbaglia, riprendi Art. 20.11 – Perché l’AI sembra creativa anche se non lo è. Nel blocco successivo (Cap. 30) entreremo nei rischi, bias e responsabilità d’uso.