Underfitting e overfitting:
i due errori fondamentali
Tutti i modelli di AI, anche i più avanzati, possono fallire per due motivi opposti: capire troppo poco (underfitting) o capire “troppo” nel modo sbagliato (overfitting). Questa scheda ti mostra come riconoscerli e perché rappresentano il cuore della valutazione della qualità di un modello.
Che cosa sono underfitting e overfitting
Sono i due errori opposti che un modello può commettere durante l’apprendimento:
- Underfitting: il modello non impara abbastanza. Non coglie i pattern principali.
- Overfitting: il modello impara troppo. Non i pattern generali, ma i dettagli del dataset.
Un modello utile si trova sempre nel mezzo: non troppo semplice, non troppo “aderente” ai dati iniziali.
Come funzionano nella pratica
- Underfitting: prestazioni basse sia sui dati di addestramento sia su quelli nuovi.
- Overfitting: prestazioni ottime sui dati di addestramento, scarse su dati mai visti.
- Perché accadono: troppo pochi dati, modello troppo rigido, dataset poco variabile → underfitting. Troppi parametri, dataset troppo piccolo, etichette rumorose → overfitting.
- Lo scopo: trovare il punto di massimo equilibrio: generalizzare senza perdere precisione.
In altre parole: vogliamo che il modello riconosca la struttura del problema, non le coincidenze del dataset.
Cosa ricordare in pratica
- Underfitting = modello troppo semplice. Overfitting = modello troppo complesso.
- Generalizzare è più importante che memorizzare.
- Valutare solo i dati di addestramento è ingannevole: serve un dataset di test.
- La qualità del modello si vede da come reagisce ai dati nuovi.
Come si collega all’ecosistema W.I.L.A.I.
Nel Codice W.I.L.A.I., underfitting e overfitting compaiono come concetti chiave per distinguere un modello che “sembra funzionare” da uno che funziona davvero.
Nel W.I.L.A.I. LAB, impari a osservare segnali tipici: risposte troppo generiche (underfitting) o eccessivamente specifiche al contesto della domanda (overfitting).
Saper riconoscere questi due errori dà una capacità critica fondamentale: valutare la solidità di un modello senza confondere prestazioni apparenti con prestazioni reali.
Per approfondire, leggi prima Art. 10.12 – Che cosa significa “generalizzare”. Poi prosegui con Art. 10.14 – Perché servono miliardi di parole per addestrare i modelli.