Articolo 20.17 Indice Codice W.I.L.A.I.

Fine-tuning:
quando personalizzare un modello ha senso

“Personalizziamo il modello” è una frase che suona bene, ma spesso è una scorciatoia. In questa scheda chiariremo cosa significa davvero fine-tuning, quando è una scelta sensata e quando invece è più efficace (e più economico) agire su prompt, dati e workflow. L’obiettivo è una regola pratica: non toccare il modello se non hai un motivo misurabile.

Che cos’è il fine-tuning (in modo chiaro)

Il fine-tuning è una fase di addestramento “secondaria”: si parte da un modello già addestrato e si prosegue l’addestramento su un dataset più piccolo e mirato, per orientarlo verso uno specifico stile, dominio o tipo di compito.

In pratica, il modello non “impara una regola” come farebbe una persona: aggiorna i propri parametri per rendere più probabili certi pattern e meno probabili altri.

Quindi: fine-tuning = cambiare il modello. Prompting / workflow = cambiare come lo usi.

Quando ha senso farlo (e quando no)

Il fine-tuning ha senso quando tutte queste condizioni sono vere:

  • Obiettivo stabile: stessi task ripetuti nel tempo (non “una tantum”).
  • Esempi di qualità: hai un dataset pulito di input→output “giusti”.
  • Metriche chiare: sai misurare se migliora (accuratezza, stile, errori, tempi).
  • Vincoli operativi: vuoi ridurre prompt lunghi, errori ricorrenti o costi di inferenza.

Invece, non ha senso (o è prematuro) se:

  • stai ancora capendo “cosa ti serve davvero” (requisiti instabili);
  • non hai dati buoni o hai esempi contraddittori;
  • il problema si risolve con prompt migliori, template, check-list o strumenti di verifica;
  • ti serve aggiornare conoscenza: il fine-tuning non è “update del mondo”.

Decisione rapida: la regola WILAI

  • Prima scelta: prompt + struttura (più veloce, meno rischio, più controllo).
  • Seconda scelta: workflow (template, step, validazioni, rubriche).
  • Terza scelta: dati + retrieval (porti info giuste nel contesto).
  • Fine-tuning solo se: task ripetuto + dataset buono + metriche.
  • Se non puoi misurare il miglioramento, non stai facendo fine-tuning: stai scommettendo.

Rischi tipici e impatto su costi/qualità

Il fine-tuning può migliorare coerenza e aderenza a un dominio, ma introduce anche rischi:

  • Overfitting: il modello “imita” troppo i tuoi esempi e generalizza peggio.
  • Regressioni: migliora su un task ma peggiora su altri (trade-off).
  • Manutenzione: devi aggiornare dataset e ripetere cicli quando cambiano esigenze.
  • Governance: devi controllare qualità, bias e sicurezza del dataset (Area: Limiti & rischi).

In ottica “business”, spesso il fine-tuning ha senso quando riduce costi di inferenza (prompt più corti, meno tentativi) o quando ti serve una voce/stile estremamente consistente su larga scala.

Nel W.I.L.A.I. LAB la regola è pragmatica: prima stabilizziamo output e criteri di qualità con prompt e rubriche, poi — solo se serve — valutiamo la personalizzazione del modello.

Percorso consigliato

Per inquadrare bene il fine-tuning, ripassa Art. 20.7 – Addestramento e inferenza: due processi distinti e Art. 20.16 – Quanto costa davvero addestrare un modello avanzato. Se il tuo obiettivo è portare “informazioni corrette” dentro l’output, spesso è più efficace lavorare su contesto e fonti (Art. 20.6) invece che cambiare il modello. Per capire cosa può andare storto quando modifichi comportamento e priorità del modello, collega questa scheda ai temi di bias e rischi che trovi nel capitolo 30. Prosegui poi con Art. 20.18 – I limiti strutturali dei modelli linguistici per vedere cosa il fine-tuning non può risolvere.