Addestramento e inferenza:
due processi distinti
Spesso si sente dire che “l’AI impara da ogni conversazione”. In realtà, nei modelli linguistici moderni ci sono due fasi molto diverse: addestramento (training) e inferenza (inference). In questa scheda vedrai cosa succede quando il modello viene addestrato su enormi quantità di dati e cosa succede, invece, quando genera una risposta al tuo prompt in tempo reale. Capire la differenza è fondamentale per parlare con lucidità di privacy, aggiornamenti e limiti dei modelli.
Che cosa sono addestramento e inferenza
L’addestramento (training) è la fase in cui un modello viene “costruito” a partire dai dati. Il modello parte con parametri iniziali e, passando molte volte su enormi quantità di testo, impara pattern statistici del linguaggio: strutture, collegamenti, stili, associazioni tra token.
L’inferenza (inference) è invece la fase in cui un modello già addestrato viene usato per rispondere a una richiesta specifica: il tuo prompt, una domanda, un compito di scrittura o analisi. In questa fase i parametri del modello restano fissi: il sistema applica ciò che ha appreso in training senza modificare la propria struttura interna.
Possiamo riassumere così: nel training il modello impara, nell’inferenza il modello applica ciò che ha imparato.
Come si svolgono le due fasi in pratica
In modo molto semplificato, le due fasi seguono flussi diversi:
-
Fase di addestramento
- si raccolgono e preparano grandi dataset di testo;
- il testo viene trasformato in token ed embedding (Art. 20.1, 20.3);
- i dati passano ripetutamente attraverso il modello Transformer (Art. 20.4–20.5);
- si confronta ciò che il modello predice con la “risposta corretta”;
- si calcola un errore (loss) e si aggiornano i parametri per ridurlo (Art. 60.13–60.16).
-
Fase di inferenza
- inserisci un prompt o una conversazione (contesto: Art. 20.6);
- il testo viene tokenizzato e passato nel modello addestrato;
- il modello calcola le probabilità del prossimo token e genera una risposta;
- la risposta viene convertita in testo e mostrata all’utente.
L’addestramento è costoso, lento e centralizzato. L’inferenza è rapida, ripetibile e distribuita verso milioni di utenti contemporaneamente.
Cosa ricordare in pratica
- Addestramento e inferenza sono due fasi diverse, con obiettivi, costi e tempi molto differenti.
- Durante l’inferenza, in una chat normale, il modello non aggiorna i propri parametri interni ad ogni risposta.
- I dati delle conversazioni possono essere usati in un secondo momento per ri-addestrare o affinare modelli, ma questo è un processo separato e controllato.
- Confondere le due fasi porta a errori di valutazione su privacy, responsabilità e “capacità di apprendimento” dell’AI.
Perché questa distinzione è centrale nel W.I.L.A.I. LAB
Nel Codice W.I.L.A.I. la distinzione tra addestramento e inferenza è un punto di chiarezza: aiuta a capire perché un modello non “cambia idea” da una chat all’altra, ma anche perché le politiche di gestione dati e privacy sono così importanti.
Nel W.I.L.A.I. LAB questa consapevolezza entra nella progettazione delle esperienze: quando progetti un prompt non stai “allenando il modello”, stai negoziando il modo in cui applica ciò che ha già imparato. Se vuoi adattare davvero un modello a un certo dominio (ad esempio, materiali didattici di una scuola o processi di un’azienda), può servire un lavoro di fine-tuning mirato o di progettazione di sistemi intorno al modello base.
Capire dove finisce l’addestramento e dove inizia l’inferenza ti permette di valutare meglio rischi, limiti e opportunità: dalle aspettative di miglioramento nel tempo, alle domande giuste da fare a fornitori e piattaforme quando parli di dati, sicurezza e aggiornamenti.
Per inquadrare bene questa scheda, è utile ripassare Art. 10.4 – Dataset: cosa sono e perché contano e Art. 10.5 – Dati di addestramento: quantità vs qualità, che spiegano la materia prima del training. Collegala a Art. 20.6 – Come i modelli gestiscono il contesto in una conversazione, per capire cosa succede in inferenza, e prosegui poi con Art. 20.16 – Quanto costa davvero addestrare un modello avanzato, che entra nel merito di tempi, risorse e impatto economico dei grandi training. Per i casi in cui si ri-addestra un modello su un dominio specifico, troverai un focus dedicato in Art. 20.17 – Fine-tuning: quando personalizzare un modello ha senso.