Modelli discriminativi:
come classificano dati e segnali
Questa scheda spiega che cosa sono i modelli discriminativi, come apprendono a distinguere tra categorie diverse e perché sono alla base di molti sistemi di classificazione: dallo spam nella posta ai sistemi di riconoscimento immagini, fino all’analisi del sentiment nei testi.
Che cosa sono i modelli discriminativi
Un modello discriminativo è un sistema di AI che impara a distinguere tra classi o etichette diverse: invece di “generare” nuovi dati, si concentra sul decidere a quale categoria appartiene un input.
In pratica, riceve un esempio (una mail, un’immagine, un segnale) e restituisce una classe: spam/non spam, gatto/cane, positivo/negativo, idoneo/non idoneo. Il suo obiettivo è trovare un confine di decisione il più accurato possibile tra le varie etichette.
Sono modelli tipicamente usati per classificazione e regressione: cercano relazioni tra input e output etichettati e imparano a riprodurle su nuovi dati.
Come classificano dati e segnali
In modo semplificato, un modello discriminativo lavora così:
- Input: riceve un dato rappresentato in forma numerica (testo trasformato in vettori, pixel di un’immagine, misure da sensori).
- Addestramento supervisionato: viene esposto a molti esempi con etichetta (“questa mail è spam”, “questa immagine contiene un gatto”) e impara le regolarità che collegano input e classi.
- Funzione di decisione: apprende una regola che, dato un nuovo input, assegna la classe più probabile (o una distribuzione di probabilità sulle classi).
- Confidenza e soglie: spesso produce punteggi o probabilità; soglie e criteri di decisione stabiliscono quando classificare come “spam”, “rischioso”, “anomalo”.
Esempi tipici: modelli per rilevare frodi su transazioni, classificare immagini mediche, riconoscere il sentiment di recensioni, filtrare contenuti in piattaforme online.
Cosa ricordare in pratica
- I modelli discriminativi non creano contenuti: prendono decisioni di classificazione su dati esistenti.
- Funzionano bene quando hanno molti esempi etichettati e quando le classi sono definite in modo chiaro.
- Errori e bias dipendono da come sono costruiti i dataset: se una categoria è poco rappresentata, sarà più difficile da riconoscere.
- Per interpretarli correttamente è utile guardare non solo la risposta finale, ma anche probabilità, soglie e contesto d’uso.
Come si collega all’ecosistema W.I.L.A.I.
Nel Codice W.I.L.A.I. questo articolo completa il quadro aperto da Art. 10.17 – Modelli generativi: da un lato i sistemi che producono contenuti, dall’altro quelli che classificano e decidono su dati e segnali. Capire la differenza è fondamentale per leggere correttamente le promesse dei sistemi di AI.
Nel W.I.L.A.I. LAB i modelli discriminativi diventano lo sfondo di esercizi in cui valuti risultati di classificazione: quando un filtro spam esagera? Quando un classificatore etichetta in modo sbilanciato? Quali dati mancano?
L’obiettivo non è “fidarsi” o “non fidarsi”, ma sviluppare criterio: sapere quando un sistema classificatorio è adatto al contesto, quali limiti ha e quali verifiche servono prima di usarlo in decisioni che toccano persone reali.
Per avere una visione completa, leggi prima Art. 10.17 – Modelli generativi: come creano contenuti, che spiega l’altra grande famiglia di modelli. Poi prosegui con Art. 10.19 – Il mito del “cervello artificiale” e perché è fuorviante, per mettere a fuoco i limiti delle metafore biologiche quando parliamo di AI.