Perché servono le GPU
e cosa fanno davvero
Le prestazioni spettacolari dei modelli di AI non dipendono solo dagli algoritmi: senza hardware adatto, in particolare le GPU, molte delle applicazioni che usiamo oggi sarebbero semplicemente impraticabili. In questa scheda vedrai che cosa fanno davvero le GPU, perché sono così centrali per addestrare e usare i modelli moderni e in quali casi può avere senso ragionare anche su alternative o combinazioni diverse di hardware.
Che cosa sono le GPU per l’AI
Le GPU (Graphics Processing Unit) nascono per gestire la grafica dei videogiochi: tante operazioni semplici, eseguite in parallelo su moltissimi pixel. Proprio questa capacità di elaborare in parallelo grandi quantità di dati le rende ideali anche per l’AI.
Nel contesto dei modelli linguistici e delle reti neurali, una GPU è un processore con:
- molti core, ognuno meno potente di quelli di una CPU, ma estremamente efficiente su operazioni ripetitive;
- una gestione della memoria ottimizzata per spostare grandi matrici di numeri;
- istruzioni specializzate per operazioni vettoriali e matriciali, alla base di gran parte dei calcoli nelle reti neurali.
In sintesi: dove la CPU è generica e flessibile, la GPU è specializzata in calcoli massicci e paralleli, perfetti per l’AI moderna.
Cosa fanno concretamente durante training e inferenza
Nei modelli Transformer, la maggior parte del lavoro si riduce a moltiplicazioni di matrici e operazioni su vettori (Art. 20.1, 20.2, 20.3, 20.4). Le GPU sono progettate proprio per questo.
-
Durante l’addestramento
Le GPU:- elaborano in parallelo grandi batch di esempi (frasi, immagini, coppie input–output);
- calcolano avanti e indietro i passaggi nella rete (forward e backpropagation);
- contribuiscono al calcolo del gradiente e all’aggiornamento dei parametri (Art. 60.13–60.16).
-
Durante l’inferenza
Le GPU:- accelerano il passaggio del prompt attraverso i layer del modello;
- permettono di servire molte richieste in parallelo;
- riducono la latenza, cioè il tempo che passa tra il tuo input e l’output del modello.
In alcuni scenari specifici si usano alternative (TPU, CPU ottimizzate, ASIC), ma il principio resta lo stesso: serve hardware progettato per calcolo numerico massivo e parallelo.
Cosa ricordare in pratica
- Le GPU non “rendono l’AI più intelligente”: la loro funzione è accelerare i calcoli.
- Senza GPU (o hardware equivalente) l’addestramento di grandi modelli sarebbe estremamente lento e costoso.
- In inferenza le GPU permettono di servire molti utenti con tempi di risposta ragionevoli.
- Quando si parla di “costi dell’AI” una parte importante è proprio il costo delle GPU e dell’infrastruttura necessaria a farle lavorare.
Perché le GPU contano nel W.I.L.A.I. LAB
Nel Codice W.I.L.A.I., capire il ruolo delle GPU serve a collegare le scelte tecniche alle implicazioni pratiche: tempi di risposta, costi per utente, sostenibilità di certe soluzioni a scuola o in azienda.
Nel W.I.L.A.I. LAB questo si traduce in domande concrete:
- ha senso usare un grande modello in cloud o basta un modello più piccolo (magari compresso, Art. 20.14) eseguito su hardware più modesto?
- quali attività richiedono davvero potenza GPU continua e quali possono essere eseguite in modo asincrono o con modelli leggeri?
- come cambiano i costi se una scuola o un’azienda decide di avere una parte di infrastruttura AI on-premise?
Sapere “che cosa fanno davvero” le GPU non è un dettaglio tecnico: è una parte dell’alfabetizzazione che ti permette di leggere con lucidità offerte commerciali, promesse di performance e discussioni su costi, scalabilità e impatto ambientale dell’AI.
Per avere una visione completa del rapporto tra modelli e hardware, collega questa scheda a Art. 20.10 – Come nasce una risposta: dal prompt all’output e Art. 20.14 – Modelli compressi: stessa potenza, meno risorse, che mostrano cosa deve essere calcolato e come si può ottimizzarlo. Prosegui poi con Art. 20.16 – Quanto costa davvero addestrare un modello avanzato, che entra nel merito dell’impatto economico delle GPU, e con Art. 60.7 – Rete neurale, per un supporto visivo sui calcoli che le GPU accelerano. Insieme offrono un quadro chiaro di perché l’hardware è parte integrante dell’AI, non un dettaglio secondario.