Rinnovabili • Impatto ambientale IA: il 90% dipende dall’uso quotidiano Rinnovabili • Impatto ambientale IA: il 90% dipende dall’uso quotidiano

Quanto è grande l’impatto ambientale dell’IA e come possiamo ridurlo

Dal pruning al carbon-aware scheduling, dall’utilizzo di chip ottimizzati per l’intelligenza artificiale all’aumento della quota di rinnovabili nel mix elettrico che alimenta i data center. Un rapporto del Politecnico di Milano analizza i fattori che incidono sui consumi energetici dei modelli IA e suggerisce strategie per mitigarli

Impatto ambientale IA: il 90% dipende dall’uso quotidiano
via depositphotos.com

Fare una domanda a una chatbot basata sull’intelligenza artificiale può consumare fino a 10 volte più energia rispetto a una ricerca sul web tradizionale (2,9 Wh contro 0,3 Wh). Ridurre questi consumi è cruciale: l’attenzione per il recente caso di DeepSeek (bloccato in Italia ieri dal garante della privacy) lo dimostra. Ma come riuscirci? L’IA generativa consuma grandi quantità di elettricità, ma non tanto nella fase di addestramento. L’80-90% del consumo energetico deriva dall’inferenza, cioè dall’uso quotidiano dei modelli. Quali sono allora le strategie migliori per ridurre l’impatto ambientale dell’IA?

A questa domanda prova a rispondere il rapporto Digitalization & Decarbonization Report 2024, redatto dall’Energy&Strategy della School of Management del Politecnico di Milano, che dedica un approfondimento ai consumi energetici dell’intelligenza artificiale.

Impatto ambientale dell’IA, da cosa dipende e come ridurlo?

L’impatto ambientale dell’IA dipende fortemente dalla fonte energetica utilizzata nei data center e dall’efficienza hardware e software. Oltre a ottenere un mix elettrico sempre più decarbonizzato, per ridurre l’impronta di CO2 dell’intelligenza artificiale bisogna agire su due fronti, spiega il rapporto: a livello di algoritmo e di hardware.

Il PoliMi identifica 6 fattori principali che incidono sui consumi energetici dell’IA:

  • Specifiche tecniche dei chip: Processori più avanzati possono ridurre il consumo energetico migliorando l’efficienza computazionale.
  • Workload: L’uso continuo dei modelli AI nei data center determina un elevato fabbisogno energetico.
  • Design dei data center: La loro configurazione influisce sull’efficienza energetica complessiva.
  • Sistemi di raffreddamento: Un raffreddamento inefficiente aumenta i consumi.
  • Fonte dell’elettricità: L’uso di energie rinnovabili nei data center può ridurre significativamente le emissioni di CO₂.
  • Ottimizzazione software: Tecniche di compressione dei modelli e inferenza più efficiente riducono l’impatto ambientale.

Per avere un ordine di grandezza e capire quanto incidono addestramento e uso quotidiano, gli autori del rapporto prendono 3 dei principali modelli di IA generativa: GPT-3 di OpenAI, Llama 2 di Meta e PaLM di Google.

Quanto consumano? Per l’addestramento, il training di un solo modello può consumare energia equivalente a quella di 260 famiglie per un anno. Nel dettaglio:

ModelloParametri (miliardi)Consumo energetico (MWh)Emissioni CO2 (t)
GPT-3 (OpenAI)1751.287 (circa 18 viaggi a/r Milano – Roma con un Frecciarossa)552
Llama 2 (Meta)70688 (illuminazione di un quartiere per circa un mese)291,4
PaLM (Google)5403.436 (un mese di produzione di un grande impianto industriale)271,4

Più aumentano i parametri (un indicatore della complessità del modello), più aumentano i consumi.

L’inferenza, invece, consuma appena il 10-20% dell’energia totale di un modello. Ma viene eseguita milioni di volte al giorno. E vista la quantità di energia richiesta, lungo l’intera durata di vita di un modello IA è questa la voce più pesante in termini di consumi: può arrivare attorno all’80-90% del totale.

Come agire per abbattere l’impatto ambientale dell’IA? Il rapporto suggerisce alcune strategie di mitigazione:

  1. Ottimizzazione algoritmica:
    • Pruning e quantizzazione: riduzione della complessità dei modelli.
    • Knowledge distillation: creazione di versioni più leggere dei modelli.
    • Batch size e mixed-precision training: miglioramento dell’efficienza di training e inferenza.
  2. Efficienza hardware:
    • Utilizzo di chip ottimizzati per l’AI.
    • Progettazione di architetture più efficienti.
  3. Ottimizzazione operativa:
    • Carbon-aware scheduling: esecuzione di carichi di lavoro AI quando l’energia rinnovabile è più disponibile.
    • Green AI: sviluppo di modelli più sostenibili.
  4. Spostamento dei workload:
    • Federated Learning e Edge Computing per ridurre la necessità di grandi data center centralizzati.
  5. Uso di energie rinnovabili per alimentare i data center.

About Author / La Redazione