Rinnovabili

Cosa sappiamo dei consumi energetici di DeepSeek, l’IA cinese?

Consumi energetici DeepSeek: cosa sappiamo dell’IA cinese
via depositphotos.com

Il terremoto DeepSeek ha scosso listini di borsa, analisti di mercato, previsioni sui consumi elettrici e trend dei data center, la Big Tech occidentale e la politica a qualsiasi latitudine. È davvero possibile addestrare e lanciare sul mercato una chatbot spendendo solo una frazione di denaro, e usando decisamente meno energia, rispetto alle IA di OpenAI, Meta, Microsoft? Quali sono i reali consumi energetici di DeepSeek, la compagnia creata nel 2023 da Liang Wenfeng?

L’ad di Microsoft, Satya Nadella, ha definito i risultati conseguiti dall’azienda cinese con il nuovo modello di chatbot appena lanciato “impressionanti”. La stessa parola scelta da Sam Altman di OpenAI, l’azienda dietro ChatGPT. Che la settimana scorsa, insieme a Oracle e SoftBank, annunciava dalla Casa Bianca il progetto Stargate: investire 500 miliardi di dollari per un’infrastruttura IA a stelle e strisce, pilastro della futura supremazia americana nell’intelligenza artificiale.

I dati sui consumi energetici di DeepSeek: -50/75%

Un volume di investimenti che è del tutto sproporzionato rispetto a quelli che servirebbero con i costi di DeepSeek. Il costo di addestramento dichiarato dall’azienda cinese per il modello v3, precursore dell’ultimo genito R1, sarebbe 5,576 milioni di dollari. Per paragone, la spesa prevista per l’addestramento da Meta nel 2024 arrivava a 65 miliardi di dollari, quella prevista da Microsoft 80 miliardi.

Il costo dell’addestramento è direttamente proporzionale alla quantità di energia impiegata per realizzare le chatbot. Da quanto sappiamo finora – ovvero attraverso i paper di ricerca pubblicati dalla stessa DeepSeek, che dovranno essere validati da terzi – i server di DeepSeek consumano tra il 50% e il 75% in meno di energia rispetto alle più recenti unità di elaborazione grafica (GPU) di Nvidia. Questa riduzione è particolarmente rilevante per i data center, strutture che richiedono enormi quantità di energia per il funzionamento dell’intelligenza artificiale.

H800 vs H100

L’efficienza energetica di DeepSeek potrebbe quindi avere un impatto significativo sul settore energetico. Attualmente, l’infrastruttura dell’IA, soprattutto negli Stati Uniti, si basa su tecnologie molto dispendiose in termini di energia, come le GPU H100 di Nvidia. Per esempio, un cluster di 100.000 unità di questi chip richiede circa 150 MW di potenza.

In confronto, DeepSeek utilizza i chip H800 di Nvidia (gli USA vietano la vendita degli H100 alla Cina), che sono più efficienti. Un cluster equivalente basato su questi processori consumerebbe circa 75 MW, ovvero quasi la metà rispetto alle GPU H100. Questo potrebbe ridurre significativamente il fabbisogno energetico dei data center, con potenziali benefici per l’ambiente e i costi operativi.

Appena 2.000 chip per DeepSeek-V3

Come ha fatto DeepSeek a raggiungere questi risultati? Quando DeepSeek ha lanciato il suo modello V3 subito dopo Natale, ha dimostrato di poter competere con i migliori chatbot sviluppati da aziende come OpenAI e Google. Questo risultato, già notevole, è stato accompagnato da un’innovazione ancora più significativa.

Nel documento che descrive la tecnologia, il team di DeepSeek ha rivelato di aver utilizzato un numero molto inferiore di chip rispetto ai leader del settore per addestrare il proprio sistema. Mentre le grandi aziende di intelligenza artificiale fanno affidamento su supercomputer con oltre 16.000 chip, DeepSeek è riuscita a ottenere risultati simili utilizzandone appena circa 2.000. Questo approccio potrebbe rappresentare un passo avanti importante in termini di efficienza energetica e ottimizzazione delle risorse.

Exit mobile version