Osservatorio Metaverso

Dal World Economic Forum (WEF) di Davos, Mark Zuckerberg ha comunicato, tramite un reel di Instagram, che Meta ha ordinato 350.000 GPU Nvidia H100. La spesa è paragonabile a metà di un bilancio finanziario italiano, per un consumo energetico superiore a quello della Lombardia. Ogni H100 consuma 700W, per un totale annuo di 1.300 GWh. Il costo totale di queste GPU si stima intorno ai 10,5 miliardi di dollari, senza considerare i costi energetici.

Ciao ciao, Europa!

Per dare un’idea della portata di questo investimento, il supercomputer italiano più potente, il Leonardo-1, ospita appena 14.000 GPU. Si, proprio il calcolatore di cui la stampa sta parlando in questi giorni perché è l’infrastruttura utilizzata dal Cineca e dall’azienda commerciale iGenius per creare il primo Foundation Large Language Model italiano. Vedremo cosa ne verrà fuori, ma difficilmente a breve termine vedremo qualcosa in grado di competere con i modelli di USA e Cina, come i media italiani spesso rilanciano.

A medio termine qualche speranza invece c’è. La strategia europea dipende in buona parte dagli sviluppi della EPI, la European Processor Initiative. Il processore Rhea (che parte con matrici esistenti, Arm e Risc V) e gli acceleratori Epac dovrebbero confluire in un sistema exascale entro il 2026. Dopo bisognerà verificare quale foundry e con quale tecnologia si svilupperà un mercato europeo. Bisognerà poi verificare la reale spinta -diretta ed indiretta- che il Chips Act europeo potrà fornire a chip di queste caratteristiche.   Tornando alle GPU, PC magazine valuta che nel 2023 i giganti tecnologici come Microsoft, Google e Amazon abbiano acquistato tra le 50.000 e le 150.000 Nvidia H100.

Osservatorio Metaverso Il primo sito italiano sul metaverso. Notizie, statistiche, opinioni e analisi. Meta: convergenza tra Metaverso e Intelligenza Artificiale

Il futuro dell’intelligenza artificiale

Nonostante un 2023 difficile per il progetto metaverso, Meta è fortemente impegnata nello sviluppo dell’IA, che viene considerata complementare al metaverso. Per favorire lo sviluppo di soluzioni innovative il team di ricerca sull’IA (FAIR) sarà fisicamente messo a contatto con quello che si occupa di progettare prodotti potenziati da IA.

Zuckerberg ha annunciato che Meta sta lavorando su LLama3, un modello di linguaggio previsto per superare ChatGPT e Gemini in tutti i test, che sarà rilasciato con licenza Open Source. E, addirittura, ha detto che vuole realizzare un’AGI (intelligenza artificiale generale, termine ambiguo per dire qualcosa “intelligente” quanto l’uomo).

 Il 2024 è previsto come l’anno dell’AI di massa, che richiederà enormi quantità di energia elettrica e risorse per il suo mantenimento, ma rappresenterà un salto qualitativo per l’uso dell’IA in dispositivi di ogni tipo.

L'autore: Leo Sorge

Leo Sorge

Divulgatore di scienze e tecnologie reali o presunte. Ha lavorato e diretto riviste di divulgazione. Ha collaborato a molti libri, tra i quali The Accidental Engineer, Lavoro contro futuro e Internetworking.
Lascia un commento