Continuare a pensare a Nvidia come una azienda che fa GPU è oggi riduttivo. L’azienda guidata da Jensen Huang è chiaramente un leader tecnologico che sviluppa un’idea di computing matura ed estesa, basata non solo su chip ma su una completa infrastruttura, che innova ogni aspetto anche grazie alla sua filiera di partner. La parte forse più interessante della pur amplissima proposta di Nvidia è probabilmente il digital twin.
E’ poetica la visione di Huang relativamente al metaverso e al digital twin: “ora la AI percepisce il mondo e lo comprende (…), grazie a tre diversi sistemi che compongono un sistema end-to-end”, ha detto al GTC di marzo 2024. I tre sistemi sono DGX, per le AI; OVX, in cloud; AGX, per parlare con i robot.
Il cuore del sistema è Omniverse, il sistema operativo OVX specifico per i digital twin, che continua ad essere aggiornato e confermato. Resta il fatto che oggi il digital twin non è solo per il magazzino o l’industria, ma anche per la smart city e purtroppo anche per gli scenari di guerra.
API Omniverse Cloud
Al GTC sono state annunciate anche cinque nuove API Omniverse Cloud. Sono tutte basate sulla specifica dati OpenUSD, Universal Scene Description. Omniverse Channel collega utenti, strumenti e mondi nella collaborazione tra scene; Render (ray-tracing), Write (modifica), Query (su scene e scenari interattivi), Notifica (per modifiche e aggiornamenti).
Anche Siemens ha confermato la sua partecipazione a Omniverse: visto quello che fa nel digital twin, la sua presenza è rilevantissima.
Continuano anche tutte le forme di collaborazione per digital twin come le auto a guida autonoma e smart city. Nell’espansione grafica verso gli umani va segnalata l’estensione di Omniverse al Vision Pro di Apple, col quale si potranno vedere (manipolare?) le nostre creazioni 3D.
Refik Anadol e il Large Nature Model
La presentazione di Huang è stata anticipata da un’altra sorpresa, che conferma la sensibilità sua e dell’azienda verso rappresentazioni non solo tecniche dei big data e dell’AI. L’enorme media wall dell’evento, 20×40 metri, con risoluzione 16k, è stato usato al massimo per rappresentare Large Nature Model / Living Art, la scultura vivente basata su dati AI in tempo reale del tecnoartista Refik Anadol. L’Osservatorio Metaverso aveva già incontrato il suo lavoro Floral Pigmentation a Roma.
“Insieme ai ricercatori Nvidia abbiamo perfezionato il modello fondamentale di Getty Image con il nostro set 2,5 milioni di dati etici “, ha detto Refik. Un video dell’evento è disponibile sulla sua pagina Linkedin.