Perché ha senso sviluppare e implementare la tecnologia IA sulle workstation
Oggi molte aziende si occupano di iniziative di IA, inclusa l’IA generativa, che non richiedono un supercomputer. Tuttavia, buona parte dello sviluppo dell’IA e, in misura sempre maggiore, del deployment dell’IA, soprattutto in corrispondenza dell’edge, viene eseguita su potenti workstation. Le workstation offrono numerosi vantaggi per lo sviluppo e il deployment dell’IA. Evitano agli scienziati e agli sviluppatori di intelligenza artificiale di negoziare l’ora del server, forniscono accelerazione delle GPU anche se le GPU basate su server non sono ancora facilmente accessibili nel data center, sono estremamente convenienti rispetto ai server e richiedono per un’istanza cloud un unico pagamento
di entità ridotta, anziché costi continuativi che si accumulano rapidamente nel tempo, con la certezza che i dati sensibili siano archiviati on-premise in una posizione sicura. In questo modo, inoltre, evitano loro l’ansia dovuta all’accumulo dei costi anche solo in fase di sperimentazione di modelli di IA.
IDC rileva una crescita più rapida dell’edge come scenario di deployment dell’IA rispetto agli ambienti on-premise e cloud. Anche in questo caso, le workstation svolgono un ruolo sempre più vitale come piattaforme di inferenza dell’IA, spesso senza neppure richiedere l’uso di GPU, ma eseguendo
l’inferenza su CPU ottimizzate per il software. I casi d’uso di inferenza dell’IA in corrispondenza dell’edge sulle workstation sono in rapido aumento e includono AIOps, risposta in caso di emergenza, radiologia, esplorazione di petrolio e gas, gestione del territorio, telemedicina, gestione del traffico, monitoraggio degli impianti di produzione e droni.
Questo white paper analizza il ruolo sempre più centrale delle workstation nello sviluppo e nel deployment dell’IA e accenna brevemente al portafoglio di workstation Dell per l’IA, offerto da NVIDIA RTX GPUs