Waarom het ontwikkelen en installeren van AI-technologie op werkstations een logische keus is
Tegenwoordig werken veel bedrijven hard aan AI-initiatieven, waaronder generatieve AI, waarvoor geen supercomputer nodig is. Veel AI-ontwikkeling, en in toenemende mate ook AI-implementatie, met name aan de edge, vindt namelijk plaats op krachtige workstations. Workstations bieden talloze voordelen voor de ontwikkeling en implementatie van AI. AI-wetenschappers en ontwikkelaars hoeven niet langer te onderhandelen over servertijd en kunnen beschikken over GPU-acceleratie, zelfs als servergebaseerde GPU’s nog steeds niet eenvoudig beschikbaar zijn in het datacenter. Daarnaast zijn ze extreem betaalbaar ten opzichte van servers en vereisen ze een slechts kleinere, eenmalige uitgave in plaats van een snel oplopende rekening voor een cloud-instantie. En dan is er ook nog het comfort van de wetenschap dat gevoelige data veilig on-premise worden opgeslagen. Hierdoor bevrijden ze de wetenschappers en ontwikkelaars ook van de zorg dat ze hoge kosten maken terwijl ze goed beschouwd alleen maar experimenten met AI-modellen uitvoeren.
IDC ziet de edge als scenario voor AI-implementatie sneller groeien dan on-premise of de cloud. Ook hier spelen workstations een steeds belangrijkere rol als platforms voor AI-deducering, waarbij vaak niet eens GPU’s nodig zijn, maar deducering in plaats daarvan wordt uitgevoerd op softwarematig geoptimaliseerde CPU’s. De gebruiksscenario’s voor AI-deducering op workstations aan de edge groeien snel en omvatten AIOps (asynchrone input/output per seconde), respons bij noodgevallen, radiologie, olie- en gasexploratie, landbeheer, telegezondheidszorg, verkeersleiding, bewaking van productiefaciliteiten en drones.
In deze whitepaper wordt gekeken naar de steeds grotere rol die workstations spelen bij de ontwikkeling en implementatie van AI en wordt kort de Dell portfolio van workstations voor AI besproken, Aangedreven door NVIDIA RTX GPUs