Warum die Entwicklung und Bereitstellung von KI-Technologie auf Workstations sinnvoll ist
Heutzutage arbeiten viele Unternehmen engagiert an der Umsetzung ihrer KI-Initiativen, einschließlich generativer KI, für die keine Supercomputer erforderlich sind. Tatsächlich erfolgt ein Großteil der KI-Entwicklung – und zunehmend auch der KI-Bereitstellung, insbesondere am Edge – auf leistungsstarken Workstations. Sie bieten zahlreiche Vorteile für die KI-Entwicklung und -Bereitstellung. Beispielsweise müssen KI-WissenschaftlerInnen oder -EntwicklerInnen keine Serverzeit mehr aushandeln, denn Workstations stellen die GPU-Beschleunigung bereit. Das ist wichtig, weil serverbasierte GPUs nach wie vor nicht in allen Rechenzentren vorhanden sind. Im Vergleich zu Servern sind sie zudem ausgesprochen kostengünstig und eine Einmalausgabe (anstatt einer schnell ansteigenden Rechnung für eine Cloud-Instanz). Außerdem bieten sie die Gewissheit, dass sensible Daten sicher in On-Premise-Speichern geschützt sind. Somit müssen sich WissenschaftlerInnen und EntwicklerInnen auch keine Sorgen mehr über steigende Kosten machen, wenn sie nur mit KI-Modellen experimentieren möchten.
Bei KI-Bereitstellungsszenarien sieht IDC den Edge in einer dominanteren Funktion als On-Premise- oder Cloud-Instanzen. Auch hier kommt den Workstations als Plattform für die KI-Inferenzierung eine zunehmend wichtigere Rolle zu. Häufig sind nämlich keine GPUs erforderlich, sondern die Inferenz lässt sich auf den softwareoptimierten CPUs ausführen. Die Anwendungsfälle für die KI-Inferenzierung auf Workstations am Edge nehmen schnell zu und umfassen AIOps, Katastrophenhilfe, Radiologie, Erdöl- und Erdgasexploration, Bodenbearbeitung, Telemedizin, Verkehrsregelung, Überwachung des Fertigungswerks und Drohnen.
In diesem Whitepaper wird die zunehmende Rolle von Workstations bei der KI-Entwicklung und -Bereitstellung beleuchtet. Außerdem stellen wir kurz das Dell Portfolio an Workstations für den KI-Bereich vor angetrieben von NVIDIA RTX GPUs.