Nvidia AI Enterprise fügt Produktionsunterstützung für virtualisierte Workloads in Softwarecontainern hinzu

Nvidia Corp. sind am Arbeiten. Biene KI-Unternehmen Softwareplattform mit Produktionsunterstützung für containerisierte Workloads mit künstlicher Intelligenz auf VMware vSphere mit Tanzu.

Heute Aktualisierung bedeutet, dass Unternehmen Nvidia AI Enterprise 1.1 verwenden können, um beschleunigte KI-Workloads auf vSphere sowohl in Kubernetes-Containern als auch in virtuellen Maschinen auszuführen.

Die Plattform ist eine Suite von KI-Tools und Frameworks, die eine schlüsselfertige Lösung für Unternehmen sein soll, die KI-Workloads in ihren eigenen Rechenzentren oder in der Cloud ausführen möchten. Letztes Jahr gestartetermöglicht es Unternehmen, KI-Workloads auf Nvidia-zertifizierten Serversystemen zu virtualisieren und auszuführen.

Der Vorteil besteht darin, dass diese Workloads über eine einzige Plattform verwaltet werden können. Unternehmen können auch eine KI-fähige Infrastruktur näher am Ort ihrer Daten bereitstellen, was schnellere Schulungszeiten bedeutet.

Laut Nvidia war eine der wichtigsten Anfragen seiner Kunden die Produktionsunterstützung für die Ausführung von KI-Workloads auf VMware vSphere mit Tanzu, einem Dienst, der es ermöglicht, KI sowohl auf Containern als auch auf VMs in einer vSphere-Umgebung bereitzustellen. Mit dem heutigen Update erhalten Kunden einen integrierten, vollständigen Stapel containerisierter Software und Hardware, der vollständig verwaltet und für KI optimiert ist, sagte Nvidia.

AI Enterprise kann lokal auf den eigenen Servern des Kunden oder als Service auf der Bare-Metal-Infrastruktur des Rechenzentrumsanbieters Equinix Inc. an neun Standorten weltweit ausgeführt werden.

Das Unternehmen sagte, dass VMware vSphere mit Tanzu-Unterstützung bald zum Nvidia LaunchPad-Programm für KI-Enterprise hinzugefügt wird, was bedeutet, dass Kunden neue KI-Aufgaben kostenlos in verwalteten Labors testen und prototypisieren können, die von Equinix gehostet und für KI-Praktiker entwickelt wurden. Nvidia sagte, das Ziel der Labs sei es, zu zeigen, wie gängige KI-Workloads wie Chatbots und Empfehlungsmaschinen mithilfe seiner Plattform auf VMware vSphere mit Tanzu entwickelt und verwaltet werden können.

Kunden können auch sofort loslegen und AI Enterprise auf implementieren zertifizierte Server von mehreren Partnern, darunter Dell Technologies Inc., Hewlett Packard Enterprise Co., Inspur Inc., Lenovo Group Ltd., Gigabyte Technology Co. GmbH. und Super Micro Computer Inc.

Unternehmen werden auch einige neue Serveroptionen von Drittanbietern haben, da Cisco Systems Inc. und Hitachi Vantara Ltd. nutzten auch die Gelegenheit, heute ihre ersten Nvidia-zertifizierten Systeme anzukündigen. Ciscos UCS C240 ​​​​M6 Rack Server wird betrieben von: Nvidias A100 Tensor-Core-Grafikverarbeitungseinheiten und entwickelt, um eine Reihe von speicher- und leistungsintensiven Anwendungen zu betreiben, einschließlich Big-Data-Analysen, Datenbanken, Virtualisierung und High-Performance-Computing. Der Advanced Server DS220 G2 von Hitachi mit Nvidia A100 Tensor Core-GPUs ist eher ein Allzweckserver, der für Leistung und Kapazität optimiert ist, um ein Gleichgewicht zwischen Rechenleistung und Speicher bereitzustellen.

Schließlich fügt die Veröffentlichung von Nvidia AI Enterprise 1.1 auch Unterstützung hinzu für: Domino Data Lab Inc.’s Enterprise MLOps-Plattform mit VMware vSphere mit Tanzu. Nvidia sagte, die Integration werde es Unternehmen ermöglichen, ihre Data-Science-Initiativen kostengünstig zu skalieren, indem sie die Forschung, die Modellentwicklung und schließlich die Bereitstellung auf Mainstream-GPU-Servern beschleunigen.

Gary Chen, Analyst bei International Data Corp., sagte, dass die meisten KI-Praktiker es vorziehen, Workloads in Anwendungscontainern bereitzustellen, wenn sie können. Das Problem ist, dass dies äußerst komplex ist und mehrere Ebenen des Stacks aktiviert werden müssen, einschließlich des KI-Software-Frameworks, des Betriebssystems, der virtuellen Maschine und sogar der Hardware.

„Schlüsselfertige Full-Stack-KI-Lösungen können die Implementierung erheblich vereinfachen und die KI im gesamten Unternehmen zugänglicher machen“, sagte Chen.

Bilder: Nvidia

Zeigen Sie Ihre Unterstützung für unsere Mission, indem Sie unserer Experten-Community Cube Club und Cube Event beitreten. Treten Sie der Community bei, zu der Andy Jassy, ​​CEO von Amazon Web Services und Amazon.com, Michael Dell, Gründer und CEO von Dell Technologies, Pat Gelsinger, CEO von Intel, und viele weitere Prominente und Experten gehören.

Leave a Reply

Your email address will not be published. Required fields are marked *

Previous post Das israelische Cloud-native Datensicherheits-Startup Polar Security startet mit einer Finanzierung von 8,5 Millionen US-Dollar
Next post In einem neuen kanadischen Startup-Rekord sammelt 1Password 620 Millionen US-Dollar bei einer Bewertung von 6,8 Milliarden US-Dollar