KI-Lösungen bei Boston

NVIDIA DGX Plattform

Die NVIDIA DGX Plattform vereint NVIDIA Hardware, Software und Expertise in einer einheitlichen KI-Lösung.

Boston ist ein NVIDIA Elite Partner und ein NVIDIA DGX Partner und bietet die NVIDIA DGX Lösung seinen Kunden an.

 

KI-Lösungen von NVIDIA

NVIDIA DGX

NVIDIA DGX ist eine Serie von Hochleistungs-Computing Systemen, die speziell für Deep Learning und AI-Workloads entwickelt wurden.

Die NVIDIA DGX H100 ist mit mehreren NVIDIA H100 GPUs ausgestattet, verfügt über schnelle NVLink-Verbindungen und eine vollständig integrierte Software-Suite, die führende Deep Learning-Frameworks enthält. Sie bietet somit eine All-in-One-Lösung für KI-Anwender und Wissenschaftler.

Seit 2024 sind weitere DGX-Systeme (H200, B200, SuperPod) im Markt, die Sie weiter unten beschrieben finden.

Warum NVIDIA DGX?

Der Mehrwert der NVIDIA DGX Plattform besteht darin, das KI Training und Inferenz erheblich beschleunigt werden und so die Zeit und der Aufwand zur Entwicklung und Implementierung von KI Modellen reduziert werden.

Durch die Kombination von leistungsstarker Hardware und optimierter Software in einem einzigen System zielt die DGX darauf ab, den AI-Entwicklungsprozess zu vereinfachen und zu beschleunigen. DGX beschleunigt die AI-Prozesse in der Industrie und in öffentlichen Institutionen.

Mehrwerte der Lösung

DGX, die KI-Lösung

DGX ist die ideale Lösung für alle  Unternehmen, die zeitnah und einfach KI im produktiven Einsatz haben wollen.

Unterstützung durch Software-Hub

Zugriff auf den NGC-Katalog, einen GPU-optimierten Software-Hub für KI, maschinelles Lernen und HPC, mit vorab trainierten Modellen und AI-Workflows. Der NGC-Katalog beschleunigt End-to-End-Workflows mit Containern der Enterprise-Klasse, vorab trainierten KI-Modellen und branchenspezifischen SDKs, die lokal, in der Cloud oder in der an der Edge bereitgestellt werden können.

Einfache Administration

Einfache Administration über NVIDIA Base Command, dem Betriebssystem des NVIDIA DGX Rechenzentrums.

Leistungsstark

DGX als KI-Lösung ist eine leistungsstarke, hochgradig skalierbare Plattform mit 32 PFLOPS FP8 AI Compute.

Übergreifender Support

Für die DGX erhält der Kunde direkten Support für die Software sowie die Hardware durch NVIDIA Experten.

Individuelle Performance Optimierung

Performance Optimierung durch NVIDIAs AI Experten.

DER GOLDSTANDARD FÜR KI-INFRASTRUKTUR

NVIDIA DGX H100

Als weltweit erstes System mit dem NVIDIA H100 Tensor Core Grafikprozessor durchbricht der NVIDIA DGX H100 die Grenzen der KI-Skalierung und Leistung.

NVIDIA DGX H100 bietet:

  • die 9-fache Leistung,
  • 2-fache Netzwerkgeschwindigkeit mit NVIDIA ConnectX®-7 Smart Network Interface Cards (SmartNICs) und
  • Hochgeschwindigkeitsskalierbarkeit für NVIDIA DGX SuperPOD.

ANWENDUNG

Die Architektur der nächsten Generation ist für die größten und komplexesten KI-Aufgaben wie generative KI, Verarbeitung natürlicher Sprache und Deep-Learning-Empfehlungsmodelle bestens geeignet.

KI FÜR UNTERNEHMEN

NVIDIA DGX H200

NVIDIA DGX H200 ist ein Hopper-basiertes DGX-System mit acht H200 Tensor Core GPUs und 1,1 TB GPU-Speicher.

DAS BESTE DARAN: Dies ist fast doppelt so viel GPU-Speicher, wie beim DGX H100 zum gleichen Preis und ist AB AUGUST 2024 im Markt verfügbar.

Der größere Speicher der DGX H200 erleichtert das Trainieren größerer Modelle und ist ideal für die Inferenz extrem großer Modelle für generative KI.

IDEALE ANWENDUNGSGEBIETE

DGX H200 eignet sich am besten für kurzfristige Gelegenheiten mit optimalem Preis-Leistungs-Verhältnis und wird voraussichtlich im August 2024 ausgeliefert.

KI-Infrastruktur für jeden Workload

NVIDIA DGX B200

NVIDIA DGX B200 ist die Top-Option unter den luftgekühlten DGX-Systemen.

Seine Blackwell-basierte Architektur bietet eine 3-fache Trainings- und 15-fache Inferenzleistung gegenüber einem Hopper-basierten DGX.


BESONDERHEITEN

Als einheitliche KI-Plattform für Development-to-Deployment-Pipelines kann die DGX B200 verschiedene Workloads wie große Sprachmodelle, Empfehlungssysteme und Chatbots verarbeiten - ideal für Unternehmen, die ihre KI-Transformation beschleunigen wollen.

Generative KI-Infrastruktur für Unternehmen

DGX SuperPOD mit DGX GB200 Systemen

NVIDIA DGX SuperPOD mit DGX GB200 Systemen wurde speziell für Training und Inferenzierung von generativen KI-Modellen mit Billionen von Parametern entwickelt.

KEY FACTS

Jedes flüssigkeitsgekühlte Rack enthält 36 NVIDIA GB200 Grace Blackwell Superchips (36 Grace CPUs und 72 Blackwell GPUs), die über NVIDIA NVLink als Einheit verbunden sind.

BESONDERHEITEN

Mehrere Racks können mit NVIDIA Quantum InfiniBand verbunden werden, um bis zu Zehntausende von GB200 Superchips zu skalieren.

Die nur in DGX SuperPOD-Konfigurationen erhältlichen DGX GB200-Systeme sind ab dem Jahresende 2024 lieferbar.

Häufig gestellte Fragen

Folgende Fragen zum Thema DGX erreichen uns am häufigsten. Sollten Sie andere Fragen zur Technologie haben, kommen Sie sehr gerne persönlich auf uns zu.

Die DGX ist eine hochoptimierte KI-Lösung mit Support auf Hardware und Software.

Ja, für Mitglieder des NVIDIA Inception Programms gibt es Rabatte auf die NVIDIA DGX.

Ja, für qualifizierende Institutionen gibt es einen EDU-Rabatt. Fragen Sie bei Bedarf und Interesse gerne bei uns an, wir prüfen dies für Sie.

Boston Partner im Bereich DGX

Immer auf dem Laufenden

Newsletter-Anmeldung

Erhalte regelmäßige Updates über IT-Produkte, Lösungen und neueste Trends auf dem IT-Markt von Boston. Melde Dich hier an, um Bestandteil in unserem exklusiven Newsletter-Verteiler zu sein.

This field is for validation purposes and should be left unchanged.
+43 660 2090400
envelope
sales@boston-it.at