INTEL

Intel® Core™ Prozessoren

Intel's Rechenzentrums-Lösungen besitzen integrierte Raytracing-Hardware, Grafikbeschleunigung und Funktionen für maschinelles Lernen für die Bereitstellung von mehr Leistung. 

Boston setzt die neuesten Intel Xeon CPUs in den Boston Server und Storage Lösungen ein und ist langjähriger Intel-Partner.

INTEGRIERTE BESCHLEUNIGUNG

SKALIERBARE INTEL® XEON® CPUs

Die skalierbaren Intel® Xeon® Prozessoren der 4. Generation (Sapphire Rapids) enthalten einen neuen Performance-Maßstab. Sie verfügen über integrierte Beschleuniger und fortschrittliche Sicherheitsmechanismen für anspruchsvollste Workload-Anforderungen zur Verbesserung von KI, Analyse, Netzwerk, Speicher, HPC und Sicherheit.

HPC Hardware-Beschleuniger

Intel Xeon CPU Beschleuniger

Die skalierbaren Intel® Xeon® Prozessoren der 4. Generation bieten für HPC-Workloads eine hohe Leistung pro Core, eine höhere Anzahl von Cores, verbesserte I/O- und Speicher-Subsysteme und eine Reihe von integrierten Hardware-Beschleunigern.

Nahtlos integrierte Beschleuniger beschleunigen die Datenbewegung und -komprimierung für eine schnellere Vernetzung, erhöhen den Abfragedurchsatz für reaktionsschnellere Analysen, und erzielen durch ihre dynamische Verteilung über mehrere Cores einen Lastenausgleich innerhalb des Datenmanagements.

Mit der Entlastung der CPU-Core-Ressourcen sorgen integrierte Beschleuniger für eine höhere Leistung bei Anwendungen, niedrigere Kosten und eine verbesserte Energieeffizienz. Sie unterstützen damit Unternehmen dabei, nachhaltiger zu sein.

HPC-Hardware-Beschleuniger von INTEL: Die HPC-Engine's

Maschinelles Lernen erweist sich als effektiv bei der Optimierung von HPC-Workloads, um effizienter und effektiver zu sein. Intel® AMX (Advanced Matrix Extensions) ist ein integrierter Hardware-Beschleuniger, der durch Beschleunigung der Tensor-Verarbeitung einen deutlichen Leistungssprung bei Inferenz und Training ermöglicht. Die Tensor-Verarbeitung ist das Herzstück von Deep-Learning-Algorithmen. Intel AMX verbessert die Leistung von Deep-Learning-Schulung und Inferenz auf der CPU ohne zusätzliche Hardware. Im Bereich KI ist er ideal für Workloads wie z. B. der Verarbeitung von natürlicher Sprache, Empfehlungssysteme und in der Bilderkennung. Im Bereich HPC verbessert Intel® AMX Deep Learning erheblich, um HPC/AI-Aufgaben wie Risiko- und Betrugserkennung, genomische Sequenzierung, Klimaforschung und mehr zu beschleunigen.
Video

INTEL® IAA

Intel® Xeon® Scalable Prozessoren der 4. Generation mit dem Intel® In-Memory Analytics Accelerator bieten Komprimierung und Dekomprimierung mit sehr hohem Durchsatz in Kombination mit analytischen Funktionen.  Intel® In-memory Analytics Accelerator (IAA) beschleunigt die Ausführung von Datenbank- und Analyse-Anwendungen. Er ist ideal geeignet als In-Memory-Datenbank, Open-Source-Datenbank und als Datenspeicher.

INTEL® DSA

Intel® Data Streaming Accelerator sorgt innerhalb von Analyse-Anwendungen für hohe Leistung bei Datenspeicher-, Netzwerk- und datenintensiven Aufgaben durch Verbesserungen beim Transport und der Transformation von Streamingdaten. Im Bereich HPC beschleunigt er die Datenübertragung zwischen CPU, Arbeitsspeicher und Cache sowie allen angeschlossenen Arbeitsspeicher-, Datenspeicher- und Netzwerkeinheiten. Bei der Datenspeicherung steigert der Beschleuniger die Zahl der I/O-Operationen pro Sekunde und reduziert die Latenz, was den Transport der Daten zwischen CPU, Arbeitsspeicher und Cache sowie angeschlossenen Arbeits- und Datenspeichereinheiten beschleunigt.

INTEL® QAT

Beschleunigte Verschlüsselung und Komprimierung: Intel® Quick Assist-Technik Technology kann im Netzwerk die Verschlüsselung, Entschlüsselung und Kompression erheblich beschleunigen und so den Verbrauch von Systemressourcen reduzieren. Als Analyse-Engine beschleunigt Intel® QAT die Kompression/Dekompression von Daten für schnellere Datenbanksicherungen und entlastet die CPU-Kerne für eine effizientere Verarbeitung. Bei der Datenspeicherung erhöht es die Leistung von Datenspeicheranwendungen durch Beschleunigung der Datenkompression/Dekompression und der Verschlüsselung.

Intel® DLB

Dynamischer Lastenausgleich: Intel® Dynamic Load Balancer ist eine neue Beschleunigungstechnologie mit umfangreichen Hardware-Warteschlangenverwaltungsfunktionen, die neue Möglichkeiten für die Softwareoptimierung bietet.

INTEL SICHERHEITS-ENGINE

Intel® Software Guard Extensions (Intel® SGX) sorgt für einen verstärkten Schutz der Daten im gespeicherten Zustand, bei der Übertragung und bei der Verarbeitung. Intel SGX ist aktuell die am meisten erforschte, aktualisierte und eingesetzte Confidential-Computing-Technik in Rechenzentren auf dem Markt.

GPU (Grafikkarten) von Intel

INTEL® DATA CENTER GPU

INTEL MAX

Die Intel® Data Center GPU Max Serie ist eine leistungsstarke Universal GPU mit hoher Dichte.

Sie ist mit mehr als 100 Milliarden Transistoren auf 47 aktiven Kacheln und bis zu 128 Xe-HPC-Cores ausgestattet.

Die Intel GPU Max Serie wurde für den Bereich HPC entwickelt

Intel® Data Center GPU

Intel Flex Serie

Die Intel® GPU Flex-Serie ist flexibel, robust und eine offene GPU-Lösung. Sie ist universell einsetzbar, da sie eine Vielzahl von IT-Workloads unterstützen kann - von Medien-Streaming und Cloud-Gaming, dem Support für visuelle KI-Inferenz und Workloads für virtuelle Desktop-Infrastruktur (VDI).

Die GPUs sind mit Serverfunktionen ausgestattet und bieten hohe Zuverlässigkeit, Verfügbarkeit und Skalierbarkeit.

Fortschrittliche KI-Beschleunigung für Unternehmen

Gaudi 3 GPU

Intel Gaudi 3 bietet eine leistungsstarke Alternative zu NVIDIA-GPUs für KI, Deep Learning und HPC-Workloads.

Gaudi 3 besitzt folgende Highlights:

  • 4x BF16 Rechenleistung
  • 2x Netzwerkbandbreite
  • 1,5x Speicherbandbreite
  • 50 % kürzere Trainingszeiten bei GPT-3
  • Offene, skalierbare Architektur mit 24×200 GbE-Ports
  • Bis zu 2,3-fache Leistung pro Dollar gegenüber NVIDIA H100

Testen Sie Gaudi 3 jetzt bei Boston!

Beschleuniger für KI-Workloads

Gaudi 2 GPU

Der Habana Gaudi2 Prozessor ist die zweite Generation von KI-Prozessoren für Training und Inferencing.

Gaudi2 besitzt folgende Highlights:

  • 7nm Prozess-Technologie
  • Heterogene Berechnungen (Compute)
  • 24 Tensor-Prozessor-Cores
  • Zwei Matrix-Multiplikations-Engines
  • 24 100-Gigabit-Ethernet auf dem Chip integriert
  • 96 GB HBM2E-Speicher auf dem Chip
  • 48 MB SRAM
    Integrierte Mediensteuerung

Die Gaudi-Beschleunigungs-Plattform wurde für die Trainings- und Inferenzanforderungen von KI in großem Maßstab entwickelt und bietet Unternehmen und Organisationen leistungsstarke, hocheffiziente Deep-Learning-Rechenleistung.

Lese unsere Artikel

Immer auf dem Laufenden

Newsletter-Anmeldung

Erhalte regelmäßige Updates über IT-Produkte, Lösungen und neueste Trends auf dem IT-Markt von Boston. Melde Dich hier an, um Bestandteil in unserem exklusiven Newsletter-Verteiler zu sein.

Dieses Feld dient zur Validierung und sollte nicht verändert werden.
+49 89 90901993
envelope
sales@boston-it.de