Schnellster KI-Hochleistungsserver geht an den Start

Fünf Billiarden Rechenoperationen pro Sekunde: Am Forschungszentrum L3S geht der zurzeit schnellste Hochleistungsrechner für Künstliche Intelligenz (KI) in Betrieb. Das Gerät soll insbesondere für IIP-Ecosphere eingesetzt werden. Europaweit gehört das L3S zu den ersten Anwendern, bei denen der Nvidia DGX-A100 installiert wurde. Der neue Rechner ermöglicht die zurzeit schnellste Bearbeitung im Bereich des maschinellen Lernens, verbraucht aber rund 75 Prozent weniger Strom als sein Vorgänger.

Ziel ist, den Einsatz von KI in der Produktion zu beschleunigen und zu optimieren. Die dafür erforderlichen Modelle des maschinellen Lernens – insbesondere des Deep Learning – benötigen für das Training sehr umfangreiche Datensätze, einen entsprechend großen Speicher sowie zahlreiche Grafikprozessoren mit einer extrem schnellen Verbindung untereinander. Mit einem GPU-Gesamtspeicher von 320 Gigabyte und einer Bandbreite von 12,4 Terabyte pro Sekunde bietet der neue Server am L3S eine KI-Leistung von fünf PetaFLOPS, also fünf Billiarden Rechenoperationen pro Sekunde, sowie die neuesten Hochgeschwindigkeitsverbindungen.

Unternehmen können von dem neuen Hochleistungsserver am L3S unmittelbar profitieren. IIP-Ecosphere wird das System in ein Experimentierfeld für die intelligente Produktion einbinden. Neben den Projektpartnern können dann kleinere Unternehmen mit Unterstützung des L3S KI-Ansätze erproben, ohne direkt in die Infrastruktur investieren zu müssen.

 

Technische Daten des DGX A100

  • Acht NVIDIA A100 Tensor Core GPUs mit 5 Petaflops KI-Leistung und 320 GB GPU-Gesamtspeicher mit einer Bandbreite von 12,4 TB pro Sekunde.
  • Sechs NVIDIA NVSwitch™ verbinden Fabrics mit NVIDIA NVLink® Technologie der dritten Generation für 4,8 TB pro Sekunde bidirektionaler Bandbreite.
  • Neun Mellanox ConnectX-6 HDR-Netzwerkschnittstellen mit 200 Gb pro Sekunde, die insgesamt 3,6 TB pro Sekunde an bidirektionaler Bandbreite bieten.
  • Mellanox In-Network Computing und Netzwerkbeschleunigungs-Engines wie RDMA, GPUDirect® und Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™, um höchste Leistung und Skalierbarkeit zu ermöglichen.
  • 15 TB Gen4 NVMe interner Speicher, der 2x schneller als Gen3 NVMe SSDs ist.
  • NVIDIA DGX Softwarestack, der optimierte Software für KI- und Datenwissenschafts-Workloads enthält, die maximale Leistung bietet und Unternehmen eine schnellere Rendite ihrer Investitionen in die KI-Infrastruktur ermöglicht.
Schnellster KI-Hochleistungsserver geht an den Start