Sprache auswählen

Lösungen für flüssiggekühlte GPU-Beschleunigung

Der Comino Grando AI INFERENCE Server ist eine einzigartige und äußerst kosteneffiziente Lösung, die SECHS flüssigkeitsgekühlte NVIDIA 4090 GPUs mit jeweils 24 GB GDDR6X-Speicher beherbergt, was als Sweet Spot für die meisten Inferenzaufgaben in realen Workloads gilt. Die effiziente Kühlung eliminiert jegliche thermische Drosselung und bietet einen Leistungsvorteil von bis zu 50 % gegenüber ähnlichen luftgekühlten Lösungen. Neben der unübertroffenen Leistung bieten die Comino-Lösungen bis zu 3 Jahre Wartungsfreiheit, eine ebenso einfache Wartung wie bei luftgekühlten Systemen und ein ferngesteuertes Comino Monitoring System (CMS), das über API in Ihren Software-Stack integriert werden kann.

 GRANDO

Inference Produktlinie

Grando AI INFERENCE Server sind für die Ausführung von cuDNN, PyTorch, TensorFlow, Keras, JAX Frameworks und Bibliotheken vorgetestet und mit SECHS NVIDIA GPUs (A100 / H100 / L40S / 4090) gepaart mit den modernsten Hochfrequenz-Multi-Core-CPUs ausgestattet, um die beste Inferenzleistung und den besten Durchsatz für die anspruchsvollsten und vielseitigsten Workflows zu bieten.

Die Comino Grando AI INFERENCE Server sind für hochleistungsfähige Inferenzen mit geringer Latenz und Feinabstimmung von vortrainierten generativen KI-Modellen für maschinelles Lernen oder Deep Learning wie Stable Diffusion, Midjourney, Hugging Face, Character.AI, QuillBot, DALLE-2 usw. konzipiert. Einzigartige kostenoptimierte und anpassbare Multi-GPU-Konfigurationen sind perfekt für die Skalierung vor Ort oder in einem Rechenzentrum.

AI Inference Server

Comino GRANDO RM GPU Server Liquid Cooled 6x4090 front 45 closedComino GRANDO RM GPU Server Liquid Cooled 6x4090 top openComino GRANDO RM GPU Server Liquid Cooled 6x4090 back 45

 

 Grando AI Inference BaseGrando AI Inference ProGrando AI Inference Max
 GPU 6x NVIDIA RTX4090 6X NVIDIA L40S 6X NVIDIA A100/H100
 GPU Memory 6x 24GB GDDR6X 6X 48GB GDDR6 with ECC 6X 80GB/94GB HBM2e
 CPU AMD THREADRIPPER PRO 7975WX (32 CORES) AMD THREADRIPPER PRO 7975WX (32 CORES) AMD THREADRIPPER PRO 7975WX (32 CORES)
 System Power Usage  UP TO 3.6 KW UP TO 3.0 KW UP TO 3.0 KW
 System Memory 256 GB DDR5 512 GB DDR5 1024 GB DDR5
 Networking DUAL-PORT 10GB, 1GB IPMI DUAL-PORT 10GB, 1GB IPMI DUAL-PORT 10GB, 1GB IPMI
 Storage OS DUAL 1.92TB M.2 NVME DRIVE DUAL 1.92TB M.2 NVME DRIVE DUAL 1.92TB M.2 NVME DRIVE
 Storage Data/Cache ON REQUEST ON REQUEST ON REQUEST
 Cooling CPU & GPU LIQUID COOLING CPU & GPU LIQUID COOLING CPU & GPU LIQUID COOLING
 System Acoustics HIGH HIGH HIGH
 Operating Temperature UP TO 38ºC UP TO 38ºC UP TO 38ºC
 Software UBUNTU / WINDOWS UBUNTU / WINDOWS UBUNTU / WINDOWS
 Size 439 x 177 x 681 MM 439 x 177 x 681 MM 439 x 177 x 681 MM
 Class SERVER SERVER SERVER

Tensorflow logoPyTorch logoCUDANN logoKeras logoJAX logo

Deep Learning Produktlinie

Comino Grando AI Deep Learning Workstations sind für das Training und die Feinabstimmung komplexer neuronaler Deep Learning-Netzwerke mit großen Datensätzen vor Ort konzipiert und konzentrieren sich auf den Bereich der generativen KI, sind aber nicht darauf beschränkt. Sie bieten erstklassige und einzigartige Multi-GPU-Konfigurationen, um das Training und die Feinabstimmung von rechenintensiven Diffusions-, Multimodal-, Computer Vision-, Large Language (LLM) und anderen Modellen zu beschleunigen.

Die Grando AI DL MAX-Workstation beherbergt VIER flüssigkeitsgekühlte NVIDIA H100-Grafikprozessoren mit 376 GB HBM-Speicher und eine 96-Core Threadripper PRO-CPU, die mit bis zu 5,1 GHz läuft und bis zu 50 % mehr Leistung als vergleichbare luftgekühlte Lösungen bietet. Neben der unübertroffenen Leistung bieten die Comino-Lösungen bis zu 3 Jahre Wartungsfreiheit, eine ebenso einfache Wartung wie bei luftgekühlten Systemen und ein ferngesteuertes Comion Monitoring System (CMS), das über API in Ihren Software-Stack integriert werden kann.

Grando DL Workstations sind vorgetestet, um cuDNN, PyTorch, TensorFlow, Keras, JAX Frameworks und Bibliotheken auszuführen. Sie sind mit VIER NVIDIA GPUs (A100 / H100 / L40S / 4090) gepaart mit den modernsten Hochfrequenz-Multi-Core-CPUs ausgestattet, um eine erstklassige Machine- und Deep-Learning-Leistung in Kombination mit einem geräuscharmen Betrieb selbst für die anspruchsvollsten und vielseitigsten Workflows wie Stable Diffusion, Midjourney, Hugging Face, Character.AI, QuillBot, DALLE-2, etc. zu bieten.

Deep Learning Workstations

Comino GRANDO RM GPU Workstation Liquid Cooled 4x4090 front 45 closedComino GRANDO RM GPU Workstation Liquid Cooled 4xL40S top openComino GRANDO RM GPU Workstation Liquid Cooled 4xH100 back 45

 Grando AI Deep Learning BaseGrando AI Deep Learning ProGrando AI Deep Learning Max
 GPU 4x NVIDIA RTX4090 4X NVIDIA L40S 4X NVIDIA A100/H100
 GPU Memory 4x 24GB GDDR6X 4X 48GB GDDR6 with ECC 4X 80GB/94GB HBM2e
 CPU AMD THREADRIPPER PRO 7975WX (32 CORES) AMD THREADRIPPER PRO 7975WX (32 CORES) AMD THREADRIPPER PRO 7975WX (32 CORES)
 System Power Usage  UP TO 2.6 KW UP TO 2.2 KW UP TO 2.2 KW
 System Memory 256 GB DDR5 512 GB DDR5 1024 GB DDR5
 Networking DUAL-PORT 10GB, 1GB IPMI DUAL-PORT 10GB, 1GB IPMI DUAL-PORT 10GB, 1GB IPMI
 Storage OS DUAL 1.92TB M.2 NVME DRIVE DUAL 1.92TB M.2 NVME DRIVE DUAL 1.92TB M.2 NVME DRIVE
 Storage Data/Cache ON REQUEST ON REQUEST ON REQUEST
 Cooling CPU & GPU LIQUID COOLING CPU & GPU LIQUID COOLING CPU & GPU LIQUID COOLING
 System Acoustics Medium LOW LOW
 Operating Temperature UP TO 30ºC UP TO 30ºC UP TO 30ºC
 Software UBUNTU / WINDOWS UBUNTU / WINDOWS UBUNTU / WINDOWS
 Size 439 x 177 x 681 MM 439 x 177 x 681 MM 439 x 177 x 681 MM
 Class WORKSTATION WORKSTATION WORKSTATION

 

Features 

Comino GRANDO RM GPU Liquid Cooling 1000Flüssigkeitsgekühlt


Das Comino-Flüssigkeitskühlsystem setzt das volle Leistungspotenzial moderner Spitzen-GPUs und -CPUs frei, verlängert die Lebensdauer der Hardware und gewährleistet einen 24/7-Betrieb auch in rauen Umgebungen ohne thermische Drosselung.

QUICK-DISCONNECT Kupplungen

Wartung und Reduzierung der Wartungszeit zur Erhöhung der Systemverfügbarkeit.

 

 

 

Comino GRANDO RM Monitoring

REMOTE MANAGMENT

BMC-Chip zur Bereitstellung von Intelligenz für seine IPMI-Architektur für Out-of-Band-Management zur Verbesserung der Kontrolle auf Hardware-Ebene für eine verbesserte IT-Effizienz.

COMINO’S MONITORING SYSTEM


Ermöglicht das Sammeln von Log-Statistiken des Kühlsystems. Die WEB-basierte GUI ermöglicht die Fernüberwachung mehrerer Geräte. Das Überwachungssystem erhöht die Systemverfügbarkeit.

 

 

 

  

 

Comino GRANDO RM Redundant Power Supply 1000

REDUNDANTE NETZTEILE (CRPS)


Entwickelt für den Einsatz in kritischen IT-Infrastrukturen. Es liefert zuverlässige Energie für Ihr System ohne Einschränkungen. Das Netzteil arbeitet mit dem gesamten Spannungsspektrum 100-240VAC und 240VDC und bietet N+M-Redundanz

 

 

 

 

 

Maßgeschneiderte Konfigurationen für Ihren Bedarf

Wir konfigurieren Comino Server und Workstation entsprechend Ihrem spezifischen Anwendungsfall. Ein Beispiel für die Konfiguration von Comino-Servern und -Workstations finden Sie oben.

Für weitere Informationen kontaktieren Sie bitte das Zstor Sales Team per E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.

 

Zstor Office

Gutenbergstr. 18
41564 Kaarst
Deutschland

Kontaktieren Sie uns

+49-2131-3867640
sales@zstor.de

Copyright

Copyright © 2024 Zstor GmbH - Open Storage. Alle Rechte vorbehalten.