Die leistungsstärkste Hardware sind 8 NVIDIA Basepods mit je 8 H100 GPUs (mit je 80 GB VRAM), die für das Training von KI-Modellen eingesetzt werden können. Untereinander kommunizieren die H100 Pods über 400 Gb/s Infiniband oder 200 Gb/s Ethernet.
Für die Inferenz stehen 5 NVIDIA Pods mit je 8 A30 zur Verfügung, die mit 25 Gb/s Infiniband bzw. 40 Gb/s Ethernet kommunizieren. Zusätzlich bieten wir Zugang zu einem NVIDA Jetson AGX Modul, einem ARM Server und einem Server in einer mittleren Preisklasse, die auch für KMUs relevant ist.