direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Technische Daten

Die Compute-Server-Cluster sind zwar als einheitliches System nutzbar, die einzelnen Teile unterscheiden sich jedoch neben ihrem Anschaffungsjahr in ihrer Hardwareaustattung und auch ihrer Leistungfähigkeit.

Die folgenden Tabellen geben eine Übersicht über die Einzelcluster.

Bei der Nutzung via Batch-Systen stehen den Benutzern verschiedene Optionen zur Verfügung um ihre Programme auf der jeweils gewünschten Hardware laufen zu lassen.

Cluster 1
Anzahl Nodes im Numerikserverbereich
17
Prozessoren (je Node)

2x Opteron 252 (2.6 GHz)
Memory (je Node)
4 GB
Netzwerk (intern)
SDR Infiniband + Gigabit Ethernet
Bandbreite
~800 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~40 GB
Cluster 2
Anzahl Nodes im Numerikserverbereich
8
Prozessoren (je Node)

2x DualCore-Opteron 2218 (2.6 GHz)
Memory (je Node)
16 GB (1 Node mit 32 GB)
Netzwerk (intern)
SDR Infiniband + Gigabit Ethernet
Bandbreite
~900 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~50 GB
Cluster 3
Anzahl Nodes im Numerikserverbereich
42
Prozessoren (je Node)

2x DualCore-Opteron 2222 (3.0 GHz)
Memory (je Node)
16 GB (8 Nodes mit 32 GB)

Netzwerk (intern)
DDR-Infiniband + Gigabit Ethernet
Bandbreite
~1500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~100 GB
Cluster 4
Anzahl Nodes im Numerikserverbereich
5 (exklusive genutzt)

Prozessoren (je Node)

2x DualCore-Opteron 2222 (3.0 GHz)
Memory (je Node)
32 GB
Netzwerk (intern)
DDR-Infiniband + Gigabit Ethernet
Bandbreite
~1500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~140 GB
Cluster 5
Anzahl Nodes im Numerikserverbereich
27 (nur offen für Kurzzeit-Jobs)

Prozessoren (je Node)

2x Opteron 248 (2.2 GHz)
Memory (je Node)
2, 4, oder 8 GB
Netzwerk (intern)
SDR-Infiniband + Gigabit Ethernet
Bandbreite
~700 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~40 GB
Cluster 6
Anzahl Nodes im Numerikserverbereich
9
Prozessoren (je Node)

4x QuadCore-Opteron 8380 (2.5 GHz)
4x SixCore-Opteron 8435 (2.6 GHz)
Memory (je Node)
64GB oder 128 GB

Netzwerk (intern)
DDR-Infiniband + Gigabit Ethernet
Bandbreite
~700 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~220 GB
Cluster 7
Anzahl Nodes im Numerikserverbereich
36
Prozessoren (je Node)

2x QuadCore-Xeon X5550 (2.67 GHz)
Memory (je Node)
24GB oder 48GB

Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~220 GB
Cluster 8 (GPU-Cluster)
Anzahl Nodes im Numerikserverbereich
16
Prozessoren (je Node)

2x QuadCore-Xeon X5550 (2.67 GHz)
GPUs
14x 2 nVidia Tesla C1060
2x 4 nVidia GTX 295
Memory (je Node)
24GB
Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~220 GB
Cluster 9 (Cell-Cluster)
Anzahl Nodes im Numerikserverbereich
8
Prozessoren (je Node)

2x IBM Cell/B.E (3.2GHz)
Netzwerk (intern)
DDR-Infiniband + Gigabit Ethernet
Bandbreite
~1500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk
-
Cluster 10
Anzahl Nodes im Numerikserverbereich
40
Prozessoren (je Node)

2x QuadCore-Xeon X5550 (2.67 GHz)
Memory (je Node)
24GB oder 48GB

Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~260 GB
Cluster 11
Anzahl Nodes im Numerikserverbereich
35
Prozessoren (je Node)

2x HexaCore-Xeon X5650 (2.67 GHz)
GPUs (nur node291-node293)
je 2 nVidia Tesla S2050
Memory (je Node)
48GB (GPU nodes) oder 24GB

Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~260 GB
Cluster 12
Anzahl Nodes im Numerikserverbereich
23
Prozessoren (je Node)
2x HexaCore-Xeon X5530/Xeon 54xx/Xeon 53xx (2 - 2.4 GHz)
Memory (je Node)
8-16 GB
Netzwerk (intern)
Gigabit Ethernet
Bandbreite
~118 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~260 GB

Cluster 13
Anzahl Nodes im Numerikserverbereich
49
Prozessoren (je Node)
2x HexaCore-Xeon X5650 (2.67 GHz)
Memory (je Node)
48GB
Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~500 GB

Cluster 14
Anzahl Nodes im Numerikserverbereich
20
Prozessoren (je Node)
2x HexaCore-Xeon X5650 (2.67 GHz)
Memory (je Node)
48/64GB
Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~2500 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~500 GB

Cluster 15
Anzahl Nodes im Numerikserverbereich
36
Prozessoren (je Node)
2x HexaCore-Xeon E5-2640 (2.5 GHz)
Memory (je Node)
64GB
Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~3700 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~500 GB

Cluster 16
Anzahl Nodes im Numerikserverbereich
48
Prozessoren (je Node)
2x HexaCore-Xeon E5-2630v2 (2.6 GHz)
Memory (je Node)
64/128 GB
Netzwerk (intern)
QDR-Infiniband + Gigabit Ethernet
Bandbreite
~3700 MB/s (MPI)
Netzwerk (nach außen)
Gigabit Ethernet
Lokale Disk (/scratch)
~500 GB

Weitere IT-Bereiche

  • Forschungsrechnerbereich [1]
  • Lehrrechnerbereich [2]
  • 3D Labor [3]
------ Links: ------

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Copyright TU Berlin 2008