Menü

Schneller Interconnect für HyperTransport-Systeme

vorlesen Drucken Kommentare lesen 5 Beiträge

Kurz vor Beginn der SuperComputing SC2004 stellt das kalifornische Startup PathScale den Interconnect InfiniPath HT4X vor, der sich mit zumeist höherer Bandbreite und niedrigerer Latenzzeit speziell für Hypertransport-Systeme vor der Konkurrenz auszeichnet. InfiniPath soll für eine "dramatische" Verbesserung im High Performance Computung (HPC) sorgen und preiswerte Cluster auf die Performance teurer SMP-Systeme hieven.

Wie der Name schon andeutet, ist InfiniPath eine spezielle Link-Layer-kompatible InfiniBand-Lösung, die die InfiniBand-Switched-Fabric-Architektur (etwa die Kabel und Switches von Topspin, Voltaire, Mellanox) nutzt. Im Unterschied zu bestehenden InfiniBand-PCI-X-oder PCIe-Adaptern dockt es aber direkt am HyperTransport-Kanal über den neuen standardisierten HTX-Slot an, was diverse Verzögerungszeiten einspart.

Daraus resultiert eine MPI-Latenzzeit von weniger als 1,5 Mikrosekunden im so genannten Ohio-State-University-Ping-Pong-Benchmark. Der hat nichts mit Verzögerungen bei Wahlergebnissen zu tun, sondern die ist die Latenzzeit des Message Passing Interface "end-to-end", inklusive zwischengeschaltetem Switch. Neue InfiniBand-Lösungen der Uni namens MVAPICH 0.9.5 mit PCI-Express (mit Chips von Mellanox) kommen in dieser Disziplin auf 4 µs, Myrinet EM -X von Myricom auf 3,5 bis 5,8 µs und Quadrics Elan 4 auf 1,7 µs.

In der Bandbreite erreicht InfiniPath bei langen Nachrichten in etwa das übliche InfiniBand-Maß, wird jedoch knapp von InfiniBand/PCIe übertroffen (945 MByte/s gegenüber 971 MByte/s in eine Richtung, beziehungsweise 1820 zu 1878 MByte/s im Full-Duplex-Betrieb gleichzeitig in beide Richtungen. Vor allem beim letzten Punkt offenbaren die Konkurrenten Quadrics-Elan 4 (876 und 900 MByte/s) und Myrinet EM-X (490 und 900 MByte/s) ihre Schwachstellen.

Bei kürzeren Messages, etwa von 512 Byte Länge, kann InfiniPath seine kurze Latenzzeit voll ausspielen, mit Bandbreiten, die diejenigen der Konkurrenz um das Doppelte und mehr übertreffen. Hier wird als Maß auch gerne die Message-Größe angegeben, bei der die Spitzenbandbreite auf die Hälfte fällt. Mit 595 Byte "Halbwertslänge" liegt InfiniPath weit vor der Konkurrenz, die zum Teil deutlich über 1 zum Teil bei 4 und mehr KByte liegt.

InfiniPath ist jedoch nur für entsprechende HyperTransport-Systeme ausgelegt, also solche mit AMD-Opteron-, IBM-Power970- und Transmeta-Efficeon-Prozessoren, sofern diese einen HLX-Anschluss bieten. Bislang gibt es entsprechende Opteron-Boards nur von Iwill (DK8S2), doch wenn erst einmal "Futter" für den Slot vorhanden ist, dürfte er sich zügig ausbreiten. Ob Apple sich anschließen wird, ist zur Zeit noch offen.

Zusätzliche Performance soll die Optimierungshilfe "OptiPath" für MPI-Software bieten. OptiPath soll dem Programmierer die mühevolle Arbeit des Parallelisierens abnehmen und dank integrierter Performance-Analyse mögliche Flaschenhälse weitgehend vermeiden.