AWS führt nächste Generation von arbeitsspeicheroptimierten Instanzen ein
In der Elastic Computing Cloud von Amazon sind nun die X2idn- und X2iedn-Instanzen verfügbar. AWS verspricht eine 50 Prozent höhere Leistung als beim Vorgänger.
(Bild: jamesteohart/Shutterstock.com)
Die neuen Amazon EC2-Instanzen X2idn und X2iedn sind nun allgemein verfügbar. Basierend auf dem AWS-Nitro-System, laufen die Instanzen auf den Intel-Xeon-Scalable-Prozessoren aus der Ice Lake Serie. X2idn und X2iedn sind arbeitsspeicheroptimierte Instanzen und dienen zum Ausführen von umfangreichen In-Memory-Anwendungen in der AWS-Cloud. Amazon empfiehlt die Instanzen für In-Memory-Datenbanken wie SAP HANA oder Redis, für In-Memory-Analytik mit SAS oder Aerospike, für Big-Data-Verarbeitung mit Apache Spark oder Presto und für klassische Datenbanken wie Oracle DB oder Microsoft SQL Server.
50 Prozent höhere Rechenleistung als der Vorgänger
Die Kapazität von X2idn beträgt bis zu 2 TiB Arbeitsspeicher, bei X2iedn bis zu 4 TiB. Beide Instanzen unterstützen laut AWS eine Netzwerkleistung von 100 Gbit/s mit hardware-aktivierter VPC-Verschlüsselung, 80 Gbit/s Amazon EBS-Bandbreite und 260k IOPs mit EBS-verschlüsselten Volumes. Eine Übersicht über die verfügbaren X2idn- und X2iedn-Instanzen zeigt eine Tabelle:
Instance Name | vCPUs | RAM (GiB) | Local NVMe SSD Storage (GB) | Network Bandwidth (Gbps) | EBS-Optimized Bandwidth (Gbps) |
x2idn.16xlarge | 64 | 1024 | 1 x 1900 | Up to 50 | Up to 40 |
x2idn.24xlarge | 96 | 1536 | 1 x 1425 | 75 | 60 |
x2idn.32xlarge | 128 | 2048 | 2 x 1900 | 100 | 80 |
x2iedn.xlarge | 4 | 128 | 1 x 118 | Up to 25 | Up to 20 |
x2iedn.2xlarge | 8 | 256 | 1 x 237 | Up to 25 | Up to 20 |
x2iedn.4xlarge | 16 | 512 | 1 x 475 | Up to 25 | Up to 20 |
x2iedn.8xlarge | 32 | 1024 | 1 x 950 | 25 | 20 |
x2iedn.16xlarge | 64 | 2048 | 1 x 1900 | 50 | 40 |
x2iedn.24xlarge | 96 | 3072 | 2 x 1425 | 75 | 60 |
x2iedn.32xlarge | 128 | 4096 | 2 x 1900 | 100 | 80 |
Quelle: Amazon |
Im Vergleich mit Vorgängergeneration X1/X1e bieten die neuen Instanzen die gleiche Menge an lokalem Speicher: 3,8 TB. Während die alten Instanzen auf SATA-SSDs basieren, nutzen X2idn und X2iedn NVMe-Speicher, wodurch die Latenz bei Abfragen um eine Größenordnung besser ist. Intels Xeon-Scalable-Prozessoren der X2idn/X2iedn-Instanzen sollen laut Amazon auch eine 50 Prozent höhere Rechenleistung bieten, als die auf Xeon Haswell basierenden X1/X1e-Instanzen. Damit verbessere sich der SAP Application Performance Standard um 45 Prozent.
CPU-Optimierung und Non-uniform Memory Acess
Als Grundlage der neuen Instanzen dienen die 2021 eingeführte Ice-Lake-Prozessoren von Intel. Für die X2idn- und X2iedn-Instanzen kann das Intel Hyper-Threading deaktiviert werden, wenn Arbeitslasten eher von Single-Threading-CPUs profitieren. AWS nennt hier "einige HPC-Anwendungen". Außerdem kann nicht-einheitlicher Speicherzugriff (non-uniform Memory Access) in den neuen Instanzen genutzt werden, sollte einem Anwender das genaue Speicherzugriffsmuster einer Anwendung bekannt sein. Die englischsprachige Originalankündigung findet sich im Blog von AWS.
(pst)