AMD Instinct Hadirkan Teknologi Kelas Exascale untuk Aplikasi HPC dan AI

– Bertenaga arsitektur AMD CDNA™ 2 dan AMD ROCm™5, GPU AMD Instinct MI210 baru yang mempercepat wawasan dan penemuan untuk pengguna mainstream

SANTA CLARA, California, AS —22 Maret, 2022 — AMD (NASDAQ: AMD) hari ini mengumumkan ketersediaan ekosistem AMD Instinct™ dengan dukungan sistem yang diperluas dari mitra termasuk ASUS, Dell Technologies, Gigabyte, HPE, Lenovo dan Supermicro, akselerator AMD Instinct™ MI210 baru dan kemampuan software ROCm™ 5 yang tangguh. Secara keseluruhan, ekosistem AMD Instinct dan ROCm menawarkan teknologi kelas exascale ke basis luas pelanggan HPC dan AI, menjawab permintaan yang meningkat untuk beban kerja komputasi data center yang dipercepat dan mengurangi waktu untuk wawasan dan penemuan. 

“Dengan tersedianya dua kali platform dibandingkan dengan akselerator generasi kami sebelumnya, peningkatan adopsi pelanggan di seluruh aplikasi HPC dan AI, dan dukungan baru dari ISV komersial dalam beban kerja utama, kami terus mendorong adopsi akselerator AMD Instinct MI200 dan ekosistem software ROCm 5 ,” kata Brad McCredie, corporate vice president, Data Center GPU and Accelerated Processing, AMD. “Kini dengan ketersediaan akselerator AMD Instinct MI210 untuk jajaran MI200, pelanggan kami dapat memilih akselerator yang paling sesuai untuk beban kerja mereka, apakah mereka memerlukan pemrosesan akselerasi terdepan untuk beban kerja HPC dan AI skala besar, atau jika mereka menginginkan akses ke teknologi kelas exascale dalam format komersial.”

“Superkomputer Lumi yang ditenagai oleh prosesor AMD EPYC dan akselerator AMD Instinct MI200 akan memberikan lompatan generasi dalam kinerja untuk simulasi dan pemodelan skala besar serta AI dan beban kerja pembelajaran mendalam untuk memecahkan beberapa pertanyaan terbesar dalam penelitian”, kata Pekka Manninen , Director of the LUMI Leadership and Computing Facility, CSC. “Kami telah menggunakan akselerator AMD Instinct MI210 untuk mendapatkan pengalaman langsung dengan keluarga Instinct MI200, mempersiapkan para ilmuwan kami untuk menangani banyak proyek yang menantang dan kompleks yang akan mereka jalankan setelah Lumi sepenuhnya digunakan.”

Mendukung Masa Depan HPC dan AI

Akselerator seri AMD Instinct MI200 dirancang untuk mendukung penemuan dalam sistem exascale, memungkinkan para peneliti, ilmuwan, dan insinyur untuk mengatasi tantangan kami yang paling mendesak, mulai dari perubahan iklim hingga penelitian vaksin. Akselerator AMD Instinct MI210 secara khusus mengaktifkan teknologi kelas exascale untuk pelanggan yang membutuhkan kinerja HPC dan AI yang fantastis dalam format PCIe®. Bertenaga arsitektur AMD CDNA™ 2, akselerator AMD Instinct MI210 memperluas keunggulan kinerja AMD dalam komputasi presisi ganda (FP64) pada kartu form factor PCIe[i]. Selain itu juga memberikan solusi bertenaga untuk pelatihan pembelajaran mendalam yang dipercepat yang menawarkan berbagai kemampuan presisi campuran berdasarkan AMD Matrix Core Technology.  

Mendorong Adopsi ROCm

Platform software terbuka yang memungkinkan peneliti, ilmuwan, dan insinyur memanfaatkan tenaga akselerator AMD Instinct untuk mendorong penemuan ilmiah, platform AMD ROCm dibangun di atas fondasi berbagai aplikasi dan perpustakaan yang mentenagai aplikasi HPC dan AI teratas. 

Dengan ROCm 5, AMD memperluas platform software dengan menambahkan dukungan hardware baru untuk akselerator seri AMD Instinct MI200 dan kartu grafis profesional AMD Radeon™ PRO W6800, ditambah dukungan Red Hat® Enterprise Linux® 8.5, meningkatkan aksesibilitas ROCm untuk pengembang dan memungkinkan kinerja luar biasa di seluruh beban kerja utama.

Selain itu, melalui AMD Infinity Hub, lokasi sentral untuk aplikasi open-source yang di-port dan dioptimalkan pada GPU AMD, pengguna dapat dengan mudah menemukan, mengunduh, dan menginstal aplikasi HPC dan frameworks ML. Wadah aplikasi AMD Infinity Hub dirancang untuk mengurangi masalah yang biasanya sulit untuk mendapatkan dan menginstal rilis software sambil memungkinkan pengguna untuk belajar berdasarkan pengalaman bersama dan peluang pemecahan masalah.

Memperluas Mitra dan Ekosistem Pelanggan

Karena semakin banyak aplikasi yang dibuat khusus dan dioptimalkan untuk bekerja dengan ROCm dan akselerator AMD Instinct, AMD terus mengembangkan ekosistem software dengan penambahan ISV komersial, termasuk Ansys®, Cascade Technologies, dan TempoQuest. ISV ini menyediakan aplikasi yang dipercepat untuk beban kerja termasuk Computational Fluid Dynamics (CFD), cuaca, Computer Aided Engineering (CAE), dan banyak lagi. Pembaruan ini berada di atas dukungan aplikasi yang ada di ROCm yang mencakup aplikasi HPC, AI dan Machine Learning, AMBER, Chroma, CP2K, GRID, GROMACs, LAAMPS, MILC, Mini-HAAC, NAMD, NAMD 3.0, ONNX-RT, OpenMM, PyTorch, RELION, SPECFEM3D Cartesian, SPECFEM3D Globe, dan TensorFlow.

AMD juga memungkinkan mitra seperti ASUS, Dell Technologies, Gigabyte, HPE, Lenovo, Supermicro, dan System Integrators termasuk Colfax, Exxact, KOI Computers, Nor-Tech, Penguin dan Symmetric untuk menawarkan solusi berbeda untuk mengatasi tantangan komputasi generasi berikutnya. Pelanggan superkomputer telah memanfaatkan keuntungan yang ditawarkan termasuk pemasangan Frontier di Oak Ridge National Laboratory, KTH/Dardel, CSC/LUMI dan Cines/Adastra.

Mengaktifkan Akses untuk Pelanggan dan Mitra

AMD Accelerator Cloud menawarkan pelanggan lingkungan untuk mengakses dan mengevaluasi akselerator AMD Instinct dan software AMD ROCm dari jarak jauh. Baik itu porting kode lama, benchmark aplikasi atau pengujian multi-GPU atau multi-node scaling, AMD Accelerator Cloud memberi calon pelanggan dan mitra akses cepat dan mudah ke GPU dan software. AMD Accelerator Cloud juga digunakan untuk mendukung berbagai acara seperti sesi pelatihan  hackathon dan ROCm yang ditawarkan kepada pelanggan yang sudah ada dan calon pelanggan, memungkinkan pengembang untuk mengasah keterampilan mereka dan mempelajari cara memaksimalkan akselerator AMD Instinct.

Spesifikasi MI200 Series

ModelCompute UnitsStream ProcessorsFP64 | FP32 Vector (Peak)FP64 | FP32 Matrix (Peak)FP16 | bf16 (Peak)INT8 (Peak)HBM2e
ECC
Memory
Memory BandwidthForm Factor
AMD Instinct MI2101046,656Up to 22.6 TFUp to45.3 TFUp to 181.0 TFUp to 181.0 TOPS64GBUp to 1.6 TB/secPCIe®
AMD Instinct MI25020813,312Up to 45.3 TFUp to 90.5 TFUp to 362.1 TFUp to 362.1 TOPS128GB3.2 TB/secOCP Accelerator Module (OAM)
AMD Instinct MI250x22014,080Up to 47.9 TFUp to 95.7 TFUp To 383.0 TFUp to 383.0 TOPS128GB3.2 TB/secOCP Accelerator Module (OAM)

Sumber Pendukung

Tentang AMD

Selama lebih dari 50 tahun AMD telah mendorong inovasi dalam teknologi komputasi, grafis, dan visualisasi berkinerja tinggi. Miliaran orang, bisnis Fortune 500 terkemuka dan lembaga penelitian ilmiah mutakhir di seluruh dunia mengandalkan teknologi AMD setiap hari untuk meningkatkan cara mereka hidup, bekerja, dan bermain. Karyawan AMD berfokus pada pengembangan produk kepemimpinan berkinerja tinggi dan adaptif yang mendorong batas-batas dari apa yang mungkin. Untuk informasi lebih lanjut tentang bagaimana AMD memungkinkan hari ini dan menginspirasi besok, kunjungi AMD (NASDAQ: AMD) pada laman website, blog, LinkedIn  dan laman Twitter.


[i] MI200-41 – Calculations conducted by AMD Performance Labs as of Jan 14, 2022, for the AMD Instinct™ MI210 (64GB HBM2e PCIe® card) accelerator at 1,700 MHz peak boost engine clock resulted in 45.3 TFLOPS peak theoretical double precision (FP64 Matrix), 22.6 TFLOPS peak theoretical double precision (FP64), and 181.0 TFLOPS peak theoretical Bfloat16 format precision (BF16), floating-point performance.

Calculations conducted by AMD Performance Labs as of Sep 18, 2020 for the AMD Instinct™ MI100 (32GB HBM2 PCIe® card) accelerator at 1,502 MHz peak boost engine clock resulted in 11.54 TFLOPS peak theoretical double precision (FP64), and 184.6 TFLOPS peak theoretical half precision (FP16),  floating-point performance.

Published results on the NVidia Ampere A100 (80GB) GPU accelerator, boost engine clock of 1410 MHz, resulted in 19.5 TFLOPS peak double precision tensor cores (FP64 Tensor Core), 9.7 TFLOPS peak double precision (FP64) and 39 TFLOPS peak Bfloat16 format precision (BF16), theoretical floating-point performance. The TF32 data format is not IEEE compliant and not included in this comparison.
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-ampere-architecture-whitepaper.pdf, page 15, Table 1.