2 poin oleh GN⁺ 2025-12-03 | Belum ada komentar. | Bagikan ke WhatsApp
  • AWS memperkenalkan Trainium3 UltraServer yang dibekali chip Trainium3 berbasis proses 3 nanometer, menghadirkan peningkatan besar pada performa pelatihan dan inferensi AI
  • Sistem baru ini menawarkan kecepatan 4 kali lebih cepat dan memori 4 kali lebih besar dibanding generasi sebelumnya, serta efisiensi energi 40% lebih tinggi
  • Sistem ini dapat menghubungkan hingga 1 juta chip Trainium3, sehingga cocok untuk menangani aplikasi AI berskala besar
  • Pelanggan seperti Anthropic, Karakuri, SplashMusic, dan Decart sudah menggunakannya dan telah mengonfirmasi pengurangan biaya inferensi
  • AWS juga menyatakan bahwa chip Trainium4 generasi berikutnya akan mendukung Nvidia NVLink Fusion sehingga dapat beroperasi secara interoperabel dengan GPU Nvidia, yang dinilai sebagai titik balik penting dalam persaingan infrastruktur AI

Pengungkapan Trainium3

  • AWS secara resmi mengumumkan Trainium3 UltraServer di acara re:Invent 2025
    • Sistem ini ditenagai oleh chip Trainium3 3 nanometer dan teknologi jaringan milik AWS
    • AWS menjelaskan bahwa performanya meningkat signifikan dibanding generasi kedua, baik untuk pelatihan maupun inferensi AI
  • AWS menyebut sistem Trainium3 menghadirkan kecepatan pemrosesan 4 kali lebih cepat dan kapasitas memori 4 kali lebih besar
    • Setiap UltraServer dilengkapi 144 chip
    • Dengan menghubungkan ribuan server, hingga 1 juta chip dapat digunakan untuk satu aplikasi
  • Chip baru ini menghadirkan peningkatan efisiensi energi sebesar 40%, membantu mengurangi konsumsi daya di pusat data skala besar
    • AWS menekankan bahwa hal ini juga memungkinkan penghematan biaya bagi pelanggan cloud AI

Pelanggan utama dan contoh penggunaan

  • Anthropic, Karakuri dari Jepang, SplashMusic, dan Decart sudah menggunakan Trainium3
    • AWS menjelaskan bahwa para pelanggan ini telah secara signifikan menurunkan biaya inferensi
  • AWS menyebut peningkatan performa dan efisiensi biaya ini menjadi fondasi untuk meningkatkan skalabilitas aplikasi AI

Roadmap chip generasi berikutnya, Trainium4

  • AWS mengumumkan bahwa Trainium4 sudah dalam pengembangan dan akan mendukung teknologi interkoneksi berkecepatan tinggi NVLink Fusion dari Nvidia
    • Dengan demikian, sistem ini akan dapat beroperasi secara interoperabel dengan GPU Nvidia dan dapat dipadukan dengan teknologi rak server berbiaya rendah milik AWS
  • Di tengah posisi Nvidia CUDA sebagai standar utama untuk aplikasi AI, sistem Trainium4 memiliki potensi untuk mempermudah pemindahan aplikasi berbasis GPU Nvidia ke cloud AWS
  • Jadwal peluncuran Trainium4 belum diungkapkan, dan ada kemungkinan informasi tambahan akan muncul pada acara re:Invent tahun berikutnya

Makna strategis efisiensi energi dan penghematan biaya

  • AWS sedang membangun “sistem yang mengonsumsi lebih sedikit” di tengah lonjakan penggunaan listrik pusat data
  • Pendekatan ini dinilai sebagai upaya untuk mencapai dua tujuan sekaligus: menurunkan biaya operasional dan menjaga keberlanjutan
  • Strategi AWS yang berfokus pada penghematan biaya berpotensi memperkuat daya tarik bagi pelanggan cloud dalam persaingan infrastruktur AI

Ringkasan

  • Trainium3 adalah chip AI generasi ketiga yang meningkat besar dalam performa, memori, dan efisiensi
  • Trainium4 menargetkan perluasan ekosistem AWS melalui kompatibilitas dengan Nvidia
  • AWS mengejar infrastruktur AI yang berperforma tinggi, berbiaya rendah, dan ramah lingkungan sekaligus untuk memperkuat daya saingnya di pasar cloud AI

Belum ada komentar.

Belum ada komentar.