Panggung persaingan dalam teknologi Kecerdasan Buatan (AI) kembali memanas. Raksasa semikonduktor, Qualcomm, yang selama ini dikenal sebagai penopang utama industri smartphone, telah mengumumkan dua prosesor akselerator AI baru—AI200 dan AI250. Pengumuman ini menandai langkah besar Qualcomm untuk menantang dominasi Nvidia di pasar pusat data yang sangat menggiurkan. Ekspansi ambisius ini disambut euforia pasar, yang terlihat dari lonjakan harga saham Qualcomm (QCOM) hingga 20% pada Senin, 27 Oktober, mencatat kenaikan satu hari terkuatnya dalam lebih dari setahun.
Langkah ini merupakan upaya strategis Qualcomm untuk mendiversifikasi bisnisnya di luar pasar smartphone yang stagnan dan memasuki pasar infrastruktur AI yang tumbuh eksponensial. Pasar peralatan pusat data diperkirakan bernilai triliunan dolar. Dengan meluncurkan Chip AI Data Center Qualcomm baru ini, perusahaan San Diego tersebut kini memposisikan diri sebagai penantang langsung bagi Nvidia dan AMD. Pasar saat ini didominasi oleh kartu GPU (Unit Pemrosesan Grafis) bertenaga tinggi yang sangat penting untuk melatih dan menjalankan model AI yang masif, seperti ChatGPT.
Fokus pada Inferensi, Bukan Pelatihan
Strategi Qualcomm dalam memasuki pasar ini sangat terfokus dan cerdas. Mereka menargetkan segmen inference (inferensi) AI, bukan training (pelatihan). Apa bedanya?
- Training AI: Tahap ini adalah proses yang sangat intensif komputasi, membutuhkan GPU paling kuat untuk mengolah data dalam jumlah besar dan menciptakan kemampuan AI baru (inilah benteng utama Nvidia).
- Inference AI: Tahap ini adalah proses menjalankan model AI yang sudah dilatih (misalnya, saat ChatGPT menghasilkan jawaban). Inferensi membutuhkan efisiensi dan biaya operasional yang rendah.
Chip AI Data Center Qualcomm, AI200 (dirilis 2026) dan AI250 (dirilis 2027), dirancang secara khusus untuk keunggulan di tahap inferensi ini. Chip-chip ini dibangun di atas Unit Pemrosesan Saraf Hexagon (NPU) yang sama yang ditemukan pada prosesor smartphone efisien daya milik Qualcomm. Pendekatan ini memungkinkan Qualcomm mengklaim sistem yang lebih hemat energi dan menawarkan Total Biaya Kepemilikan (TCO) yang lebih rendah bagi operator pusat data besar (hyperscaler).
AI200 yang akan datang dirancang untuk bekerja dalam rak server berpendingin cairan penuh, format yang sama dengan yang ditawarkan pesaingnya. Bahkan, AI250 yang direncanakan untuk tahun 2027 diklaim akan 10 kali lebih efektif dalam memory bandwidth sambil mengonsumsi daya yang lebih rendah. Fokus pada efisiensi daya ini menjadi daya jual utama, mengingat biaya operasional dan energi merupakan masalah besar bagi pusat data global.
Mengapa Lonjakan Saham Terjadi Sekarang?
Reaksi Wall Street yang sangat positif, yang mendorong saham Qualcomm ke level tertinggi 52 minggu, mencerminkan beberapa faktor:
- Peluang Pasar yang Masif: Pasar infrastruktur AI adalah segmen dengan pertumbuhan tercepat dalam teknologi global. Dengan valuasi industri yang diproyeksikan mencapai triliunan, bahkan sebagian kecil dari pasar ini dapat menghasilkan pendapatan yang signifikan bagi Qualcomm.
- Diferensiasi yang Jelas: Penekanan pada efisiensi energi dan TCO yang lebih rendah memberikan narasi persaingan yang kuat melawan arsitektur berdaya tinggi yang didominasi oleh Nvidia.
- Pelanggan Besar Pertama: Qualcomm telah mengumumkan penandatanganan pelanggan besar pertamanya, Humain, sebuah perusahaan AI Arab Saudi. Humain berkomitmen untuk menerapkan hingga 200 megawatt sistem bertenaga Qualcomm mulai tahun 2026. Kesepakatan ini menunjukkan validasi awal dari teknologi Qualcomm di pasar data center skala besar.
Langkah ini juga memungkinkan Qualcomm untuk lebih lanjut memanfaatkan teknologinya dari desain mobile ke komputasi server, sebuah strategi diversifikasi yang sudah mereka mulai di pasar PC. Meskipun Nvidia saat ini menguasai lebih dari 90% pasar, kebutuhan yang besar dan terus berkembang akan komputasi AI menciptakan ruang bagi pemain baru yang menawarkan solusi berbeda.
Memperkuat Ekosistem Chip AI Data Center Qualcomm
Dalam jangka panjang, Qualcomm berupaya menawarkan lebih dari sekadar chip. Mereka memperkenalkan sistem tingkat rak server lengkap dan komponen individual. Ini memberikan fleksibilitas kepada pelanggan, yang memungkinkan mereka untuk mengadopsi penuh sistem Qualcomm atau menggabungkannya dengan komponen dari produsen lain. Hal ini sangat penting karena banyak penyedia cloud besar seperti Microsoft, Amazon, dan Google juga merancang akselerator AI mereka sendiri, mencari solusi yang dapat dicampur dan dicocokkan.
Keputusan Qualcomm untuk terjun kembali ke arena pusat data, setelah sempat menarik diri dari upaya sebelumnya pada tahun 2018, menunjukkan perubahan strategis yang mendasar. Kali ini, mereka datang dengan fokus yang tajam pada inferensi AI dan memanfaatkan teknologi efisiensi daya yang teruji. Ini adalah pertarungan panjang, tetapi peluncuran Chip AI Data Center Qualcomm telah menegaskan bahwa perlombaan senjata AI baru saja memasuki babak yang lebih sengit.
Baca juga:
- Gugatan Microsoft Kenaikan Harga: Australia Tuntut Praktik AI Copilot yang Menyesatkan
- Lelang Kripto Ferrari: Merangkul Generasi AI dengan Mobil Le Mans
- Pemegang Saham Grindr Tawarkan Pembelian Privatisasi $3,46 Miliar
Informasi ini dipersembahkan oleh empire88

