Di tengah bayang-bayang kelangkaan memori dan dominasi diskusi seputar kecerdasan buatan (AI) berbasis cloud, muncul secercah harapan bagi industri PC gaming dan pasar memori. Dua raksasa semikonduktor, AMD dan Nvidia, mulai mengisyaratkan fokus yang lebih besar pada pengembangan AI lokal untuk konsumen, sebuah tren yang bisa menjadi kabar baik bagi para gamer dan pengguna PC.
AMD Soroti Potensi AI Lokal di CES 2026
Sinyal kuat ini terutama datang dari keynote AMD di ajang CES 2026. CEO AMD, Dr. Lisa Su, secara signifikan meluangkan waktu untuk membahas potensi AI yang berjalan secara lokal pada perangkat. Pembahasan ini mencakup pengenalan jajaran chip seluler terbaru perusahaan, seri Ryzen AI 400, yang pada dasarnya merupakan seri Strix Point 300 dengan peningkatan kecepatan clock.
Pembaca dapat menelusuri artikel informatif lainnya di Mureks. mureks.co.id
Mureks mencatat bahwa langkah ini sejalan dengan strategi perusahaan teknologi untuk mendorong penggunaan perangkat keras mereka. Jika AI menjadi tren utama, maka kemampuan AI lokal pada perangkat menjadi nilai jual yang sangat menarik.
Konsep “AI PC” sendiri bukanlah hal baru, telah digaungkan oleh Microsoft sejak peluncuran Copilot pada pertengahan 2024. Namun, industri AI lokal saat itu masih dalam tahap awal, sehingga kemampuan AI PC belum terlalu menonjol.
Sejak saat itu, industri AI berbasis cloud telah mengalami ledakan besar, dengan investasi mencapai ratusan miliar dolar. Dr. Su melihat, atau setidaknya berharap, pertumbuhan ini akan terus berlanjut secara eksponensial. Ia menyatakan, “Untuk mengaktifkan AI di mana-mana, kita perlu meningkatkan kapasitas komputasi dunia 100 kali lipat dalam beberapa tahun ke depan, menjadi lebih dari 10 yottaflops dalam lima tahun ke depan.” Angka ini, menurutnya, 10.000 kali lebih besar dari kapasitas komputasi pada tahun 2022.
Selain perangkat keras, Dr. Su juga menyoroti aspek perangkat lunak dengan menghadirkan Ramin Hasani, salah satu pendiri dan CEO Liquid AI. Tujuan utama Liquid adalah menciptakan AI yang “dioptimalkan untuk prosesor” dan dapat diskalakan dengan baik untuk AI lokal pada perangkat. Model mereka saat ini, LFM2.5, hanya menggunakan 1,2 miliar parameter dan, menurut Hasani, menunjukkan kinerja yang lebih baik daripada DeepSeek dan Gemini Pro 2.5 pada perangkat.
Hasani menegaskan, “Tujuannya adalah untuk secara substansial mengurangi biaya komputasi intelijen dari prinsip-prinsip pertama, tanpa mengorbankan kualitas. Itu berarti model cair memberikan kualitas model terdepan langsung pada perangkat.”
Nvidia Isyaratkan Konvergensi Model AI Lokal dan Cloud
Dari sisi Nvidia, meskipun AI lokal tidak mendapatkan waktu tayang yang spesifik dalam beberapa hari terakhir—kecuali mungkin DLSS 4.5—tetap ada indikasi yang membangkitkan harapan. Salah satu slide dalam GeForce On Community Update secara jelas menyatakan: “Model PC mendekati kesenjangan dengan cloud.” Meskipun grafik yang menyertai teks ini tidak mencantumkan metrik aktual, namun menunjukkan bahwa model lokal tampaknya mulai menyamai model berbasis cloud.
Penting untuk dicatat bahwa fokus ini kemungkinan besar merujuk pada langganan AI berbasis cloud dan inferensi AI, bukan pelatihan AI, yang masih akan membutuhkan beban kerja besar untuk server raksasa. Bagi Nvidia, ini adalah situasi “makan kue dan memilikinya”, di mana perusahaan cloud menggunakan GPU mereka di pusat data, sementara chip grafis konsumen mereka sangat cocok untuk mempercepat beban kerja AI lokal.
Namun demikian, adanya fokus pada AI lokal dapat menjadi hal positif bagi konsumen. Terutama karena menjalankan model AI secara lokal membutuhkan memori, baik di sisi sistem, seperti pada Strix Halo, maupun dengan VRAM yang besar, seperti pada RTX 5090.
Jika perusahaan-perusahaan ini ingin konsumen menjalankan AI lokal, mereka harus menekan pemasok memori untuk menyediakan pasokan yang cukup bagi pengguna individu. Meskipun demikian, prospek ini tetap memberikan sedikit optimisme di tengah tantangan pasar.






