China Memimpin dalam Borong Chip AS, Menentukan Masa Depan Generasi Teknologi

by -178 Views

Tencent mengatakan mereka masih memiliki persediaan chip AI dalam jumlah besar dari produsen AS Nvidia. Tapi, pemblokiran total dari pemerintahan Joe Bide pada penjualan chip kelas atas ke China tetap akan berdampak pada layanan cloud-nya.

Presiden Tencent Martin Lau mengatakan, keputusan AS bulan lalu untuk melarang ekspor lebih banyak chip yang digunakan dalam kecerdasan buatan (AI) ke China akan memaksa perusahaan untuk menggunakan stok yang ada secara lebih efisien, dan mencari alternatif yang diproduksi dalam negeri.

Tencent memiliki cukup chip Nvidia untuk melanjutkan pengembangan model AI “Hunyuan” setidaknya untuk beberapa generasi lagi, sehingga pembatasan tersebut tidak akan mempengaruhi kemampuan AI dalam jangka pendek.

“Kami harus mencari cara untuk membuat penggunaan chip AI kami lebih efisien,” katanya, dikutip dari Reuters, Jumat (17/11/2023).

“Dan kami juga akan mencoba mencari sumber dalam negeri untuk chip pelatihan ini,” imbuh Lau.

Namun, aturan baru ini akan berdampak pada layanan cloud tempat Tencent menjual daya komputasi kepada klien.

Perusahaan merasa pelarangan chip sebenarnya memengaruhi kemampuan mereka untuk menjual kembali penggunaan chip AI ini melalui layanan cloud mereka.

Nvidia mendominasi sekitar 90% pasar chip AI Tiongkok, yang berarti perluasan pembatasan ekspor AS telah membuat perusahaan-perusahaan China yang memiliki ambisi pada AI, kesulitan untuk mengatasinya.

Beberapa perusahaan telah beralih ke pembuat chip dalam negeri seperti Huawei Technologies, sebuah tren yang oleh para analis disebut sebagai ancaman terhadap kepemimpinan Nvidia.

Reuters melaporkan pekan lalu bahwa saingan Tencent, Baidu, telah memesan 1.600 chip Huawei Ascend 910B.

Tencent memiliki stok chip AI H800 yang dikembangkan Nvidia khusus untuk Tiongkok tahun lalu sebagai respons terhadap pembatasan ekspor sebelumnya – tetapi peraturan baru juga mencakup hal tersebut.

Dikatakan bahwa salah satu cara terbaik untuk memanfaatkan chip H800 adalah dengan menyimpannya untuk bagian paling penting dari pengembangan model AI, yaitu pelatihan model.

“Kami akan mencoba melihat apakah kami dapat memindahkan banyak kemampuan inferensi ke chip berperforma rendah sehingga kami dapat mempertahankan sebagian besar chip AI berperforma tinggi untuk tujuan pelatihan,” ujar Lau.