“Pelanggan tetap memilih NVIDIA untuk kebutuhan inference karena kami menawarkan kinerja terbaik dan total biaya kepemilikan paling efisien dalam skala besar,” kata Nvidia.
Sementara itu, OpenAI menyatakan masih sangat bergantung pada teknologi Nvidia untuk sebagian besar armada inference-nya. “Nvidia memberikan kinerja per dolar AS terbaik untuk kebutuhan inference kami,” ujar perwakilan OpenAI.
Kendati demikian, sejumlah sumber menyebut OpenAI tidak sepenuhnya puas dengan kecepatan chip Nvidia dalam menangani permintaan tertentu, seperti pengembangan perangkat lunak dan komunikasi antarsistem AI. OpenAI disebut membutuhkan perangkat keras baru ke depan yang dapat memenuhi sekitar 10 persen kebutuhan komputasi inference-nya.
Dalam konteks itu, OpenAI sempat menjajaki kerja sama dengan perusahaan rintisan seperti Cerebras dan Groq yang mengembangkan chip berbasis SRAM untuk inference berkecepatan tinggi.
Terkait hal ini, CEO OpenAI, Sam Altman menegaskan, Nvidia saat ini membuat chip AI terbaik di dunia. Dia juga berharap OpenAI tetap menjadi pelanggan raksasa bagi Nvidia di masa depan.
(Rahmat Fiansyah)