
Startup Tiongkok DeepSeek telah mengejutkan para pemain terbesar di Silicon Valley dengan chatbot AI barunya yang menyaingi kinerja ChatGPT OpenAI namun biaya pengembangannya jauh lebih murah.
Pada saat tulisan ini dibuat, DeepSeek telah melampaui ChatGPT di App Store Apple sebagai aplikasi gratis yang paling banyak diunduh di Amerika Serikat, Inggris, Tiongkok, dan beberapa negara lainnya. Ia bekerja seperti chatbot pada umumnya: Anda memasukkan kueri, dan model sumber terbukanya menghasilkan jawaban. Model DeepSeek-V3 yang mendasarinya memiliki 671 miliar parameter, memungkinkan aplikasi untuk “berpikir” sebelum memecahkan masalah.
Berbeda dengan model OpenAI, yang hanya dapat berjalan di servernya sendiri, DeepSeek dapat berjalan secara lokal di komputer dengan daya lebih tinggi dan banyak server dengan akselerasi GPU. Perusahaan mengklaim modelnya cocok dengan model o1 OpenAI pada tolok ukur tertentu. Tidak seperti banyak chatbot AI lainnya, DeepSeek juga secara transparan menunjukkan alasannya dan cara memperoleh jawaban. Namun, sebagai aplikasi Tiongkok, DeepSeek menyensor topik tertentu seperti Lapangan Tiananmen.
Aplikasi yang dirilis pada 20 Januari ini juga tersedia di Google Play Store. DeepSeek mendapatkan popularitasnya yang tiba-tiba karena kemampuannya untuk menyamai atau menyempurnakan model AI yang sudah ada. Makalah penelitiannya, yang dirilis pada hari Senin, mengungkapkan betapa hemat biaya pelatihan DeepSeek-V3.
Meskipun klaimnya belum diverifikasi, DeepSeek tampaknya hanya menggunakan 2.048 chip Nvidia H800 khusus untuk melatih R1 dibandingkan lebih dari 16.000 chip Nvidia untuk melatih model OpenAI terkemuka. DeepSeek mengatakan pengurangan drastis dalam jumlah GPU mutakhir yang diperlukan untuk pelatihan AI telah memungkinkannya menghabiskan hanya $5,6 juta untuk melatih R1. Bandingkan dengan OpenAI, yang menghabiskan lebih dari $100 juta untuk melatih model GPT-4 yang berukuran sebanding. Namun, perusahaan belum menghitung konsumsi energi DeepSeek dibandingkan dengan pesaingnya.
R1 sendiri didasarkan pada model bahasa besar (LLM) V3 DeepSeek, yang menurut perusahaan cocok dengan GPT-4o OpenAI dan Claude 3.5 Sonnet dari Anthropic. Pencapaian DeepSeek sangat mengesankan mengingat pemerintah AS memberlakukan sanksi perdagangan terhadap chip Nvidia canggih yang digunakan untuk pelatihan AI. Dengan pemain AI terbesar seperti Nvidia, OpenAI, Meta, dan Microsoft menghabiskan miliaran dolar untuk pusat data AI mereka, kita akan melihat banyak berita utama minggu ini yang mempertanyakan keunggulan Amerika dalam AI.
Akan sangat menarik untuk melihat bagaimana terobosan DeepSeek memengaruhi proyek Stargate senilai miliaran dolar milik pemerintahan Trump—yang didukung oleh OpenAI, Softbank, dan Oracle—dengan tujuan menginvestasikan $500 miliar dalam membangun infrastruktur AI baru dan pusat data untuk OpenAI selama empat tahun ke depan. Hal-hal akan menjadi sangat menarik ketika OpenAI bertransisi dari organisasi nirlaba menjadi organisasi nirlaba, karena DeepSeek telah menjadikan model AI-nya menjadi sumber terbuka.
Meta juga melakukan open source pada beberapa aspek teknologi AI-nya, seperti Lama LLM. Tetap saja, DeepSeek adalah anak baru yang sedang dibicarakan semua orang, dan fakta bahwa pengembang dapat dengan bebas membangun teknologi DeepSeek dapat membuat OpenAI kehilangan uangnya.
Sumber: TechCrunch, New York Times, Bloomberg