Kecerdasan buatan (AI) open source DeepSeek V3 buatan perusahaan Tiongkok tengah menjadi sorotan. Diluncurkan akhir tahun lalu, model AI ini menunjukkan performa yang menonjol, bahkan mengungguli beberapa model ternama seperti ChatGPT dan Llama.
Keunggulan DeepSeek V3 terletak pada jumlah parameternya yang mencapai 671 juta, jauh lebih banyak daripada Llama 3.1 milik Meta (405 juta). Jumlah parameter ini, yang merupakan variabel internal AI untuk memprediksi dan mengambil keputusan, sering berkorelasi dengan kemampuan AI. Semakin banyak parameter, semakin mumpuni AI tersebut, meskipun membutuhkan perangkat keras yang lebih kuat untuk pengoperasiannya. TechCrunch mencatat, DeepSeek V3 yang belum dioptimalkan memerlukan beberapa GPU kelas atas agar dapat bekerja dengan cepat.
Dalam berbagai uji coba, DeepSeek V3 menunjukkan dominasinya. Pada kompetisi pengkodean di Codeforces, ia berhasil mengalahkan model-model AI unggulan lainnya, termasuk Llama 3.1, GPT-4o dari OpenAI, dan Qwen 2.5 dari Alibaba. Keunggulannya juga terlihat pada Aider Polyglot, sebuah tes yang mengukur kemampuan AI dalam menulis kode baru yang terintegrasi dengan kode yang sudah ada.
Kecepatan pemrosesan DeepSeek V3 juga patut diacungi jempol. Versi ketiga ini tiga kali lebih cepat dari pendahulunya, mampu memproses 60 token per detik. Perusahaan pengembang mengklaim model ini dilatih menggunakan dataset hingga 14,8 triliun token, setara dengan miliaran kata.
Munculnya DeepSeek V3 menjadi bukti perkembangan pesat AI open source dan tantangan baru bagi para pemain besar di industri ini. Kemampuannya yang menyaingi model-model berbayar membuka peluang baru bagi pengembangan dan penerapan AI yang lebih inklusif dan terjangkau.