ADVERTISEMENT
DeepSeek (Hanzi: 杭州深度求索人工智能基础技术研究有限公司; umum dikenal sebagai DeepSeek AI atau hanya DeepSeek) adalah perusahaan kecerdasan buatan asal Tiongkok yang didirikan pada Juli 2023 oleh Liang Wenfeng, seorang pebisnis dan profesional di bidang kecerdasan buatan. Perusahaan ini merupakan anak perusahaan dari High-Flyer, sebuah perusahaan perdagangan saham Tiongkok. DeepSeek dikenal karena mengembangkan model bahasa besar (LLM) dan merilis beberapa model sumber terbuka yang signifikan, yang menjadi pesaing utama bagi platform besar seperti ChatGPT milik OpenAI dan Gemini milik Google.
Beberapa saat setelah pendiriannya, DeepSeek mengakuisisi ribuan chip komputer dari Nvidia, yang merupakan komponen mendasar dalam upaya menciptemotakan sistem AI yang canggih. Perusahaan ini dikenal merekrut peneliti AI muda dan berbakat dari universitas-universitas ternama dengan menjanjikan gaji tinggi serta kesempatan untuk mengerjakan proyek-proyek penelitian mutakhir.
Sejarah dan Pendanaan
Awal Mula dan Penolakan Pendanaan Eksternal
Sejak awal pendiriannya, DeepSeek dikenal sebagai perusahaan yang menolak pendanaan eksternal. Operasional perusahaan selama ini sebagian besar didanai oleh hedge fund milik pendirinya sendiri, High-Flyer. Liang Wenfeng, pendiri DeepSeek, selama ini dikenal sebagai sosok yang enggan membawa perusahaannya ke jalur penawaran umum perdana (IPO) ataupun tunduk pada konglomerasi teknologi besar Tiongkok. Ia memegang kendali langsung dan tidak langsung sekitar 84% saham perusahaan.
Putaran Pendanaan Perdana
Pada Mei 2026, DeepSeek dikabarkan tengah bersiap menggelar penggalangan dana perdana dengan valuasi mencapai US$50 miliar atau setara sekitar Rp 866 triliun. Dalam putaran pendanaan perdana ini, DeepSeek disebut berpotensi mengantongi dana segar hingga US$4 miliar. Pemerintah Tiongkok melalui dana AI nasional senilai 60 miliar yuan disebut tengah berdiskusi menjadi investor utama dalam putaran pendanaan tersebut. Selain itu, raksasa teknologi Tencent Holdings juga dikabarkan ikut menjajaki investasi.
Laporan lain menyebutkan bahwa DeepSeek menargetkan valuasi hingga US$50 miliar dengan pendanaan US$3 miliar hingga US$4 miliar. Dana yang terkumpul akan digunakan untuk memperbesar kapasitas komputasi AI serta meningkatkan fasilitas dan kesejahteraan pegawai. Langkah ekspansi ini dilakukan saat DeepSeek mulai menghadapi tekanan dari rival domestik seperti ByteDance, Alibaba, hingga startup AI seperti MiniMax dan Moonshot AI yang agresif dalam mengembangkan model AI generasi baru.
Menurut laporan The Information, DeepSeek memulai putaran pendanaan eksternal pertamanya dengan target maksimum 50 miliar Yuan (sekitar US$73,5 miliar), dengan valuasi pasca-pendanaan diperkirakan melebihi 350 miliar Yuan (sekitar US$515 miliar). Jika terealisasi, ini akan menjadi putaran pendanaan tunggal terbesar dalam sejarah industri AI Tiongkok.
Pendiri DeepSeek, Liang Wenfeng, disebut-sebut akan menyuntikkan dana pribadi hingga 20 miliar Yuan, menguasai sekitar 40% saham dalam putaran ini. Dana Investasi Industri Sirkuit Terpadu Nasional Tiongkok (Big Fund) diperkirakan akan menjadi investor terbesar kedua dengan persyaratan yang relatif longgar. Baik Alibaba maupun Tencent disebut sempat melakukan negosiasi, namun gagal mencapai kesepakatan. Alibaba menginginkan integrasi ekosistem yang ditolak oleh DeepSeek, sementara Tencent mengajukan pembelian 20% saham yang dianggap terlalu besar.
Model- Model AI
DeepSeek-V3
Pada Desember 2024, DeepSeek merilis DeepSeek-V3, sebuah model yang melanjutkan arsitektur Mixture-of-Experts dengan inovasi mutakhir seperti auxiliary-loss-free load balancing dan node-limited routing. Model ini juga dilengkapi dengan Multi-Token Prediction (MTP) dan pelatihan FP8. DeepSeek-V3 memiliki total 671 miliar parameter, dengan hanya 37 miliar parameter yang aktif per token.
Model DeepSeek-V3-V3 dilatih pada 14,8 triliun token berkualitas tinggi. Arsitektur Multi-Token Prediction memungkinkan model untuk memprediksi beberapa token sekaligus, meningkatkan efisiensi dan kecepatan inferensi.
DeepSeek-R1
DeepSeek-R1 adalah model penalaran generasi pertama yang dilatih menggunakan pembelajaran penguatan (reinforcement learning) skala besar untuk menyelesaikan tugas-tugas penalaran kompleks di berbagai domain seperti matematika, kode, dan bahasa. Model ini memanfaatkan pembelajaran penguatan untuk mengembangkan kemampuan penalaran, yang selanjutnya ditingkatkan melalui supervised fine-tuning (SFT) untuk meningkatkan keterbacaan dan koherensi.
DeepSeek-R1 didasarkan pada arsitektur DeepSeek-V3-Base dan memiliki panjang konteks 128K token. Model ini terdiri dari lapisan embedding, diikuti oleh 61 lapisan transformer, serta beberapa prediction head pada tahap output. Pada semua lapisan transformer, DeepSeek-R1 menggunakan lapisan Multi-head Latent Attention (MLA) sebagai pengganti mekanisme Multi-head Attention standar. Tiga lapisan transformer pertama menggunakan lapisan Feed-Forward Network (FFN) standar yang disebut dense layer. Sementara itu, mulai lapisan ke-4 hingga ke-61, lapisan Mixture of Experts (MoE) menggantikan lapisan FFN tersebut.
Multi-head Latent Attention pertama kali diperkenalkan di DeepSeek-V2 dan diteruskan ke DeepSeek-V3 dan DeepSeek-R1. Mekanisme ini dikembangkan sebagai solusi atas bottleneck Key-Value (KV) cache pada model transformer tradisional yang membatasi efisiensi inferensi. Dengan mengurangi ukuran KV cache, MLA memungkinkan kinerja yang lebih baik dibandingkan mekanisme Multi-Query Attention (MQA) dan Grouped-Query Attention (GQA) tanpa mengorbankan kemampuan representasi.
Teknologi pemadatan pengetahuan (knowledge distillation) digunakan untuk memindahkan kemampuan dari model besar ke model yang lebih ringkas. DeepSeek-R1 tersedia dalam versi distilled yang didasarkan pada arsitektur Qwen dan Llama, dengan parameter yang lebih sedikit namun tetap mempertahankan performa tinggi untuk tugas penalaran, matematika, dan kode.
DeepSeek-V3.2
Pada 1 Desember 2025, DeepSeek secara resmi meluncurkan dua model baru: DeepSeek-V3.2 dan varian berdaya komputasi tinggi, DeepSeek-V3.2-Speciale. Dengan menerapkan protokol pembelajaran penguatan yang solid dan meningkatkan komputasi pasca-pelatihan, DeepSeek-V3.2 dinyatakan memiliki kinerja yang setara dengan GPT-5. Model AI ini menyeimbangkan efisiensi komputasional yang tinggi sekaligus mempertahankan kemampuan penalaran dan kinerja agen yang unggul.
DeepSeek-V3.2-Speciale, yang berdaya komputasi tinggi, dilaporkan melampaui GPT-5 dan menunjukkan kemampuan penalaran yang setara dengan Gemini-3.0-Pro milik Google. Model ini berhasil meraih prestasi medali emas dalam Olimpiade Matematika Internasional (IMO) 2025 dan Olimpiade Informatika Internasional (IOI) 2025. DeepSeek-V3.2-Speciale mencetak 35 dari 42 poin pada soal-soal benchmark IMO 2025, meraih status setara medali emas dan mendemonstrasikan kemampuan penalaran matematika yang menyamai sistem AI terbaik dunia.
Terobosan teknis utama di balik kesuksesan ini adalah mekanisme DeepSeek Sparse Attention (DSA), yang secara signifikan mengurangi kompleksitas komputasional sebesar 50-75% sembari tetap mempertahankan kinerja model dalam skenario konteks panjang. Mekanisme inilah yang memungkinkan efisiensi biaya yang menjadi ciri khas DeepSeek.
Model DeepSeek-V3.2 juga memperkenalkan kemampuan "Thinking in Tool-Use", sebuah inovasi yang mengintegrasikan penalaran langsung ke dalam proses pemanfaatan alat. Ini memungkinkan AI untuk berpikir sambil menggunakan alat, mendukung mode berpikir dan mode tidak berpikir, sebuah kemajuan penting bagi agen AI yang perlu berinteraksi dengan sistem eksternal. Model ini dilatih pada data yang mencakup lebih dari 1.800 lingkungan dan 85.000 instruksi kompleks.
DeepSeekMath-V2
Pada 27 November 2025, DeepSeek merilis DeepSeekMath-V2, sebuah model yang mencapai pencapaian luar biasa dalam penalaran matematika. Model ini berhasil mencetak 118 dari 120 poin pada William Lowell Putnam Mathematical Competition yang bergengsi, melampaui skor manusia tertinggi yang hanya 90. Sebagaimana dilaporkan dalam jurnal Nature, ini bukan hanya tentang mendapatkan jawaban yang benar, tetapi tentang penalaran matematika yang sejati.
Model ini memperkenalkan sistem penalaran self-verifiable revolusioner yang menampilkan pembangkit bukti untuk mengonstruksi solusi, pemverifikasi yang dilatih untuk mengevaluasi bukti matematika, dan sistem meta-verifikasi yang memeriksa pemverifikasi itu sendiri. Hal ini menciptakan umpan balik loop di mana setiap komponen meningkatkan komponen lainnya, menghasilkan kemampuan penalaran yang semakin baik. Model ini tampil pada tingkat medali emas dalam Olimpiade Matematika Internasional (IMO) 2025 dan Olimpiade Matematika Tiongkok, memecahkan lima dari enam soal IMO dengan akurasi 83,3%.
Dampak Pasar dan Persaingan
Guncangan Pasar Saham Global
Kehadiran DeepSeek dengan model AI berbiaya rendah namun berperforma tinggi sempat mengguncang industri teknologi global. Ketika DeepSeek pertama kali meluncurkan model AI murah dengan performa yang mampu menyaingi AI mahal buatan raksasa teknologi Amerika Serikat, langkah tersebut memicu aksi jual saham teknologi global dan sempat menghapus nilai pasar Nvidia asal AS hingga US$593 miliar dalam satu hari. Saat itu, model AI murah namun efisien buatan DeepSeek dinilai menjadi ancaman serius bagi dominasi perusahaan AI Amerika Serikat.
Perbandingan dengan OpenAI
DeepSeek-V3 dan GPT-4 keduanya menggunakan arsitektur Transformer, tetapi perbedaan utama terletak pada skala parameter dan strategi pelatihan. GPT-4 dengan 1,8 triliun parameter memiliki keunggulan signifikan dalam penalaran logika kompleks dan integrasi pengetahuan lintas domain. Dalam tugas pembuatan dokumen hukum, misalnya, akurasi kutipan pasal GPT-4 12,7% lebih tinggi daripada DeepSeek-V3 berdasarkan data benchmark Stanford University 2024.
Namun, DeepSeek melalui arsitektur Mixture of Experts (MoE), berhasil menjaga 37 miliar parameter aktif sambil menurunkan biaya inferensi hingga seperlima dari GPT-4. Desain "kecil namun berkualitas" ini membuat DeepSeek lebih kompetitif dalam skenario seperti layanan pelanggan real-time dan deployment ringan. DeepSeek juga unggul dalam optimalisasi bahasa Mandarin, dengan proporsi data pelatihan berbahasa Mandarin mencapai 78%, menghasilkan peningkatan akurasi 9,3% dalam tugas-tugas seperti pemahaman idiom Mandarin dan terjemahan teks klasik.
Perang Harga API
Pada akhir April 2026, DeepSeek memangkas harga API untuk model V4-Pro secara drastis. Harga output diturunkan menjadi US$0,878 per juta token, sementara harga input yang mencapai cache hanya US$0,0037. Langkah ini memberikan keunggulan kompetitif yang kuat terhadap OpenAI dan Anthropic. Biaya penggunaan API DeepSeek-V4-Pro hanya sekitar sepertiga puluh dari OpenAI GPT-5.5 dan Anthropic Claude Opus 4.7.
DeepSeek juga menurunkan harga cache hit menjadi sepersepuluh dari harga asli, sebuah strategi yang sangat menguntungkan untuk skenario pemrosesan teks panjang, Retrieval-Augmented Generation (RAG), dan interaksi berulang berkelanjutan agen. Dengan indeks ketakutan dan keserakahan yang menunjukkan sensitivitas pasar yang meningkat, perubahan ini diprediksi akan memaksa pemain domestik lainnya seperti Zhipu GLM 5.1 dan Moonshot Kimi K2.6 mengikuti penurunan harga, mempercepat laju pembersihan industri.
Dampak di Indonesia
DeepSeek telah membuka peluang bagi ekosistem startup AI di Indonesia. Perusahaan rintisan asal Tiongkok ini dipandang dapat membantu mengatasi masalah di berbagai jenis industri startup di Indonesia, khususnya yang memanfaatkan AI di dalam produknya.
Pemerintah Indonesia bahkan tengah mendorong pengembangan model bahasa besar (LLM) sumber terbuka dengan biaya rendah yang dipandang sebagai versi lokal dari DeepSeek, sebagai bagian dari upaya menjadi pusat teknologi AI di Asia Tenggara. Penasihat ekonomi senior Presiden Prabowo Subianto, Luhut Pandjaitan, mengungkapkan optimisme terhadap proyek yang dikembangkan oleh tim "ahli berbakat" dan menyatakan bahwa chatbot yang belum dinamai tersebut akan diperkenalkan kepada Presiden Prabowo pada bulan depan, dengan kemampuan merespons dalam bahasa Indonesia dan Inggris. Ketua Kamar Dagang dan Industri Indonesia, Arsjad Rasjid, menyerukan sektor swasta untuk bekerja sama dengan pemerintah mendorong inovasi AI, dengan pernyataan "Jika Tiongkok bisa melakukannya, mengapa Indonesia tidak bisa? Esensi dari sumber terbuka adalah kolaborasi".
Selain itu, Indonesia sedang menyusun regulasi tentang AI dan mempertimbangkan DeepSeek sebagai salah satu opsi dalam ekosistem digital nasional. Wakil Menteri Komunikasi dan Digital Nezar Patria menyatakan bahwa chatbot ini akan dievaluasi sebelum diputuskan apakah akan dilarang atau tidak.
Lihat pula
Referensi
- Perkembangan AI di Indonesia: Mengenal DeepSeek, Si Primadona AI Terbaru. pointstar.co.id.
- DeepSeek luncurkan model AI baru dengan efisiensi tinggi. antaranews.com.
- Inside DeepSeek's End-of-Year AI Breakthrough: What the New Models Deliver. c3.unu.edu.
- 一文深入了解DeepSeek-R1:模型架构. cloud.tencent.cn.
- deepseek-r1 Model by Deepseek-ai. build.nvidia.com.
- DeepSeek V3. docs.nvidia.com.
- DeepSeek 很好,但并没有全面超越 OpenAI. developer.baidu.com.
- ChatGPT vs DeepSeek: Perbandingan Mendalam. (tegaroom.com).
- DeepSeek-R1双版本技术对比:Zero与R1的异同与选型指南. cloud.baidu.com.
- GPT-4与DeepSeek-R1:2025年AI技术竞争的巅峰对决. cloud.baidu.com.
- Startup China Obrak-abrik AS, Sekarang Sudah Bernilai Rp 866 Triliun. cnbcindonesia.com.
- DeepSeek首輪融資73.5億鎂,甩開阿里巴巴!只要「條件最少」的錢. blocktempo.com.
- DeepSeek Mengurangkan Harga API Secara Drastik, Mengguncang Pasar AI Global. kucoin.com.