34
Deepseek. (globaltimes)
16:52
1 Februari 2025
Ramai-ramai Teknologi AI Bikinan DeepSeek dari Tiongkok, Ini yang Bikin Beda dengan Model AI Lainnya
JawaPos.com - DeepSeek, sebuah perusahaan rintisan atau startup teknologi dari Tiongkok bikin geger para pengembang teknologi kecerdasan buatan atau Artificial Intelligence (AI) seantero dunia. Sebabnya adalah platform AI nikinan mereka disebut-sebut jauh lebih murah dari kebanyakan model AI yang sudah ada sekarang baik dari OpenAI atau Nvidia. Geger DeepSeek ini bahkan sampai membuat saham Nvidia anjlok. Sentimen pasar terpengaruh, pengembangan teknologi AI yang selama ini dinilai mahal, terbantahkan oleh kehadiran DeepSeek. Memang, industri kecerdasan buatan telah lama didominasi oleh perusahaan-perusahaan yang berbasis di Amerika Serikat (AS) seperti OpenAI, Google, Nvidia Meta dan beberapa pemain lainnya. Namun, kemunculan DeepSeek, perusahaan rintisan AI asal Tiongkok, baru-baru ini telah mengubah lanskap AI global. Model terbaru DeepSeek, DeepSeek-R1, telah menjadi berita utama karena kinerjanya yang kompetitif, sifatnya yang open-source, dan pengembangannya yang hemat biaya. Karena AI menjadi bagian yang semakin penting dari inovasi teknologi, memahami bagaimana DeepSeek membedakan dirinya dari model-model terkemuka lainnya menjadi sangat penting. Melansir Gizmochina, DeepSeek disebut mengambil pendekatan yang berbeda dari raksasa AI AS seperti OpenAI dengan memprioritaskan pengembangan sumber terbuka atau open source. Peluncuran model DeepSeek-R1 di bawah lisensi MIT memberikan kebebasan kepada peneliti, pengembang, dan bisnis untuk mengakses, memodifikasi, dan menerapkan teknologi tersebut. Di sisi lain, OpenAI telah beralih dari filosofi sumber terbuka awalnya, dengan tetap mempertahankan model GPT yang lebih baru sebagai hak milik. Pendekatan sumber terbuka ini memberikan transparansi yang lebih besar. Open source juga mendorong peningkatan kolaboratif, dan menurunkan hambatan terhadap adopsi AI, menjadikan DeepSeek sebagai alternatif yang menarik bagi perusahaan dan pengembang independen yang lebih suka tidak terikat pada ekosistem milik sendiri. DeepSeek-R1 menggunakan arsitektur Mixture-of-Experts (MoE), yang secara signifikan meningkatkan efisiensi komputasi. Model ini memiliki 671 miliar parameter, tetapi karena pengaturan MoE-nya, hanya 37 miliar parameter yang aktif pada waktu tertentu. Hal ini memungkinkannya untuk mencapai kinerja tingkat tinggi sambil mempertahankan biaya komputasi yang lebih rendah daripada arsitektur berbasis transformator tradisional. Sebagai perbandingan, GPT-4 milik OpenAI diperkirakan memiliki sekitar 1,8 triliun parameter, yang membutuhkan daya komputasi yang jauh lebih besar dan menyebabkan biaya operasional yang lebih tinggi. Pendekatan DeepSeek memungkinkannya untuk mengoptimalkan sumber daya sambil mempertahankan akurasi dan efisiensi dalam tugas berbasis teks. Meskipun jauh lebih murah, DeepSeek telah mencapai kinerja AI yang setara dengan model-model terkemuka seperti GPT-4 milik OpenAI, Llama 3.1 milik Meta, dan Claude 3.5 Sonnet milik Anthropic, tetapi dengan biaya yang jauh lebih murah. Perusahaan tersebut mengklaim telah melatih DeepSeek-R1 dengan anggaran sekitar USD 5,6 juta, jauh lebih rendah dari pada ratusan juta dolar yang dikeluarkan oleh para pesaingnya. Efisiensi biaya ini sebagian besar disebabkan oleh penggunaan arsitektur Mixture-of-Experts (MoE), yang mengoptimalkan komputasi dengan hanya mengaktifkan bagian model yang paling relevan selama setiap interaksi. DeepSeek juga dilaporkan melatih modelnya menggunakan GPU H800, versi yang sedikit diturunkan dari GPU H100 berperforma tinggi Nvidia, yang dibatasi ekspornya ke Tiongkok karena sanksi AS. Meskipun ada keterbatasan perangkat keras ini, DeepSeek telah menunjukkan bahwa mereka dapat mengembangkan model AI yang sangat kompetitif dengan tuntutan komputasi yang lebih rendah. Model AI DeepSeek, khususnya DeepSeek-R1, unggul dalam tugas-tugas teknis seperti penalaran, pengodean, dan matematika. Dalam tolok ukur pihak ketiga, DeepSeek-R1 mengungguli GPT-4o dan model AI terkemuka lainnya dalam pemecahan masalah logis, perhitungan matematika, dan pembuatan kode. Menurut laporan, model ini memperoleh skor 2.029 Elo di Codeforces, sebuah platform kompetisi pengodean atau coding, melampaui 96,3 % peserta manusia. Model ini memadukan penalaran berantai (CoT), yang memungkinkannya memecah masalah kompleks menjadi solusi langkah demi langkah, area utama yang juga menjadi fokus model o1 OpenAI. Sementara ChatGPT OpenAI tetap unggul dalam penulisan kreatif, kemampuan percakapan, dan interaksi bernuansa mirip manusia, DeepSeek telah mengukir ceruk sebagai AI pilihan bagi pengembang, teknisi, dan peneliti yang membutuhkan keluaran yang tepat dan berdasarkan logika. DeepSeek juga diposisikan secara unik untuk melayani pasar berbahasa Mandarin dan Inggris. Tidak seperti OpenAI, yang utamanya dioptimalkan untuk pengguna berbahasa Inggris, DeepSeek dirancang secara dwibahasa, unggul dalam tugas berbahasa Inggris dan Mandarin. DeepSeek juga mengungguli model Amerika dalam tolok ukur berbahasa Mandarin, menjadikannya alternatif yang menarik bagi bisnis dan pengembang yang bekerja di Tiongkok dan wilayah berbahasa Mandarin lainnya. Namun, DeepSeek memang menunjukkan kecenderungan mencampur bahasa, terkadang menghasilkan respons yang mencampur bahasa Inggris dan Mandarin bahkan ketika perintah diberikan dalam bahasa yang berbeda. Ini tetap menjadi batasan yang terus disempurnakan oleh perusahaan.
Editor: Sabik Aji Taufan
Tag: #ramai #ramai #teknologi #bikinan #deepseek #dari #tiongkok #yang #bikin #beda #dengan #model #lainnya