DeepSeek 是一系列以 Transformer 架構為基礎的大型語言模型,類似 OpenAI 的 GPT 模型,但特別針對中文自然語言處理(NLP)能力加強,支援對話生成、知識問答、程式輔助、文章寫作、邏輯推理等任務。
目前發布的模型包含:
-
DeepSeek-V2(最新主力模型)
-
DeepSeek-Coder(專為程式碼生成設計)
-
DeepSeek-MoE(專注於推理效率的混合專家模型)
| 功能 | 說明 |
|---|---|
| 🧠 中英雙語能力強 | 訓練資料涵蓋中英文資料,特別優化中文對話與理解。 |
| 📚 支援多任務學習 | 包含問答、翻譯、摘要、創作、數學推理、程式撰寫等。 |
| 💻 DeepSeek-Coder | 專為程式開發設計,支援 Python、C++、JavaScript 等主流語言的生成與補全。 |
| ⚙️ 高效開源部署 | 可在本地 GPU、雲端或企業私有化部署,提供 Hugging Face 介面。 |
| 🚀 推理效能優化(MoE) | DeepSeek-MoE 使用混合專家架構,大幅提升計算效率與推理速度。 |

33857桃園市蘆竹區開南路1號 No. 1 Kainan Road , Luzhu, Taoyuan County 338, Taiwan