‹ Back to Blog

Blog

Moreh khai phá tiềm năng AMD MI300X: Suy luận DeepSeek R1 nhanh hơn 1,5 lần so với SGLang (InferenceMAX)

March 16, 2026

Authors: Bongwon Jang

Tài liệu này được dịch tự động bằng AI. Nội dung có thể chưa chính xác, vui lòng tham khảo bản gốc tiếng Anh nếu cần. Xem bản gốc tiếng Anh

Giới thiệu

Với sự xuất hiện của các mô hình quy mô lớn như DeepSeek R1 và nhu cầu AI tăng vọt, ngay cả những khác biệt nhỏ trong hiệu suất suy luận cũng có thể chuyển thành khoảng cách chi phí hàng triệu đô la trên mỗi token ở quy mô lớn. Điều này khiến việc đo lường khách quan hiệu suất suy luận GPU ngày càng trở nên quan trọng, và framework benchmark mã nguồn mở InferenceMAX của SemiAnalysis là một ví dụ điển hình. Chạy các bài kiểm tra hàng đêm trên hàng trăm GPU để theo dõi hiệu suất suy luận theo thời gian thực, InferenceMAX đã trở thành một trong những hệ thống đo lường đáng tin cậy nhất trong ngành.

Vấn đề là nhiều người coi các con số InferenceMAX công khai là trần hiệu suất thực tế của phần cứng. Nhưng những con số này thể hiện kết quả mà phần mềm mã nguồn mở mặc định (SGLang) đạt được—chứ không phải giới hạn của phần cứng. Tùy thuộc vào mức độ tối ưu hóa phần mềm, bạn có thể khai thác hiệu suất cao hơn đáng kể từ cùng một phần cứng. Điều này đặc biệt đúng với AMD, nơi phần mềm suy luận vẫn chưa hoàn thiện so với hệ sinh thái CUDA của NVIDIA—nghĩa là còn nhiều dư địa tối ưu hóa và phần mềm đóng vai trò quan trọng hơn.

Chúng tôi đã chạy cùng benchmark InferenceMAX sử dụng engine suy luận tối ưu hóa của riêng mình và ghi nhận cải thiện 1,47 lần về độ trễ end-to-end và tăng 1,47 lần thông lượng trên mỗi GPU (trung bình hình học) so với các con số InferenceMAX đã công bố. Điều này xác nhận rằng tối ưu hóa phần mềm vẫn là chìa khóa để khai phá toàn bộ tiềm năng của GPU AMD—và Moreh có năng lực kỹ thuật để thực hiện điều đó. Đối với các tổ chức đang cân nhắc hạ tầng AMD, hợp tác với Moreh có thể giúp đạt hiệu suất suy luận cao hơn trên cùng phần cứng, từ đó giảm chi phí suy luận ở quy mô lớn. Trong bài viết này, chúng tôi sẽ trình bày kết quả kiểm tra để cho thấy tối ưu hóa phần mềm có thể tạo ra bao nhiêu khác biệt về hiệu suất trên cùng phần cứng.

Thách thức: Phần mềm mới là nút thắt thực sự của GPU AMD

Trên giấy tờ, AMD Instinct MI300X là một bộ tăng tốc suy luận ấn tượng. Nó trang bị 192 GB bộ nhớ HBM3 và băng thông bộ nhớ 5,3 TB/s—cao hơn khoảng 2,4 lần và 1,7 lần so với đối thủ NVIDIA H100 tương ứng.

Nhưng trên thực tế, hệ sinh thái phần mềm suy luận của AMD chưa hoàn thiện bằng stack dựa trên CUDA của NVIDIA. SemiAnalysis cũng xác định khả năng kết hợp (composability) là thách thức lớn nhất của AMD trong báo cáo của họ. Các kỹ thuật tối ưu hóa riêng lẻ—FP8 quantization, MoE kernel, Expert Parallelism—mỗi thứ hoạt động tốt riêng rẽ, nhưng việc tích hợp chúng vào một pipeline cấp production vẫn còn khó khăn.

Bản chất của DeepSeek R1 như một mô hình còn tạo thêm độ phức tạp. Đó là mô hình MoE với 671B tham số, có 256 expert trên mỗi decoder block, kết hợp Multi-Head Latent Attention (MLA) và đầu ra chain-of-thought dài—tạo ra bề mặt tối ưu hóa rộng lớn. Điều này cũng có nghĩa là có dư địa hiệu suất đáng kể mà các cấu hình phần mềm mã nguồn mở mặc định đơn giản không thể khai thác được.

Để giải quyết các nút thắt này, Moreh đã phát triển engine suy luận riêng với các tối ưu hóa sâu đến cấp GPU kernel. Chúng tôi đã giải quyết các lĩnh vực mà phần mềm mã nguồn mở mặc định bỏ qua—hiệu quả MoE kernel, tận dụng FP8 KV cache, chi phí kernel launch, và nhiều hơn nữa—để đẩy hiệu suất đi xa hơn. Dưới đây, chúng tôi phân tích cách engine suy luận tối ưu hóa của Moreh vượt trội so với kết quả benchmark InferenceMAX được đo với phần mềm mã nguồn mở hiện có.

Môi trường kiểm tra

CategorySpecification
GPUAMD Instinct MI300X (8 GPUs per node)
ModelDeepSeek R1 0528
PrecisionFP8
BenchmarkInferenceMAX benchmark suite
BaselinePublic SGLang results (January 26, 2026)
Inference FrameworkMoreh Optimized Inference Engine (Moreh-vLLM)

Cấu hình Benchmark

Chúng tôi đã tái tạo chính xác cấu hình benchmark InferenceMAX, bao gồm ba kịch bản ISL/OSL (Input Sequence Length / Output Sequence Length) đại diện:

  • 1K/1K — Tải cân bằng (Q&A ngữ cảnh ngắn, chat)
  • 1K/8K — Tải đầu ra dài (suy luận, lập trình, chain-of-thought)
  • 8K/1K — Tải đầu vào dài (xử lý tài liệu, tóm tắt, RAG)

Mỗi kịch bản được kiểm tra ở các mức đồng thời 4, 8, 16, 32 và 64 (tổng số request từ 40 đến 640), với tốc độ request vô hạn để đo thông lượng tối đa.

Đánh giá hiệu suất

Tóm tắt kết quả

Trong tất cả 15 cấu hình benchmark, Moreh-vLLM—engine suy luận được xây dựng với các kỹ thuật tối ưu hóa của Moreh—đã liên tục vượt trội so với các con số InferenceMAX đã công bố trên cùng phần cứng AMD MI300X.

MetricGeometric Mean Improvement
Median End-to-End Latency (E2EL)1.47x
Total Throughput per GPU (tok/s/gpu)1.47x
Figure 1. Performance speedup for various request patterns (end-to-end latency).
Hình 1. Tăng tốc hiệu suất cho các mẫu request khác nhau. Cao hơn là tốt hơn. Moreh-vLLM cho thấy độ trễ end-to-end thấp hơn trung bình 1,47 lần.
Figure 2. Performance speedup for various request patterns (throughput).
Hình 2. Tăng tốc hiệu suất cho các mẫu request khác nhau. Cao hơn là tốt hơn. Moreh-vLLM cho thấy thông lượng cao hơn trung bình 1,47 lần.

Phân tích chi tiết theo kịch bản

1K/1K (ISL=1,024, OSL=1,024)

CONMedian E2E Latency (s)Total Throughput per GPU (tok/s/gpu)
SGLangMoreh-vLLMImprovementSGLangMoreh-vLLMImprovement
424.6815.431.60x35.9158.291.62x
827.0617.641.53x66.15103.441.56x
1629.622.181.33x120.13163.571.36x
3237.5729.251.28x190.84247.981.30x
6448.5539.151.24x294.07371.631.26x

Cải thiện hiệu suất rõ rệt nhất ở mức đồng thời thấp (CON=4), với độ trễ cải thiện 1,60 lần và thông lượng tăng 1,62 lần. Đây là kết quả của việc tối ưu hóa Moreh loại bỏ hiệu quả chi phí kernel launch, vốn chiếm ưu thế ở kích thước batch nhỏ.

Mặc dù mức cải thiện giảm dần khi đồng thời tăng, nhưng mức cải thiện có ý nghĩa trên 1,24 lần vẫn được duy trì ngay cả ở CON=64.

Figure 3. Throughput-Latency trade-off comparison (ISL=1,024, OSL=1,024).
Hình 3. So sánh đánh đổi thông lượng-độ trễ (ISL=1,024, OSL=1,024). Moreh thể hiện hiệu quả vượt trội so với SGLang bằng cách duy trì thông lượng cao hơn ở độ trễ end-to-end thấp hơn đáng kể.

1K/8K (ISL=1,024, OSL=8,192)

CONMedian E2E Latency (s)Total Throughput per GPU (tok/s/gpu)
SGLangMoreh-vLLMImprovementSGLangMoreh-vLLMImprovement
4203.9117.621.73x19.433.691.74x
8210.22134.71.56x38.4860.111.56x
16239.432173.81.38x67.8493.491.38x
32347.05221.341.57x93.95147.161.57x
64395.78291.091.36x162.89221.71.36x

Kịch bản 1K/8K liên quan đến việc tạo đầu ra dài và được thiết kế để kiểm tra áp lực hiệu suất decode. Đây là nơi các tối ưu hóa của Moreh trong việc tối đa hóa sử dụng băng thông bộ nhớ nổi bật nhất. Cụ thể, cải thiện độ trễ 1,73 lần và tăng thông lượng 1,74 lần ở CON=4 cho thấy rõ ràng tác động của các tối ưu hóa của chúng tôi đối với tải tạo dài.

Khi đồng thời tăng, tải dần chuyển sang compute-bound, thu hẹp khoảng cách tối ưu hóa phần mềm. Tuy nhiên, ngay cả ở CON=64, chúng tôi vẫn ghi nhận mức cải thiện hiệu suất có ý nghĩa 1,36 lần ở cả độ trễ end-to-end và thông lượng.

Figure 4. Throughput-Latency trade-off comparison (ISL=1,024, OSL=8,192).
Hình 4. So sánh đánh đổi thông lượng-độ trễ (ISL=1,024, OSL=8,192). Moreh thể hiện hiệu quả vượt trội so với SGLang bằng cách duy trì thông lượng cao hơn ở độ trễ end-to-end thấp hơn đáng kể.

8K/1K (ISL=8,192, OSL=1,024)

CONMedian E2E Latency (s)Total Throughput per GPU (tok/s/gpu)
SGLangMoreh-vLLMImprovementSGLangMoreh-vLLMImprovement
430.8416.821.83x129.74236.71.82x
832.7220.491.60x243.75396.341.63x
1638.7728.241.37x402.33567.921.41x
3260.3141.331.46x522.94781.021.49x
6488.0664.751.36x722.49840.531.16x

Kịch bản 8K/1K là tải chủ yếu prefill. Mức cải thiện độ trễ đỉnh 1,83 lần ở CON=4 là nhờ các tối ưu hóa kernel của Moreh cho giai đoạn prefill. Đáng chú ý, ngay cả ở mức đồng thời tối đa (CON=64), chúng tôi vẫn đạt được cải thiện độ trễ 1,36 lần và tăng thông lượng 1,16 lần—chứng minh lợi thế hiệu suất có ý nghĩa ngay cả dưới tải nặng.

Figure 5. Throughput-Latency trade-off comparison (ISL=8,192, OSL=1,024).
Hình 5. So sánh đánh đổi thông lượng-độ trễ (ISL=8,192, OSL=1,024). Moreh thể hiện hiệu quả vượt trội so với SGLang bằng cách duy trì thông lượng cao hơn ở độ trễ end-to-end thấp hơn đáng kể.

Phát hiện chính

  1. Cải thiện hiệu suất nhất quán ở tất cả các mức đồng thời. Cùng một mẫu xuất hiện trong cả ba kịch bản. Ở kích thước batch nhỏ, chi phí kernel launch và sự thiếu hiệu quả trên mỗi thao tác chiếm ưu thế trong hiệu suất tổng thể—và đây là nơi các tối ưu hóa của Moreh mang lại tác động lớn nhất. Ngay cả khi đồng thời tăng, mức cải thiện hiệu suất ổn định ít nhất 1,16 lần được duy trì trên tất cả cấu hình, cho thấy lợi ích tối ưu hóa không giới hạn ở các điều kiện cụ thể mà áp dụng nhất quán trên toàn diện.
  2. Tối ưu hóa của Moreh cũng có giá trị cho tải đầu ra dài. Với sự phát triển của các mô hình suy luận, tải đầu ra dài như chain-of-thought đang tăng trưởng nhanh chóng. Trong kịch bản 1K/8K, chúng tôi quan sát thấy cải thiện hiệu suất từ 1,36 lần đến 1,74 lần—kết quả của việc tối ưu hóa sử dụng băng thông bền vững trong các chuỗi decode dài.
  3. Cải thiện thông lượng và độ trễ mở rộng gần như cùng tốc độ. Trung bình hình học gần như đối xứng ở mức 1,47 lần so với 1,47 lần. Điều này cho thấy các tối ưu hóa của chúng tôi không chỉ đơn giản dịch chuyển đánh đổi độ trễ-thông lượng—mà cải thiện hiệu quả tính toán thực tế.
  4. Phần cứng giống hệt nhau. Chỉ phần mềm thay đổi. Tất cả kết quả đều đạt được trên cùng GPU AMD MI300X. Sự khác biệt về hiệu suất đến từ các tối ưu hóa riêng của chúng tôi đi sâu hơn phần mềm mã nguồn mở mặc định—giảm chi phí kernel launch ở kích thước batch nhỏ, tối đa hóa sử dụng băng thông bộ nhớ GPU, tối ưu hóa thao tác prefill, v.v.

Kết luận

Tối ưu hóa phần mềm trên GPU AMD không phải là chương đã khép lại với phần mềm mã nguồn mở. Và các con số được công bố trên InferenceMAX không đại diện cho giới hạn hiệu suất của phần cứng. Trong đánh giá này, chúng tôi đã chứng minh rằng với tối ưu hóa phần mềm sâu hơn, AMD MI300X có thể đạt được cải thiện 1,47 lần về độ trễ end-to-end và cải thiện 1,47 lần về thông lượng trên mỗi GPU cho suy luận DeepSeek R1 FP8—so với baseline InferenceMAX hiện đang được công bố.

Mỗi phần trăm hiệu quả suy luận chuyển trực tiếp thành tiết kiệm chi phí trên mỗi token cho các CSP và doanh nghiệp phục vụ mô hình open-weight ở quy mô lớn. Moreh có thể là đối tác phần mềm đã được chứng minh cho các tổ chức muốn áp dụng hạ tầng AMD, giúp họ khai thác hiệu suất tối đa từ cùng phần cứng. Chúng tôi sẽ tiếp tục đẩy xa giới hạn hiệu suất suy luận trên GPU AMD, cho phép nhiều tổ chức hơn hiện thực hóa đầy đủ giá trị của hạ tầng AMD.

Để biết thêm chi tiết về tối ưu hóa suy luận của Moreh, hãy truy cập moreh.io docs.moreh.io.