Menu
Visit the Advantech Global website, or choose your country or region below.

Американский регион

  1. United States
  2. Brasil
  3. México
  4. Argentina
  5. Chile
  6. Colombia
  7. Perú

Европейский регион

  1. Europe
  2. РУС
  3. España

Азиатско-Тихоокеанский регион

  1. Australia
  2. 中国
  3. India
  4. Indonesia
  5. 日本
  6. 대한민국
  7. Malaysia
  8. Singapore
  9. 台灣
  10. ไทย
  11. Türkiye
  12. Việt Nam

Африка и Ближний Восток

  1. MENA

Регистрация в MyAdvantech

MyAdvantech является индивидуальным порталом для клиентов Advantech. Став членом Advantech, вы можете получать последние новости о продукции, приглашения на вебинар и специальные предложения интернет-магазина.

Зарегистрируйтесь прямо сейчас, чтобы получить быстрый доступ 24/7 к вашей учетной записи.

邊緣運算的天花板 研華MIC-743-AT - NVIDIA® Jetson ThorTM雷神 開箱

17.09.2025
作者:尤濬哲

今天才剛要出門就踢到大箱子,看一下誰寄來的,竟然是國際工業電腦大廠研華科技寄來的箱子,喔喔喔~實在太令人興奮了,不會是乾爹皮衣男口中所說的最新產品雷神吧,趕緊提回家開箱看看。

開啟箱子,看到一台沉甸甸的工業電腦,第一眼看到的就是 MIC-743-AT-ES 的正面外觀。

【整體】外型延續了工業電腦一貫的沉穩設計,霧黑色金屬機殼搭配 Advantech Logo,簡潔而專業。上蓋還覆有保護膜,避免在運輸過程中刮傷,保持開箱時的嶄新質感。

正面則是低調的研華科技的LOGO,沒有其他的裝置,果然國際大廠就是這麼豪橫。

【底部】的開口可以看到NVMe的插槽,竟然也是研華的產品,這次提供測試的容量為1T的SSD,右側為M2接口,可外接WIFI傳輸模組提升傳輸能力。

【側邊】還有 SIM 卡槽與一系列控制按鍵,包括 REC、OTG、RST 以及 Console 接口,讓使用者能夠快速進行調試與功能驗證,為甚麼會有SIM 卡呢?這台又不是手機,當然是可以提供4/5G傳輸功能,在沒有WiFi的場域也可以存取網路或者進行遠端控制。

轉到【機身背面】,這台主機的 I/O 接口算是相當齊全:

  • 雙天線孔位,對應無線通訊需求
  • 音訊接口(Line out / Mic),方便連接外部音訊設備
  • 4 組 USB 3.0,應付周邊設備擴充
  • HDMI 輸出,可直接連接顯示器
  • 5G Base-T 網路埠與 QSFP28 高速模組插槽,展現資料中心等級的傳輸能力
  • DC-IN(19~36V)工業電源輸入,符合各種邊緣環境應用

MIC-743-AT-ES / MIC-743-AT 規格表

完成機體賞析後,我們就插電開機準備來測試他的效能, Advantech MIC-743-AT-ES,搭載最新 NVIDIA® Jetson Thor™ 模組,我們好奇:一台邊緣 AI 系統,真的能在本地端「扛得起」百億參數等級的模型嗎?

在測試之前,先看看 NVIDIA Jetson AGX Thor (Dev Kit) 規格。雖然我們這次實測的是 研華 MIC-743-AT-ES,用的是NVIDIA Jetson Thor 模組: NVIDIA Jetson T5000打造的研華系統,而非NVIDIA Jetson AGX Thor  Dev Kit,但同屬 Thor 世代,因此拿官方 NVIDIA Jetson AGX Thor 的數據來做參照,可以幫助大家理解這一代的性能基準。

網路上查看他的規格數據發現真的是雷神等級,

圖片來源: NVIDIA

NVIDIA Jetson AGX Thor™ 開發套件規格

  • GPU:2560 核心的 NVIDIA Blackwell 架構 GPU,搭載 96 顆第 5 代 Tensor 核心,支援 10 個 TPC 的多執行個體 GPU (MIG)。
  • CPU:14 核心 Arm® Neoverse®-V3AE 64 位元處理器,每核心具備 1 MB L2 快取,並共享 16 MB 系統級 L3 快取
  • 視覺加速器 (Vision Accelerator):1× PVA v3
  • 記憶體 (Memory):128 GB LPDDR5X,256 位元匯流排,最高頻寬 273 GB/s
  • 儲存 (Storage):1 TB NVMe 固態硬碟,M.2 Key M 介面
  • 功耗 (Power):40 W 至 130 W

這次NVIDIA Jetson AGX Thor  的 AI 邊緣運算裝置是具有在於 2560 核心 GPU 與 96 顆 Tensor 核心,支援 MIG[Multi-Instance GPU] 可將單卡切成多個獨立執行體,同時跑多模型、強化資源隔離。

14 核 Arm Neoverse-V3AE CPU 搭配 128 GB LPDDR5X、273 GB/s 頻寬,確保大量視覺與感測資料即時進出;再加上 PVA v3 視覺加速器,能把前處理/光流等卸載。1 TB NVMe 讓資料快取與模型切換順暢;40–130 W 功耗區間適合邊緣裝置在受限電力下仍維持高吞吐推論與低延遲控制。

與上一代的Orin的差異可以說非常大

依照規格比較 NVIDIA Jetson Thor 以 Blackwell 架構與 MIG 帶來資料中心級的邊緣算力(2070 FP4 TFLOPS),同時具備更高記憶體與頻寬,適合大型多模型與生成式工作負載。但是實際上到底如何呢?這次,我們直接把 GPT-OSS 120B 丟上 MIC-743-AT-ES,一款搭載 NVIDIA Jetson Thor 模組的 AI 推理系統,實測它的真實表現。

一、實測模型效能:GPT-OSS 20B vs GPT-OSS 120B

我分別載入兩款 GPT-OSS 模型(20B 與 120B)用 Ollama 本地推理測試其效能:

【測試環境】

  • 硬體平台:Advantech MIC-743-AT-ES
  • AI 模組:NVIDIA  Jetson T5000
  • 記憶體:128GB LPDDR5X
  • OS / SDK:Ubuntu + JetPack 7.0
  • 測試工具:Ollama,本地推理
  • 模型:GPT-OSS:20B 與 GPT-OSS:120B

【實測數據】

在實際測試 【GPT-OSS 20B 】的時候,整體體驗可以說是相當順暢。

平均總耗時大概在 7 秒多,載入時間更是不到 150 毫秒,幾乎可以忽略不計。Prompt 部分處理了將近 500 個 tokens,但評估只花了 0.04 秒,等於一秒能吞掉快四萬個 token,效率驚人。生成階段平均輸出 410 個 tokens,大概 7 秒就跑完,換算下來生成速度穩定在 58.5 tokens/s,對於互動式應用來說,這已經是非常理想的表現。

相較之下,【GPT-OSS 120B】 的表現雖然慢了一些,但依舊讓人印象深刻。平均總耗時來到 45 秒左右,其中載入時間大概 0.24 秒,雖然比 20B 稍長,不過放在百億級別模型的規模裡,這樣的開局速度其實算很快了。Prompt 部分一次處理超過 1600 個 tokens,光是評估就花了 1.65 秒,效率自然沒辦法和 20B 相提並論。不過生成過程輸出了 1500 多個 tokens,平均速度維持在 35 tokens/s,以 120B 的龐大參數量來看,能在邊緣端跑出這個數字,真的非常驚人。

簡單來說,20B 適合即時互動,速度快、延遲低120B 則是給需要更高語言理解力和更深度推理的場景使用。兩者的表現剛好形成了「速度 vs. 智慧密度」的對比,取決於在不同應用中要優先考慮哪一個。

詳細數據如下

二、GPT-OSS 120B模型運行結果

當我輸入「哈囉你好」後,模型不僅正確理解語境,還貼心地補了一句「有什麼我可以幫忙的嗎?😊」。

這種自然的互動讓人有種「真的在本地端跑超大模型」的震撼感。

雖然目前效能不算極致,但能夠離線、隨時喚起這樣的語言模型,本身就是一種里程碑。

有趣的是,在模型回應過程中 CPU 幾乎沒有被吃滿,顯示運算核心可能主要落在 GPU,CPU 只負責周邊調度。另一方面,記憶體吃掉 75GB,這和 GPT-120B 這樣的龐大參數量完全符合預期。

這也意味著,想在本地端玩 120B 模型,沒有 128GB 以上記憶體 幾乎不用考慮。

三、LLM 效能對照實驗

為了更全面觀察NVIDIA  Jetson Thor 在不同模型下的表現,我們針對多款 LLM 做了推理速度,整理如下:

從這份數據看下來,其實趨勢滿明顯的:模型參數越大,生成速度自然就慢下來。不過有趣的是,像 GPT-OSS 120B 這樣的百億等級模型,還能穩定跑到 35 token/s,這表現已經超乎預期,算是驚艷了。

反觀小模型的優勢就更直接了,像 GPT-OSS 20B 和 Llama3.2 8B,速度可以衝到 38 到 58 token/s,對需要即時互動或低延遲場景來說,絕對是首選。

至於 DeepSeekR1 系列,8B 還算能接受,但 70B 就有點太吃力了,速度掉到只剩 4.81 token/s,幾乎無法用在即時應用上。

四、實測結論

整體測下來,我覺得 NVIDIA Jetson Thor 在本地推理百億等級的模型時,效能真的有驚喜。像 GPT-OSS 120B 這樣的龐然大物,依然能跑出大約 26 tokens/s 的穩定輸出速度,這在生成任務裡已經算是中高水準,完全超乎我原本的預期。再來看資源使用,記憶體大概吃掉 57%,雖然不算小,但至少還保留了餘裕,代表後續如果要拉更長的上下文,甚至加上額外的並行任務,系統還有空間能承受。

更有意思的是 CPU 幾乎沒什麼壓力,大部分工作都被 GPU/Tensor Core 扛下來,這正好展現了 Jetson Thor 做為專用 AI 加速器的價值:它不是靠把 CPU 烤爆來撐效能,而是有效率地把推理任務交給對的硬體。

最後談到應用價值,我認為 MIC-743-AT-ES 已經成功證明了一件事:在邊緣端要跑超大規模模型不再是不可能的任務它不只能撐起 120B 參數的 LLM,還能保持實用的推理速度,這對智慧製造、智慧交通,甚至需要本地生成式 AI 的場景,都開啟了新的可能。

研華專人諮詢

陳小姐 Elaine Chen

Elaine.Chen@advantech.com.tw

02-7732-3399 # 7234