• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们
LinSeer Magic Cube
您手边的AI工作站
LinSeer Magic Cube 是为本地AI开发打造的桌面级AI工作站,
搭载NVIDIA GB10 Grace Blackwell超级芯片,以“小体积+高性能+低功耗”为核心,单台设备即可
支持200B参数大模型推理与70B模型微调,双机级联轻松应对405B参数需求。
无需专业机房,在实验室、办公室等场景均可稳定运行,为AI开发团队提供“即插即用”的大模型算力支持。
LinSeer Magic Cube 是为本地AI开发打造的桌面级AI工作站,搭载NVIDIA GB10 Grace Blackwell超级芯片,以“小体积+高性能+低功耗”为核心,单台设备即可支持200B参数大模型推理与70B模型微调,双机级联轻松应对405B参数需求。无需专业机房,在实验室、办公室等场景均可稳定运行,为AI开发团队提供“即插即用”的大模型算力支持。
  • 1 petaFLOP Tensor性能(FP4)

    原生支持 FP4 精度,释放1 petaFLOP算力,推理速度较软件模拟 FP4 效率大幅提升,释放极致性能。

  • 128GB
    LPDDR5x统一内存

    单台设备轻松支持200B参数模型推理与
    70B模型微调。

    单台设备轻松支持200B参数模型推理与70B模型微调。

  • 灵活拓展性能

    高性能 NVIDIA Connect-X网络可将两台
    LinSeer Magic Cube 系统连接在一起,
    与多达 405B参数的AI 模型配合使用。

    高性能 NVIDIA Connect-X网络可将两台LinSeer Magic Cube 系统连接在一起,与多达 405B参数的AI 模型配合使用。

  • 极致小体积

    接近手掌大小,实验室、办公室部署空间零压力。

  • 开箱即用&全栈AI软件支持

    预装NVIDIA DGX OS系统、CUDA、CUDA-X、RTX工具包及库,
    支持PyTorch、TensorFlow、Matlab等。

    预装NVIDIA DGX OS系统、CUDA、CUDA-X、RTX工具包及库,支持PyTorch、TensorFlow、Matlab等。

颠覆性的桌面AI工作站
LinSeer Magic Cube 采用NVIDIA® GB10 Grace Blackwell超级芯片,将桌面AI工作站性能提升至1 petaFLOP,给研究人员、开发者及数据科学家带来前所未有的AI开发体验。
小身材内有乾坤
精巧尺寸
150 x 150 x 51mm
搭载
NVIDIA® GB10 Grace Blackwell芯片,
提供 1 petaFLOP FP4 算力
搭载NVIDIA® GB10 Grace Blackwell芯片,提供 1 petaFLOP FP4 算力
NVIDIA® GB10 Grace Blackwell超级芯片的Blackwell架构GPU包含6144个CUDA核心,配备第五代Tensor核心,释放 1 petaFLOP 的FP4算力;GB10还包含了高性能20核心ARM CPU,提供强大的数据预处理与调度性能,加速模型推理与微调。
NVLink™-C2C技术
NVLink™-C2C打破CPU与GPU的通信壁垒,其带宽可达PCle 5.0的5倍,提供超高带宽、超低延迟的芯片级连接,让 128GB 系统统一内存真正发挥“超大模型容器”的作用,大幅提升AI计算效率。
配备
128GB LPDDR5x
统一内存
配备 128GB LPDDR5x 统一内存
为高效的AI模型推理、微调等工作提供充足的内存,单台LinSeer Magic Cube可支持200B参数模型推理工作。
ConnectX-7 2*200G网卡
自带的ConnectX-7 2*200G网卡配合NVLink™-C2C技术,允许2台LinSeer MagicCube级联使用,从而支持最高405B参数的模型推理工作,例如Llama3.1 405B等。
开箱即用&全栈AI软件支持
  • 系统及开发环境预装
    LinSeer Magic Cube开箱即预装NVIDIA DGX OS(基于Ubuntu),针对AI开发环境优化,无需复杂配置。
    预装CUDA、CUDA-X、RTX工具包及库、TenSorRT、CUDNN、CUBLAS、NCCL等,开箱即支持从代码编写、编译、调试到性能分析的全流程开发。
  • 支持全栈AI软件
    LinSeer Magic Cube支持PyTorch、TensorFlow、Matlab等AI框架类软件,Riva、Holoscan、Metropolis、lsaas等AI开发平台。
    同时支持NVIDIA NIM及NVIDIA Blueprint等推理部署与全流程实施落地软件。
  • 主流模型支持
    支持Deepseek R1 70B模型的微调与推理工作。
    支持Llama3.1 405B、Qwen3 235B等大模型的推理工作(需两套LinSeer Magic Cube系统级联使用)。
丰富的应用场景
  • 原型设计
    开发、测试和验证 AI 模型与应用
    依托完整 NVIDIA AI软件栈,为开发者打造一站式AI模型创建、测试与验证平台,轻松开发AI增强型应用及行业解决方案。完成本地调试后,可无缝迁移至 NVIDIA DGX云、加速数据中心或云端基础设施,实现从原型到规模化部署的平滑过渡。
  • 微调
    定制化优化预训练模型性能
    通过 128GB 超大统一系统内存,支持多达700 亿参数模型的全流程微调,精准适配垂直领域需求与特定用例。无论是医疗、金融等专业场景的知识注入,还是小语种、细分行业数据的模型适配,都能高效提升预训练模型的任务精度与实用性。
  • 推理
    支持 2000 亿参数模型的高效推理验证
    搭载支持 FP4 精度的第五代 Tensor Core,提供高达 1petaFLOP的 AI计算性能,结合 128GB 系统内存,大幅加速先进大模型推理流程。轻松开展2000 亿参数模型的测试、验证与部署工作,硬件原生支持的NVFP4技术在压缩显存占用的同时,极大减少精度损失。
  • 数据科学
    NVIDIA RAPIDST加速端到端数据科学工作流
    从数据清洗、特征工程到模型训练、推理与部署,基于 NVIDIA RAPIDS 生态实现全流程加速。通过零代码更改的加速器与熟悉的 API 接口,简化开发流程,快速提升现有工作负载效率或开发专属用例解决方案,并可灵活扩展至数据中心或云端环境。
  • 边缘应用
    基于 NVIDIA 专业框架开发边缘智能应用
    为机器人、智能城市、计算机视觉等边缘场景提供卓越开发平台,深度兼容 NVIDIAlsaac™(机器人)、Metropolis(智能视频分析)、Holoscan(医疗影像)等框架。借助低功耗、小体积设计与高性能算力,加速边缘 AI应用从开发到落地的全周期。
规格参数
型号名
H3C LinSeer Magic Cube
硬件规格
架构
NVIDlA Grace Blackwell
天线
NVIDlA Grace Blackwell
CPU
20 Core Arm, 10 Cortex-X925+10 Cortex-A725 Arm
CUDA Cores
6144
Tensor Core
第五代
Tensor性能
1petaFLOP
RT Core
第四代
系统内存
128 GB LPDDR5x 统一内存,内存位宽256-bit;内存带宽 273 GB/S
存储
具有自加密功能的1TB或4 TB NVME.M2
USB
4x USB 4 TypeC(最高 40Gb/s)
Flash
128M Nand Flash
以太网
1x RJ-45 connector; 10GbE
NIC
ConnectX-7 Smart NlC (200G*2 QSFP)
Wi-Fi
Wi-Fi7
蓝牙
BT5.3
音视频接口
1*HDMI 2.1a
NVENC INVDEC
1x | 1x
OS
NVIDIA DGX OS
尺寸
150 mm L x 150 mm W x 50.5 mm H
重量
1.2Kg
功耗
170W
新华三官网
联系我们