• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们
style="background-image: url(cn/tres/NewWebUI/2024/images/CUBE/CUBE-banner.jpg);">
LinSeer MegaCube
您手边的AI工作站
LinSeer MegaCube 是为本地AI开发打造的桌面级AI工作站,
搭载NVIDIA GB10 Grace Blackwell超级芯片,以“小体积+高性能+低功耗”为核心,单台设备即可
支持200B参数大模型推理与70B模型微调,双机级联轻松应对405B参数需求。
无需专业机房,在实验室、办公室等场景均可稳定运行,为AI开发团队提供“即插即用”的大模型算力支持。
LinSeer MegaCube 是为本地AI开发打造的桌面级AI工作站,搭载NVIDIA GB10 Grace Blackwell超级芯片,以“小体积+高性能+低功耗”为核心,单台设备即可支持200B参数大模型推理与70B模型微调,双机级联轻松应对405B参数需求。无需专业机房,在实验室、办公室等场景均可稳定运行,为AI开发团队提供“即插即用”的大模型算力支持。
  • 1 petaFLOP Tensor性能(FP4)

    原生支持 FP4 精度,释放1 petaFLOP算力,推理速度较软件模拟 FP4 效率大幅提升,释放极致性能。

  • 128GB
    LPDDR5x统一内存

    单台设备轻松支持200B参数模型推理与
    70B模型微调。

    单台设备轻松支持200B参数模型推理与70B模型微调。

  • 灵活拓展性能

    高性能 NVIDIA Connect-X网络可将两台
    LinSeer MegaCube 系统连接在一起,
    与多达 405B参数的AI 模型配合使用。

    高性能 NVIDIA Connect-X网络可将两台LinSeer MegaCube 系统连接在一起,与多达 405B参数的AI 模型配合使用。

  • 极致小体积

    接近手掌大小,实验室、办公室部署空间零压力。

  • 开箱即用&全栈AI软件支持

    预装NVIDIA DGX OS系统、CUDA、CUDA-X、RTX工具包及库,
    支持PyTorch、TensorFlow、Matlab等。

    预装NVIDIA DGX OS系统、CUDA、CUDA-X、RTX工具包及库,支持PyTorch、TensorFlow、Matlab等。

颠覆性的桌面AI工作站
LinSeer MegaCube 采用NVIDIA GB10 Grace Blackwell超级芯片,将桌面AI工作站性能提升至1 petaFLOP,给研究人员、开发者及数据科学家带来前所未有的AI开发体验。
小身材内有乾坤
精巧尺寸
150 x 150 x 51mm
搭载
NVIDIA GB10 Grace Blackwell芯片,
提供 1 petaFLOP FP4 算力
搭载NVIDIA GB10 Grace Blackwell芯片,提供 1 petaFLOP FP4 算力
NVIDIA GB10 Grace Blackwell 超级芯片的NVIDIA Blackwell架构GPU包含6144个CUDA Core,配备第五代Tensor Core,释放1 petaFLOP FP4算力;GB10还包含了高性能20核心ARM CPU,提供强大的数据预处理与调度性能,加速模型推理与微调。
NVIDIA NVLink™-C2C技术
NVIDIA NVLink-C2C打破CPU与GPU的通信壁垒,其带宽可达PCIe 5.0的5倍,提供超高带宽、超低延迟的互连,让 128GB 系统统一内存真正发挥 “超大模型容器” 的作用,大幅提升AI计算效率。
配备
128GB LPDDR5x
统一内存
配备 128GB LPDDR5x 统一内存
为高效的AI模型推理、微调等工作提供充足的内存,单台LinSeer MegaCube可支持200B参数模型推理工作。
NVIDIA ConnectX-7 2*200G网卡
自带的NVIDIA ConnectX-7技术允许2台LinSeer MegaCube级联使用,从而支持最高405B参数的模型推理工作,例如Llama3.1 405B等。
开箱即用的全栈AI生态
  • 系统及开发环境预装
    LinSeer MegaCube开箱即预装NVIDIA DGX OS(基于Ubuntu),针对AI开发环境优化,无需复杂配置。预装NVIDIA AI软件栈,开发者能够即刻在LinSeer MegaCube上开展项目。
  • 支持全栈AI软件
    LinSeer MegaCube支持PyTorch、TensorFlow、Matlab等AI框架类软件,支持NVIDIA Riva、NVIDIA Holoscan、NVIDIA Metropolis、NVIDIA Isaac等AI开发平台,以及通过NVIDIA NIM访问为LinSeer MegaCube系统调优的AI模型。
  • 主流模型支持
    支持Deepseek R1 70B模型的微调与推理工作。
    支持Llama 3.1 405B、Qwen3 235B等大模型的推理工作(需2台LinSeer MegaCube系统级联使用)
丰富的应用场景
  • 原型设计
    开发、测试和验证 AI 模型与应用
    依托完整 NVIDIA AI 软件栈,为开发者打造一站式 AI 模型创建、测试与验证平台,轻松开发 AI 增强型应用及行业解决方案。完成本地调试后,可将工作迁移至部署在领先云服务商上的NVIDIA DGX Cloud、加速数据中心或云基础设施,以扩展更多工作或部署。
  • 微调
    定制化优化预训练模型性能
    通过 128GB 超大统一系统内存,支持多达 700 亿参数模型的微调,精准适配垂直领域需求与特定用例。无论是医疗、金融等专业场景的知识注入,还是小语种、细分行业数据的模型适配,都能高效提升预训练模型的任务精度与实用性。
  • 推理
    支持 2000 亿参数模型的
    高效推理验证
    搭载支持 FP4 精度的第五代 Tensor Core,提供高达1 petaFLOP的 AI 计算性能,结合 128GB 系统内存,大幅加速先进大模型推理流程。轻松开展 2000 亿参数模型的测试、验证与部署工作,硬件原生支持的NVFP4技术在压缩显存占用的同时,将性能最大化,同时将精度损失降至最低。
  • 数据科学
    在桌面上实现高性能
    数据科学
    NVIDIA DGX Spark结合128GB统一内存与1 petaFLOP并行吞吐量,在桌面上最大化大型、复杂计算数据分析与机器学习工作流的性能。
  • 边缘应用
    基于 NVIDIA 专业框架开发
    边缘智能应用
    为机器人、智能城市、计算机视觉等边缘场景提供卓越开发平台,深度兼容 NVIDIA Isaac™(机器人)、Metropolis(智能视频分析)、Holoscan(医疗影像)等框架。借助低功耗、小体积设计与高性能算力,加速边缘 AI 应用从开发到落地的全周期。
规格参数
型号名
H3C LinSeer MegaCube
硬件规格
架构
NVIDlA Grace Blackwell
天线
NVIDlA Grace Blackwell
CPU
20 Core Arm, 10 Cortex-X925+10 Cortex-A725 Arm
CUDA Cores
6144
Tensor Core
第五代
Tensor性能
1petaFLOP
RT Core
第四代
系统内存
128 GB LPDDR5x 统一内存,内存位宽256-bit;内存带宽 273 GB/S
存储
具有自加密功能的2TB/4TB NVME.M2
USB
4x USB 4 TypeC(最高 40Gb/s)
Flash
128M Nand Flash
以太网
1x RJ-45 connector; 10GbE
NIC
ConnectX-7 Smart NlC (200G*2 QSFP)
Wi-Fi
Wi-Fi7
蓝牙
BT5.3
音视频接口
1*HDMI 2.1a
NVENC INVDEC
1x | 1x
OS
NVIDIA DGX OS
尺寸
150 mm L x 150 mm W x 50.5 mm H
重量
1.2Kg
功耗
170W
新华三官网
联系我们