跳转至

部署指南

OmniRT 的部署路径按硬件后端网络环境两个维度拆分:

场景 推荐入口
NVIDIA GPU 生产部署 CUDA 部署
昇腾 Atlas / 910 / 910B Ascend 后端
国内网络 / 内网 / 离线 国内部署
容器化(Docker / k8s) Docker 与容器
网关 + worker + Redis / OTLP 分布式服务

先跑通 CPU stub

正式部署前,建议先用 --backend cpu-stub 走一次 omnirt validateomnirt generate --dry-run,确认请求契约与模型 registry 无问题,再切到真实硬件。详见 快速开始

如果你的部署目标包含异步 job、跨进程共享作业状态、Prometheus 指标采集或远程 worker,请直接继续阅读 分布式服务