hi,我们想本地运行推理该模型,请问该模型的硬件要求是什么?

#3
by pzpz - opened

其次是否可以提供部署文档?

其次是否可以提供部署文档?

可以参考: https://github.com/amulil/vector_by_onnxmodel

我用一张 A100-40G 的结果

Amu changed discussion status to closed

Sign up or log in to comment