-
DeepSeek模型基于ModelArts Lite Server适配MindIE推理部署指导
DeepSeek模型基于ModelArts Lite Server适配MindIE推理部署指导 方案概述 准备权重 Lite Server部署推理服务 附录:rank_table_file.json文件 附录:config.json文件 父主题: DeepSeek系列模型推理
来自:帮助中心 -
【话题交流】DeepSeek 对人工智能发展的影响
本文介绍了【【话题交流】DeepSeek 对人工智能发展的影响】相关内容,与您搜索的DeepSeek R1相关。邀你共享云计算使用和开发经验,汇聚云上智慧,共赢智慧未来...更多详情请点击查阅。
来自:其他 -
场景介绍
https://huggingface.co/deepseek-ai/deepseek-coder-33b-instruct 14 deepseek-llm-67b √ x x x https://huggingface.co/deepseek-ai/deepseek-llm-67b-chat 15
来自:帮助中心 -
使用llm-compressor工具量化
_moe/deepseek_moe_w8a8_int8.py中的代码: 1)若本地已有权重,请将MODEL_ID修改为权重路径; MODEL_ID = "deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct" 2)若量化Deepseek-V2-2
来自:帮助中心 -
使用llm-compressor工具量化
-
资源和成本规划
-
场景介绍
-
准备BF16权重
-
推理场景介绍
-
附录:config.json文件
-
推理场景介绍
-
EXECUTE IMMEDIATE
-
EXECUTE IMMEDIATE
-
推理场景介绍
-
推理场景介绍
-
附录:基于vLLM不同模型推理支持最小卡数和最大序列说明
-
附录:基于vLLM不同模型推理支持最小卡数和最大序列说明
-
场景介绍
-
场景介绍
-
开始使用
-
W8A8量化
![](https://res-static.hc-cdn.cn/cloudbu-site/china/zh-cn/components/thumbnail/retry.png)