检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
管理ModelArts模型 查看ModelArts模型详情 查看ModelArts模型事件 管理ModelArts模型版本 发布ModelArts模型 父主题: 使用ModelArts Standard部署模型并推理预测
从训练作业中导入模型文件创建模型 从OBS中导入模型文件创建模型 从容器镜像中导入模型文件创建模型 从AI Gallery订阅模型 父主题: 使用ModelArts Standard部署模型并推理预测
a-34b-hf") 步骤二:启动量化服务 使用量化模型需要在NPU的机器上运行。 在模型的保存目录中创建quant_config.json文件,bits必须设置为8,指定量化为int8;group_size必须设置为-1,指定不使用pergroup;desc_act必须设置为false,内容如下:
使用SSH连接,报错“Connection reset”如何解决? 问题现象 原因分析 可能是用户网络限制原因。比如部分企业网络的SSH是默认屏蔽的。 解决方法 用户重新进行申请SSH权限。 父主题: VS Code连接开发环境失败故障处理
训练作业失败,如何使用开发环境调试训练代码? 在创建训练作业前,推荐您先使用ModelArts开发环境调试训练代码,避免代码迁移过程中的错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VsCode)联接云上环境调试请参考使用本地IDE开发模型。
MindStudio-Insight性能可视化工具使用指导 对于高阶的调优用户,可以使用可视化工具MindStudio Insight查看profiling数据详情并分析可优化点,其提供了丰富的调优分析手段,可视化呈现真实软硬件运行数据,多维度分析性能瓶颈点,支持百卡、千卡及以上
化。 Deepseek-v2系列模型的W8A8量化需要使用llm-compressor工具。 SmoothQuant量化模型 本章节介绍如何使用SmoothQuant量化工具实现推理量化。 SmoothQuant量化工具使用到的脚本存放在代码包AscendCloud-LLM-x.x
W4A16量化 大模型推理中,模型权重数据类型(weight),推理计算时的数据类型(activation)和kvcache一般使用半精度浮点FP16或BF16。量化指将高比特的浮点转换为更低比特的数据类型的过程。例如int4、int8等。 模型量化分为weight-only量化
模型。更多MaaS服务的使用指导请参见用户指南。 操作流程 开始使用如下样例前,请务必按准备工作指导完成必要操作。 步骤一:创建我的模型:使用基础模型创建自定义模型。 步骤二 :部署模型服务:使用创建成功的自定义模型部署模型服务。 步骤三:在模型体验使用模型服务:在模型体验页面,体验部署的模型服务,进行对话问答。
已注册华为账号并开通华为云,进行了实名认证,且在使用ModelArts前检查账号状态,账号不能处于欠费或冻结状态。 注册华为账号并开通华为云 进行实名认证 配置委托访问授权 ModelArts使用过程中涉及到OBS等服务交互,首次使用ModelArts需要用户配置委托授权,允许访问
管理批量推理作业 查看批量服务详情 查看批量服务的事件 管理批量服务生命周期 修改批量服务配置 父主题: 使用ModelArts Standard部署模型并推理预测
--npu_indices str 使用哪些NPU进卡行数据生成,用逗号隔开,如"0,1,2,3,4,5,6,7" --used_npus int 拉起的每个py脚本使用几个NPU,如果为70b则填写4或8,7b 13b则填1。 --model_type str 使用模型类型,目前支持lla
执行convert_checkpoint.py脚本进行权重转换生成量化系数。 使用tensorRT量化工具进行模型量化。 在GPU机器上使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0
环境,输入登录指令。 图1 在ECS中执行登录指令 登录SWR后,使用docker tag命令给上传镜像打标签。下面命令中的组织名称deep-learning,请替换为a.登录容器镜像服务控制台,选择区域。中实际创建的组织名称,以下所有命令中的deep-learning都需要替换。
部署。 约束与限制 需要申请单个模型大小配额和添加使用节点本地存储缓存的白名单。 需要使用自定义引擎Custom,配置动态加载。 需要使用专属资源池部署服务。 专属资源池磁盘空间需大于1T。 操作事项 申请扩大模型的大小配额和使用节点本地存储缓存白名单 上传模型数据并校验上传对象的一致性
模型训练高可靠性 训练作业容错检查 训练日志失败分析 训练作业卡死检测 训练作业重调度 设置断点续训练 设置无条件自动重启 父主题: 使用ModelArts Standard训练模型
查看在线服务的事件 管理在线服务生命周期 修改在线服务配置 在云监控平台查看在线服务性能指标 集成在线服务API至生产环境中应用 设置在线服务故障自动重启 父主题: 使用ModelArts Standard部署模型并推理预测
查找Workflow工作流 查看Workflow工作流运行记录 管理Workflow工作流 重试/停止/运行Workflow节点 父主题: 使用Workflow实现低代码AI开发
使用AppCode认证鉴权方式进行在线预测 场景描述 APPcode认证是一种简易的API调用认证方式,通过在HTTP请求头中添加参数X-Apig-AppCode来实现身份认证,无需复杂的签名过程,适合于客户端环境安全可控的场景,如内网系统之间的API调用。在ModelArts中
在ModelArts的Notebook中如何查看GPU使用情况? 创建Notebook时,当您选择的类型为GPU时,查看GPU使用情况具体操作如下: 登录ModelArts管理控制台,选择“开发空间>Notebook”。 在Notebook列表中,单击目标Notebook“操作”列