检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
规格:CPU: 8 核 32GB (modelarts.vm.cpu.8ud) 计算节点个数:1个 用了一段时间后,用户发现当前规格无法满足业务需要,于2023/03/20 9:00:00扩容规格增加1个节点(扩容后,共有2个节点)。因为该专属资源池打算长期使用下去,于2023/03/20
基于高性能考虑,ModelArts会复用同模型服务的连接。根据tcp协议,连接的断开可以由该连接的client端发起,也可以由server端发起。断开连接需要经过四次握手,所以可能会存在作为服务端的模型服务侧发起断开连接,但是该连接正在被作为客户端的ModelArts使用,从而导致通信出错,返回此错误信息。
ata/aoe”路径下,同时会在aoe_output路径下输出对应的mindir模型,由于当前模型并没有吸收知识库信息,所以性能不佳,因此需要在保留AOE知识库的情况下,再次进行转换,以达到较优性能。 删除编译缓存atc_data。 注意相比第一次清除缓存操作,本次保留了AOE知识库。
必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 Step3 启动训练脚本 请根据Step2 修改训练超参配置修
“来源”默认为“ModelArts”。 选择“ModelArts区域”。 单击“算法名称”右侧的“选择”,从ModelArts算法管理中选择需要添加版本号的算法,单击“确认”。 在“资产版本”填写新的版本号。 阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》。
否 String 对训练作业的描述,默认为“NULL”,字符串的长度限制为[0, 256]。 config 是 Object 创建训练作业需要的参数。详情参见表3。 表3 config属性列表 参数 是否必选 参数类型 说明 worker_server_num 是 Integer
py”则需要通过该参数指定。推理脚本必须放于模型所在路径(请参见“source_location”参数)的model目录下,名称固定为:“customize_service.py”。 runtime 否 String 支持的运行环境。如果使用了model_type参数,则需要填该参
配置NPU环境 在Notebook的terminal中执行如下命令进行环境配置。 配置需要的NPU卡。 export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3 0,1,2,3修改为需要使用的卡,如需使用全部8张卡,修改为0,1,2,3,4,5,6,7。 配置PYTHONPATH。
“指定用户可见”:输入账号名、账号ID或用户昵称搜索并选择用户,使其可见该资产。 可用范围 选择是否启用“申请用户可用”。 勾选启用:当用户要使用该模型时需要提交申请,只有模型所有者同意申请后,才能使用或复制模型。 不勾选不启用(默认值):所有可见资产的用户都可以直接使用模型。 发布后,资产会处
00:00(北京时间)正式退市。 旧版训练管理如何升级到新版训练? 请参考新版训练指导文档(模型训练)来体验新版训练。 旧版训练迁移至新版训练需要注意哪些问题? 新版训练和旧版训练的差异主要体现在以下3点。 新旧版创建训练作业方式差异 新旧版训练代码适配的差异 新旧版训练预置引擎差异
Uncorrectable记录。 L3: 错误未被抑制,可能影响后续业务,需要重置卡或重启节点。观测方式:Xid事件中包含95事件。(Remapped的Pending记录只作为提示,当业务空闲时进行卡重置触发重映射即可) L4: 需要换卡,SRAM Uncorrectable>4或者Remapped
必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 对于ChatGLMv3-6B和Qwen系列模型,还需要手动修改tokenizer文件,具体请参见训练tokenizer文件说明。 步骤3 启动训练脚本 请根据步骤2 修改训练超参配置修改超参值
单击“保存”,完成修改。 编辑版本 选择“版本”页签,单击右上方的“编辑”。 在此页面可以修改版本说明或者单击对应版本“操作”列的“下线”,下架不需要的资产版本。下线操作仅对已上架成功且存在多个可用版本的资产有效。 添加模型版本:在版本框右侧单击“添加版本”,弹出“选择云服务区域”,选择
11:00:00,在10:00:00 ~ 10:45:46间产生费用,该计费周期内的计费时长为2746秒。 您需要为每个计费周期付费,计费公式如表2所示。产品价格详情中标出了资源的每小时价格,您需要将每小时价格除以3600,得到每秒价格。 表2 计费公式 资源类型 计费公式 资源单价 计算资源(vCPU)
配置项名称 可选 自定义运行参数的Key值,不超过128个字符。 当需要通过Header(http消息头)携带自定义运行参数至在线服务时,可以配置。 配置项值 可选 自定义运行参数的Value值,不超过256个字符。 当需要通过Header(http消息头)携带自定义运行参数至在线服务时,可以配置。
“指定用户可见”:输入账号名、账号ID或用户昵称搜索并选择用户,使其可见该资产。 可用范围 选择是否启用“申请用户可用”。 勾选启用:当用户要使用该数据集时需要提交申请,只有数据集所有者同意申请后,才能使用数据集。 不勾选不启用(默认值):所有可见资产的用户都可以直接使用数据集。 发布后,资产会处
预置:可选择SWR服务上自有的或他人共享的镜像。 自定义:可直接填写镜像地址。 添加镜像密钥 若本租户不具有预热镜像的权限(即非公开/非本租户私有/非他人共享的镜像),此时需要添加镜像密钥。在开启镜像密钥开关后,选择命名空间及对应密钥。创建密钥方法可参考创建密钥,密钥类型须为kubernetes.io/dockerconfigjson类型。
实例配置的规格过大,CPU或者内存剩余资源不足;("insufficient CPU" / "insufficient memory") 模型需要的磁盘空间大,磁盘空间不足;("x node(s) had taint {node.kubernetes.io/disk-pressure:
本方案介绍了在ModelArts的Server上使用昇腾计算资源开展MiniCPM-V 2.6 LoRA训练的详细过程。完成本方案的部署,需要先联系您所在企业的华为方技术支持购买Server资源。 本方案目前仅适用于企业客户。 资源规格要求 推荐使用“西南-贵阳一”Region上的Server资源和Ascend
创建一个附属Notebook,与当前使用的Notebook组成分布式训练的两个worker。 初始化训练作业,将数据下载到local_path中。 执行训练任务,用户的代码需要将训练输出保存在4指定的local_path中。 将训练任务得到的输出上传到4指定的obs_path中,日志上传到7指定的log_url中。