检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
勾选节点名称,选择节点列表上方的“添加/编辑资源标签”或“删除资源标签”,操作单个节点或批量操作节点资源标签。 查找搜索节点 在节点管理页面的搜索栏中,支持通过节点名称、IP地址、资源标签等关键字搜索节点。 设置节点列表显示信息 在节点页面中,单击右上角的设置图标,支持对节点列表中显示的信息进行自定义。 删除/退订/释放节点
显的改善。 同样功能的PyTorch Pipeline,因为指导要求适配onnx pipeline,两个pipeline本身功能就有差别,如何适配? 由于Diffusers社区的“single model file policy”设计原则,不同的pipeline是不同路径在独立演
当上传的文件夹下内容为空或者该文件夹下包含多个文件夹且有文件夹下内容有空时,OBS对应路径下不产生该空文件夹。 dst_obs_dir 是 String 上传的目标OBS桶地址,必须以“obs://”作为前缀,上传的目标文件夹后缀必须以“/”结尾。 表2 失败响应参数说明 参数 参数类型 描述 error_code
system("ulimit -c 0") 排查数据集大小,checkpoint保存文件大小,是否占满了磁盘空间。 必现的问题,使用本地Pycharm远程连接Notebook调试。 建议与总结 在创建训练作业前,推荐您先使用ModelArts开发环境调试训练代码,避免代码迁移过程中的错误。 直接
释放一些不需要的tensor,使用过的,如下: del tmp_tensor torch.cuda.empty_cache() 必现的问题,使用本地Pycharm远程连接Notebook调试超参。 如果还存在问题,可能需要提工单进行定位,甚至需要隔离节点修复。 建议与总结 在创建训练作业前,推荐您先使用Mo
建议您前往OBS服务,了解OBS计费详情,创建相应的OBS桶用于存储ModelArts使用的数据。 ModelArts标注完样本集后,如何保证退出后不再产生计费? 标注样本集本身不计费,数据集存储在OBS中,收取OBS的费用。建议您前往OBS控制台,删除存储的数据和OBS桶,即可停止收费。
多数场景下的问题可以通过日志报错信息直接定位。如果日志的信息不能定位问题,您可以通过设置环境变量调整日志等级,打印更多调试日志。 关于如何对MindSpore Lite遇到的问题进行定位与解决,请参见MindSpore Lite官网提供的问题定位指南。 父主题: 常见问题
程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 购买专属资源池注意事项 使用场景需要选择ModelArts
型是从第三方元模型导入,则为空。默认值为空。非模板参数 source_location 是 String 模型所在的OBS路径或SWR镜像地址。 source_copy 否 String 镜像复制开关,仅当“model_type”为“Image”时有效。 取值范围: true:默
1:文本 2:语音 4:表格 6:视频 9:自由格式 score String 综合评分,用于团队标注。 source String 样本数据源地址。 sub_sample_url String 子样本URL,用于医疗。 worker_id String 团队标注人员的ID,用于团队标注。
支持的模型列表 表1 支持的大语言模型列表和权重获取地址 序号 模型名称 是否支持fp16/bf16推理 是否支持W4A16量化 是否支持W8A8量化 是否支持W8A16量化 是否支持 kv-cache-int8量化 开源权重获取地址 1 llama-7b √ √ √ √ √ https://huggingface
model_name_or_path:加载tokenizer与Hugging Face权重对应存放目录地址。 否,设置以下超参 model_name_or_path:加载tokenizer与Hugging Face权重对应的存放地址 在“输出”的输入框内设置超参:output_dir、hf_save_dir,根据实际要求选择,示例如下;
创建桶的区域需要与ModelArts所在的区域一致。例如:当前ModelArts在华北-北京四区域,在对象存储服务创建桶时,请选择华北-北京四。 如何查看OBS桶与ModelArts的所处区域,请参见查看OBS桶与ModelArts是否在同一区域。 请勿开启桶加密,ModelArts不支
程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 购买专属资源池注意事项 使用场景需要选择ModelArts
程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 购买专属资源池注意事项 使用场景需要选择ModelArts
程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 购买专属资源池注意事项 使用场景需要选择ModelArts
1:文本 2:语音 4:表格 6:视频 9:自由格式 score String 综合评分,用于团队标注。 source String 样本数据源地址。 sub_sample_url String 子样本URL,用于医疗。 worker_id String 团队标注人员的ID,用于团队标注。
云上迁移适配故障 无法导入模块 训练作业日志中提示“No module named .*” 如何安装第三方包,安装报错的处理方法 下载代码目录失败 训练作业日志中提示“No such file or directory” 训练过程中无法找到so文件 ModelArts训练作业无法解析参数,日志报错
项”、“到期不续费项”页签查询全部待续费资源,对资源进行手动续费的操作。 所有需手动续费的资源都可归置到“手动续费项”页签,具体操作请参见如何恢复为手动续费。 手动续费资源。 单个续费:在资源页面找到需要续费的资源,单击操作列的“续费”。 图1 单个续费 批量续费:在资源页面勾选
包括predictor configs结构和transformer configs 服务配置,不设置此参数时,表示不更新。关于configs如何生成,请参见部署在线服务。 更新服务配置时,存在以下约束: 参数status指定的目标状态不允许和当前服务状态相同。 当前服务状态是dep