检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在左侧导航栏选择“模型训练 > 训练作业”进入训练作业页面,单击“创建训练作业”。 填写创建训练作业相关信息。 “创建方式”:选择“自定义算法”。 “启动方式”:选择“预置框架”,下拉框中选择PyTorch,pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18
在左侧导航栏选择“模型训练 > 训练作业”进入训练作业页面,单击“创建训练作业”。 填写创建训练作业相关信息。 “创建方式”:选择“自定义算法”。 “启动方式”:选择“预置框架”,下拉框中选择PyTorch,pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18
排序依据字段,例如sort_by=create_time,则表示以条目的创建时间进行排序。 search_type 否 String 过滤方式。可选值如下: equal表示精确匹配。 contain表示模糊匹配。 具体过滤的字段,由各个接口额外定义参数。例如Workflow支持按
set_compile_mode(jit_compile=False) 启动服务 用ifconfig命令获取容器ip(若无效可使用ip addr,或者自行寻找其他方式获取到容器ip)。 首先进入目录。 cd /home/ma-user/ComfyUI 启动服务命令如下。 python main.py --port
否 String EFS专属存储盘ID,只有当category为EFS,同时ownership为DEDICATED时必填。必填。 参数值获取方式如下:登录弹性文件服务控制台,在文件系统列表中,单击文件系统名称进入详情页。其中,“ID”即为此参数的参数值。 表5 CustomHooks
240516142953-ca51f42 从SWR拉取。 获取软件 本教程使用的是Open-clip源码包。 昇腾适配过程通过修改训练脚本方式实现,不涉及其他软件获取。 Step1 准备环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获
执行记录标签。 status 否 String 执行记录状态。 scene_id 否 String 场景ID。 order 否 String 排序的方式。该字段必须与sort_by同时使用。 缺省值: desc 枚举值: asc:表示升序排列, desc:降序排列。 请求参数 无 响应参数
'label.txt')) as f: # self.label = json.load(f) # 非阻塞方式加载saved_model模型,防止阻塞超时 thread = threading.Thread(target=self.get_tf_sess)
服务部署相关配置信息 是 ServiceConfig 表4 ServiceConfig 属性 描述 是否必填 数据类型 infer_type 推理方式:取值可为real-time/batch/edge。默认为real-time。 real-time代表在线服务,将模型部署为一个Web Service。
import_samples 是否导入样本。可选值如下: true:导入样本(默认值) false:不导入样本 否 bool import_type 导入方式。可选值如下: dir:目录导入 manifest:按manifest文件导入 否 ImportTypeEnum included_labels
/obsutil cp ./dog_cat_1w obs://${your_obs_buck}/demo/ -f -r OBS支持多种文件上传方式,当文件少于100个时,可以在OBS Console中上传,当文件大于100个时,推荐使用工具,推荐OBS Browser+(win)、o
模型量化功能,启动推理服务前,先参考使用AWQ量化、使用SmoothQuant量化或使用GPTQ量化章节对模型做量化处理。 参数定义和使用方式与vLLM0.5.0版本一致,此处介绍关键参数。详细参数解释请参见https://github.com/vllm-project/vllm
模型量化功能,启动推理服务前,先参考使用AWQ量化、使用SmoothQuant量化或使用GPTQ量化章节对模型做量化处理。 参数定义和使用方式与vLLM0.5.0版本一致,此处介绍关键参数。详细参数解释请参见https://github.com/vllm-project/vllm
模型量化功能,启动推理服务前,先参考使用AWQ量化、使用SmoothQuant量化或使用GPTQ量化章节对模型做量化处理。 参数定义和使用方式与vLLM0.5.0版本一致,此处介绍关键参数。详细参数解释请参见https://github.com/vllm-project/vllm
支持1个VPC下多个子网的打通,如果VPC下有多个子网,会显示“+”,单击“+”即可添加子网(上限10个)。 如果需要使用打通VPC的方式实现专属资源池访问公网,由于要访问的公网地址不确定,一般是建议用户在VPC中创建SNAT。此场景下,在打通VPC后,专属资源池中作业访问公
镜像版本 本教程中用到基础镜像地址和配套版本关系如下表所示,请提前了解。 表2 基础容器镜像地址 配套软件版本 镜像用途 镜像地址 配套 获取方式 6.3.910版本 基础镜像 swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_
模型量化功能,启动推理服务前,先参考使用AWQ量化、使用SmoothQuant量化或使用GPTQ量化章节对模型做量化处理。 参数定义和使用方式与vLLM0.6.3版本一致,此处介绍关键参数。详细参数解释请参见https://github.com/vllm-project/vllm
“模型训练 > 训练作业”,默认进入“训练作业”列表。 在“创建训练作业”页面,填写相关参数信息,然后单击“提交”。 创建方式:选择“自定义算法” 启动方式:选择“自定义” 镜像地址:“swr.cn-north-4.myhuaweicloud.com/deep-learning/mindspore:2
String 属性名。 req_uri 否 String 批量任务中调用的推理路径。 result_type 否 Integer 自动分组结果处理方式。可选值如下: 0:保存到OBS 1:保存到样本 samples 否 Array of SampleLabels objects 需要进行自动标注的样本标注信息列表。
其中,加粗的斜体字段需要根据实际值填写: “task_id”为训练作业的任务名称,一般使用work-0。 Content-Type可以设置成不同方式。text/plain,返回OBS临时预览链接。application/octet-stream,返回OBS临时下载链接。 返回状态码“200