检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练作业的版本名称。 请求示例 如下以创建“job_id”为10,“pre_version_id”为20的一个新版本作业为例。 POST https://endpoint/v1/{project_id}/training-jobs/10/versions/ { "job_desc":
5B。当前MoE模型图模式启动不支持multi step。 MoE模型依赖MindSpeed,当使用MoE模型推理时,需提前安装: git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout a956b907
worker_id String 标注成员ID。 workforce_id String 所属标注团队ID。 请求示例 查询团队标注任务详情 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/workforce-tasks/{workforce_task_id}
户查阅或修改。定义超参后会体现在启动命令中,以命令行参数的形式传入您的启动文件中。 单击“增加超参”手动添加超参。 编辑超参。 为保证数据安全,请勿输入敏感信息,例如明文密码。 表6 超参编辑参数 参数 说明 名称 填入超参名称。 超参名称支持64个以内字符,仅支持大小写字母、数字、下划线和中划线。
若无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx.xxx.xxx.xxx" --build-arg "http_proxy=http://xxx.xxx
/AscendCloud/AscendCloud-LLM/llm_inference/ascend_vllm/Dockfile中。内容如下: git clone https://gitee.com/ascend/vision.git vision_npu cd vision_npu git checkout
{} to obs bucket {}".format(log_tar, obs_bucket)) obs_url = "https://%s.obs.%s.myhuaweicloud.com/%s/%s" % (obs_bucket, self.region_id,
型图模式启动不支持multi step。 MoE模型依赖MindSpeed,当使用MoE模型推理时,需提前安装: git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout a956b907
是否必选 参数类型 描述 envs 否 Map<String,String> 运行模型需要的环境变量键值对,可选填,默认为空。为确保您的数据安全,在环境变量中,请勿输入敏感信息。 instance_count 否 Integer 模型部署的实例数,即计算节点的个数。 model_id
令安装配置Agent。其它region的安装请参考单台主机下安装Agent。 cd /usr/local && curl -k -O https://obs.cn-north-4.myhuaweicloud.com/uniagent-cn-north-4/script/agent_install
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
如果推理需要使用npu加速图片预处理,需要安装torchvision_npu,可放到镜像制作脚本里面。内容如下: git clone https://gitee.com/ascend/vision.git vision_npu cd vision_npu git checkout
'{print $(NF-1) " " $0}' >> aishell.scp 在torch_npu目录下制作label.txt文件: wget https://www.modelscope.cn/datasets/modelscope/speech_asr_aishell1_testset
人工标注图片数据 由于模型训练过程需要大量有标签的图片数据,因此在模型训练之前需对没有标签的图片添加标签。您可以通过手工标注或智能一键标注的方式添加标签,快速完成对图片的标注操作,也可以对已标注图片修改或删除标签进行重新标注。 针对图像分类场景,开始标注前,您需要了解: 图片标注支持多标签,即一张图片可添加多个标签。
准备数据 本教程使用自定义数据集,数据集的介绍及下载链接参考自定义数据。 自定义数据 Qwen-VL指令微调数据:Qwen-VL-Chat微调的数据需要用户自行制作,需要准备一个JSON文件存放训练样本,每个样本需包含id和对话内容。对话内容按user和assistant轮流发言
准备数据 本教程使用自定义数据集,数据集的介绍及下载链接参考自定义数据。 自定义数据 Qwen-VL指令微调数据:Qwen-VL-Chat微调的数据需要用户自行制作,需要准备一个JSON文件存放训练样本,每个样本需包含id和对话内容。对话内容按user和assistant轮流发言
参数种类。 请求示例 如下以查询uuid为2e5451fe-913f-4492-821a-2981031382f7的算法为例。 GET https://endpoint/v2/{project_id}/algorithms/2e5451fe-913f-4492-821a-2981031382f7
5B。当前MoE模型图模式启动不支持multi step。 MoE模型依赖MindSpeed,当使用MoE模型推理时,需提前安装: git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout a956b907
型图模式启动不支持multi step。 MoE模型依赖MindSpeed,当使用MoE模型推理时,需提前安装: git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout a956b907
safetensors 以上4个权重文件全部上传到宿主机工作目录${work_dir}/下。 下载lora训练所需模型权重 FLUX.1-dev下载链接:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main 下载后全部上传到宿主机