检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ModelArts VPC ECS EVS 单机单卡 按需购买(并行文件系统) × 免费 免费 包月购买 免费 × 按需购买 单机多卡 × 包月购买 (HPC型500G) 免费 免费 包月购买 免费 包月购买 (Ubuntu 18.04,建议不小于2U8G,本地存储空间100G,带EIP全动态BGP,按流量10M带宽)
workforce_id 是 String 标注团队ID。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 description 否 String 标注团队描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 workforce_name 否 String
数字人场景 样例 场景 说明 Wav2Lip推理基于DevServer适配PyTorch NPU推理指导 Wav2Lip训练基于DevServer适配PyTorch NPU训练指导 Wav2Lip,人脸说话视频模型,训练、推理 Wav2Lip是一种基于对抗生成网络的由语音驱动的人脸
19:基于gaussianblur的数据增强与原图预测结果不一致。 20:基于fliplr的数据增强与原图预测结果不一致。 21:基于crop的数据增强与原图预测结果不一致。 22:基于flipud的数据增强与原图预测结果不一致。 23:基于scale的数据增强与原图预测结果不一致。
使用自定义镜像创建开发环境Notebook实例。 按需配置。 使用SSH功能 ECS ecs:serverKeypairs:list ecs:serverKeypairs:get ecs:serverKeypairs:delete ecs:serverKeypairs:create 为开发环境Notebook实例配置登录密钥。
镜像所属组织,可以在SWR控制台“组织管理”创建和查看。 tag 否 String 镜像tag,长度限制64个字符, 支持大小写字母、数字、中划线、下划线和点。 description 否 String 该镜像所对应的描述信息,长度限制512个字符。 响应参数 状态码:201 表3 响应Body参数 参数 参数类型
with open(to_path, "wb") as out_f, gzip.GzipFile(from_path) as zip_f: out_f.write(zip_f.read()) # --- 以上为pytorch mnist # --- end
dependencies 否 dependency结构数组 表示模型推理代码需要依赖的包,为结构体数据。 模型开发者需要提供包名、安装方式、版本约束。目前只支持pip安装方式。dependency结构数组说明如表6所示。 如果模型包内没有推理代码customize_service.py文件,则该字段可不填。自定义镜像模型不支持安装依赖包。
'function': { 'name': '对应到实际执行的函数名称', 'description': '此处是函数相关描述', 'parameters': { '_comments':
分页查询到的标注团队列表。 表4 Workforce 参数 参数类型 描述 create_time Long 标注团队的创建时间。 description String 标注团队的描述。 update_time Long 标注团队的更新时间。 worker_count Integer
NPU的Finetune训练指导 Qwen-VL基于Server适配Pytorch NPU的推理指导 数字人模型 Wav2Lip基于Server适配PyTorch NPU推理指导 Wav2Lip基于Server适配PyTorch NPU训练指导 父主题: Lite Server资源使用
obs:object:DeleteObjectVersion obs:object:ListMultipartUploadParts obs:object:AbortMultipartUpload obs:object:GetObjectAcl obs:object:GetObjectVersionAcl
方式二:使用AutoAWQ量化工具进行量化。 AutoAWQ量化工具的适配代码存放在代码包AscendCloud-LLM-x.x.x.zip的llm_tools/AutoAWQ目录下。 1、在容器中使用ma-user用户, vLLM使用transformers版本与awq冲突,
进入GitHub开源仓库Clone界面 输入有效的GitHub开源仓库地址后会展示该仓库下的文件及文件夹,说明用户输入了有效的仓库地址,同时给出该仓库下所有的分支供选择,选择完成后单击“克隆”开始Clone仓库。 GitHub开源仓库地址:https://github.com/jupyterl
应用迁移 模型适配 pipeline代码适配 父主题: 基于AIGC模型的GPU推理业务迁移至昇腾指导
节点。还支持编辑资源标签操作。 图3 单个节点操作 在节点的搜索栏,支持通过节点的名称、节点状态、高可用冗余、批次、驱动版本、驱动状态、IP地址、资源标签等关键字搜索节点。 支持导出Standard资源池的节点信息到Excel表格中,方便查阅。勾选节点名称,在节点列表上方单击“导出
example = SWRImage(swr_path = "**") # 容器镜像地址,用于模型注册节点的输入 表9 GalleryModel 属性 描述 是否必填 数据类型 subscription_id 订阅模型的订阅ID 是 str version_num 订阅模型的版本号
dataset.create_label_task(task_name="obj_detection_task", task_type=1, description="label task") 参数说明 表1 请求参数 参数 是否必选 参数类型 描述 task_name 是 String 标注任务的名称。
方式二:使用AutoAWQ量化工具进行量化。 AutoAWQ量化工具的适配代码存放在代码包AscendCloud-LLM-x.x.x.zip的llm_tools/AutoAWQ目录下。 1、在容器中使用ma-user用户, vLLM使用transformers版本与awq冲突,
ers版本 GLM4-9B模型,容器内执行以下步骤: pip install transformers==4.43.2 其它模型,容器内执行以下步骤: pip install transformers==4.45.0 pip install tokenizers==0.20.0 使用原始hf权重的tokenizer