检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。 export DEFER_MS=10 # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次Token解码能与下一次模型
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。 静态性能
描述 flavor 是 String 资源规格。 count 是 Integer 相应规格的资源数量。 azs 否 Array of PoolNodeAz objects 更新的AZ列表。 表8 PoolNodeAz 参数 是否必选 参数类型 描述 az 是 String 可用区名称。
image_path 是 str 传给模型的图片路径 payload 是 json 单图单轮对话的post请求json, 可参考表2.请求服务json参数说明 docker_ip 是 str 启动多模态openAI服务的主机ip served_port 是 str 启动多模态openAI服务的端口号
/v1/{project_id}/images/{id} 表1 路径参数 参数 是否必选 参数类型 描述 id 是 String 镜像ID。 project_id 是 String 用户项目ID,获取方法请参见获取项目ID和名称。 请求参数 无 响应参数 状态码:200 表2 响应Body参数
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。 静态性能
Instance”,启动并连接Notebook实例。 Notebook实例状态处于“运行中”或“停止”状态都可以,如果Notebook实例是停止状态,连接Notebook时,VS Code插件会先启动实例再去连接。 图8 连接Notebook实例 或者单击实例名称,在VS Cod
AscendCloud-6.3.911软件包中的AscendCloud-AIGC-6.3.911-xxx.zip 文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.911 版本。 说明: 如果上述软件获取路
训练作业运行时节点数变化指标。 tasks Array of strings 训练作业子任务名称。 start_time String 训练作业开始时间,格式为时间戳。 task_statuses Array of objects 训练在子任务状态信息。 表7 task_statuses 参数 参数类型
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。 静态性能
ler:使用微调的alpaca数据集。 MBS 1 表示流水线并行中一个micro batch所处理的样本量。在流水线并行中,为了减少气泡时间,会将一个step的数据切分成多个micro batch。 该值与TP和PP以及模型大小相关,可根据实际情况进行调整。 GBS 128 表
表6 nfs属性列表 参数 是否必选 参数类型 说明 id 是 String SFS Turbo 文件系统 ID。 src_path 是 String SFS Turbo 文件系统地址。 dest_path 是 String 训练作业的本地路径。 read_only 否 Boolean
image_path 是 str 传给模型的图片路径 payload 是 json 单图单轮对话的post请求json, 可参考表2.请求服务json参数说明 docker_ip 是 str 启动多模态openAI服务的主机ip served_port 是 str 启动多模态openAI服务的端口号
image_path 是 str 传给模型的图片路径 payload 是 json 单图单轮对话的post请求json, 可参考表2.请求服务json参数说明 docker_ip 是 str 启动多模态openAI服务的主机ip served_port 是 str 启动多模态openAI服务的端口号
IAM修改委托权限”。 图6 去IAM修改委托权限 进入IAM控制台的委托页面。找到对应的委托信息,修改该委托的基本信息,主要是持续时间。“持续时间”可以选择永久、1天,或者自定义天数,例如 30天。 图7 手动创建的委托 在授权记录页面单击“授权”,勾选要配置的策略,单击下一步
tes集群内的节点,ModelArts支持通过节点池来管理节点。节点池是集群中具有相同配置的一组节点,一个节点池包含一个节点或多个节点,您可以创建、更新和删除节点池。 管理Lite Cluster节点:节点是容器集群组成的基本元素,您可以对资源池内单节点进行替换、删除、重置等操作
请求Body参数 参数 是否必选 参数类型 描述 apiVersion 是 String API版本。可选值如下: v2 kind 是 String 资源类型。可选值如下: Pool:资源池 metadata 是 PoolMetadataCreation object 资源池的metadata信息。
Lite的Lite Server环境中,使用NPU卡训练Wav2Lip模型。本文档中提供的Wav2Lip模型,是在原生Wav2Lip代码基础上适配后的模型,可以用于NPU芯片训练。 Wav2Lip是一种基于对抗生成网络的由语音驱动的人脸说话视频生成模型。主要应用于数字人场景。不仅可以基于静态图
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。 静态性能
/v1/{project_id}/images/{id} 表1 路径参数 参数 是否必选 参数类型 描述 id 是 String 镜像ID。 project_id 是 String 用户项目ID,获取方法请参见获取项目ID和名称。 表2 Query参数 参数 是否必选 参数类型 描述