检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是否启用自动停止功能。 type String 自动停止类别。 timing:自动停止。 idle:空闲停止。 update_at Long 实例最后更新(不包括探活心跳)的时间,UTC毫秒。 请求示例 GET https://{endpoint}/v1/{project_id}/notebooks/{id}/lease
的数据对象 方法的执行依赖于Workflow对象的名称:当该名称的工作流不存在时,则创建新工作流并创建新执行;当该名称的工作流已存在时,则更新存在的工作流并基于新的工作流结构创建新的执行 workflow.release_and_run() 发布Workflow至运行态并运行 该
export_images Boolean 发布时是否导出图片到版本输出目录。可选值如下: true:导出图片到版本输出目录 false:不导出图片到版本输出目录(默认值) extract_serial_number Boolean 发布时是否需要解析子样本序号,用于医疗数据集。可选值如下:
create_time Long 标注团队的创建时间。 description String 标注团队的描述。 update_time Long 标注团队的更新时间。 worker_count Integer 标注团队的成员总数。 workforce_id String 标注团队ID。 workforce_name
用户在进行NPU精度和GPU精度比对前,需要保证两边的配置一致。 表1 超参说明 超参 说明 学习率 影响模型收敛程度,决定了模型在每次更新权重时所采用的步长。学习率过高,模型可能会过度调整权重,导致不稳定的训练过程;如果学习率过低,模型训练速度会变慢,甚至陷入局部最优。 batch
返回的APP列表按何属性排序。枚举值如下: app_name:应用名称。 created_at:应用创建时间。 updated_at:应用更新时间。 默认为app_name。 workspace_id 否 String 工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间
String 专属集群ID,默认为空,不使用专属集群;使用专属集群部署服务时需确保集群状态正常;配置此参数后,则使用集群的网络配置,vpc_id参数不生效。 inf_config_list Array of InfConfig objects 运行推理任务需要的配置列表,可选填,默认为空。 inf_output
新建一个相同计算规格的实例。 配置更新记录 展示“当前配置”详情和“历史更新记录”。 “当前配置”:展示模型名称、版本、状态、实例规格、分流、实例数、部署超时时间、环境变量、存储挂载等信息。专属资源池部署的服务,同时展示资源池信息。 “历史更新记录”:展示历史模型相关信息。 监控信息
户去访问其他云服务。进入到ModelArts控制台的“权限管理”页面,单击“添加授权”,根据提示进行操作。 更新委托 如果之前给ModelArts创过委托授权,此处可以更新授权。 进入到ModelArts控制台的“资源管理>AI专属资源池>弹性节点 Server”页面,查看是否存在授权缺失的提示。
notebook字段数据结构说明所示。 workspace Object 工作空间,如表18所示。 latest_update_timestamp String 实例的更新时间。 flavor_details Object 机器规格详情,如表9所示。 pool Object 专属资源池,如表10所示。 ai_project
标注成员的当前登录状态。可选值如下: 0:未发送邀请邮件 1:已发送邀请邮件但未登录 2:已登录 3:标注成员已删除 update_time Long 更新时间。 worker_id String 标注成员ID。 workforce_id String 所属标注团队ID。 请求示例 查询标注团队成员详情
内的节点,ModelArts支持通过节点池来管理节点。节点池是集群中具有相同配置的一组节点,一个节点池包含一个节点或多个节点,您可以创建、更新和删除节点池。 管理Lite Cluster节点:节点是容器集群组成的基本元素,您可以对资源池内单节点进行替换、删除、重置等操作,也可以批量对节点进行删除、退订、续费等操作。
String 专属集群ID,默认为空,不使用专属集群;使用专属集群部署服务时需确保集群状态正常;配置此参数后,则使用集群的网络配置,vpc_id参数不生效。 inf_config_list Array of InfConfig objects 运行推理任务需要的配置列表,可选填,默认为空。 inf_output
状态码:200 表3 响应Body参数 参数 参数类型 描述 nodes Array of NodesResultMsg objects 更新成功的节点名称列表及状态。 表4 NodesResultMsg 参数 参数类型 描述 name String 操作节点名称 status String
状态码:200 表3 响应Body参数 参数 参数类型 描述 nodes Array of NodesResultMsg objects 更新成功的节点名称列表及状态。 表4 NodesResultMsg 参数 参数类型 描述 name String 操作节点名称 status String
算成本,加快了模型微调速度。对于VLLM来说,使用LoRA进行多任务部署具有以下优势: 资源节省:在大模型中引入LoRA,可以减少模型需要更新的参数量,从而节省NPU内存并提高推理速度。 轻量化适配:无需改变原始模型结构,通过低秩矩阵的调整即可适配不同任务。 多任务并行:支持同时
是否启用自动停止功能。 type String 自动停止类别。 timing:自动停止。 idle:空闲停止。 update_at Long 实例最后更新(不包括探活心跳)的时间,UTC毫秒。 请求示例 延长运行中的Notebook时长。 https://{endpoint}/v1/{pro
算成本,加快了模型微调速度。对于VLLM来说,使用LoRA进行多任务部署具有以下优势: 资源节省:在大模型中引入LoRA,可以减少模型需要更新的参数量,从而节省NPU内存并提高推理速度。 轻量化适配:无需改变原始模型结构,通过低秩矩阵的调整即可适配不同任务。 多任务并行:支持同时
String 用户ID,获取方法请参见获取用户ID和名称。 当user_id为all时,表示对所有IAM子用户进行授权,如果已有部分用户已授权,则更新授权。 仅当授权类型为委托时,需要该字段。 type 否 String 授权类型。推荐使用委托方式。 可选值: agency:委托 credential:访问密钥(AK/SK)
适配的CANN版本是cann_8.0.rc3,驱动版本是23.0.6。 本案例仅支持在专属资源池上运行,确保专属资源池可以访问公网。 文档更新内容 6.3.912版本是第一次发布 支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量