检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产品变更公告 网络调整公告 预测API的域名停用公告
Lite Cluster 资源池创建失败的原因与解决方法? Cluster资源池节点故障如何定位 特权池信息数据显示均为0%如何解决? 重置节点后无法正常使用?
制作自定义镜像用于ModelArts Standard 自定义镜像使用场景 ModelArts支持的预置镜像列表 制作自定义镜像用于创建Notebook 制作自定义镜像用于训练模型 制作自定义镜像用于推理
历史文档待下线 ModelArts与其他服务的关系 如何上传数据至OBS?
使用CTS审计ModelArts服务 ModelArts支持云审计的关键操作 查看ModelArts相关审计日志
请求Body参数 参数 是否必选 参数类型 描述 sampling_num 否 Integer 验收任务的抽样数目,与抽样比例二选一。 sampling_rate 否 Double 验收任务的抽样比例,取值范围为(0,1],与抽样数目二选一。 响应参数 状态码: 200 表3 响应Body参数
Integer 作业排队位置。 createTime Integer 作业创建时间。 gvk String 作业的k8s资源类型、分组和版本。 hostIps String 作业运行的节点IP列表,逗号分隔。 表5 resourceRequirement 参数 参数类型 描述 cpu String
service_id 是 String 服务ID。 表2 Query参数 参数 是否必选 参数类型 描述 node_id 否 String 待查询的边缘节点ID,仅当infer_type为edge时可指定,默认查询所有节点。 请求参数 表3 请求Header参数 参数 是否必选 参数类型
存储相关 在ModelArts中如何查看OBS目录下的所有文件?
自动模型优化(AutoSearch) 自动模型优化介绍 创建自动模型优化的训练作业 父主题: 使用ModelArts Standard训练模型
主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.3.912) Ascend-vLLM介绍 支持的模型列表 版本说明和要求 推理服务部署 推理关键特性使用 推理服务精度评测 推理服务性能评测 附录 父主题: LLM大语言模型训练推理
Integer 单页查询最大数量,该值为空或者0时默认返回500条记录,单页最大允许查询500条记录。 continue 否 String 分页查询的上一页标记,内容为UUID字符串,查询第一页时为空。 since 否 Integer 事件开始时间戳。 until 否 Integer 事件结束时间戳。
/home/ma-user/work/model-dir/Qwen-VL-Chat/tokenization_qwen.py 中的 30-35 行注释 3. 然后增加一行直接读取本地的Simsun.ttf文件,写绝对路径 # FONT_PATH = try_to_load_from_cache
/home/ma-user/work/model-dir/Qwen-VL-Chat/tokenization_qwen.py 中的 30-35 行注释 3. 然后增加一行直接读取本地的Simsun.ttf文件,写绝对路径 # FONT_PATH = try_to_load_from_cache
with_column_header 否 Boolean 发布时是否将列名写到CSV文件的第一行,对于表格数据集有效。可选值如下: true:发布时将列名写到CSV文件的第一行(默认值) false:发布时不将列名写到CSV文件的第一行 响应参数 状态码: 201 表3 响应Body参数 参数 参数类型
AI Gallery(旧版) AI Gallery简介 免费资产和商用资产 入驻AI Gallery 我的Gallery介绍 订阅使用 发布分享 参加活动 合作伙伴 需求广场
节点池管理 查询节点池列表 创建节点池 查询指定节点池详情 更新节点池 删除节点池 查询节点池的节点列表
其他故障 Notebook中无法打开“checkpoints”文件夹 创建新版Notebook无法使用已购买的专属资源池,如何解决? 在Notebook中使用tensorboard命令打开日志文件报错Permission denied 父主题: 开发环境
发布和管理AI Gallery数据集 发布和管理AI Gallery项目 发布和管理AI Gallery镜像 发布和管理AI Gallery中的AI应用 使用AI Gallery微调大师训练模型 使用AI Gallery在线推理服务部署模型 Gallery CLI配置工具指南 计算规格说明
value 否 Long 付费工作流可使用的时间值。 响应参数 状态码:201 表4 响应Body参数 参数 参数类型 描述 result String 认证结果。 请求示例 对在线服务进行鉴权。设置付费工作流计费周期为“day”,付费工作流可使用的时间为“100”。 POST htt