检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
或”组合搜索。格式为“query logs AND erro*”或“query logs OR erro*”。 标签 展示服务已添加的标签。支持添加、修改、删除标签。 标签详细用法请参见ModelArts如何通过标签实现资源分组管理。 Cloud Shell 允许用户使用Mode
model_name_or_path /home/ma-user/ws/model/Qwen2-72B 必须修改。加载tokenizer与Hugging Face权重时,对应的存放绝对或相对路径。请根据实际规划修改 adapter_name_or_path /home/ma-user/ws/xxx/sft_lora/
创建训练作业时,可开启自动重启功能。当环境问题导致训练作业异常时,系统将自动修复异常或隔离节点,并重启训练作业,提高训练成功率。为了避免丢失训练进度、浪费算力。此功能已适配断点续训练。 图1 开启故障重启 断点续训练是通过checkpoint机制实现。checkpoint机制是在模型训练的过程中,不断地保存
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 DELETE https://{endpoint}/v1/{project_id}/app-auth/apps/{app_id} 响应示例 无 状态码 状态码 描述
yaml文件内容。 请求示例 如下查询algorithm_type为hpo且algorithm_name为Bayes的yaml配置文件内容。 GET https://endpoint/v2/{project_id}/training-jobs/autosearch/yaml-templates/hpo/Bayes
式作业日志有多个文件。 请求示例 如下以获取“job_id”为10,“version_id”为10的作业日志文件为例。 GET https://endpoint/v1/{project_id}/training-jobs/10/versions/10/log/file-names
Gallery中的“AI说”,是一个AI开发人员的交流园地。在这里可以阅读其他用户分享的技术文章,并参与评论。也可以发布分享个人技术文章。 前提条件 已入驻AI Gallery。 发布技术文章 进入AI Gallery首页,单击“AI说”,在下拉框中单击“AI说 >”,进入AI说首页。 在“
更新管理 ModelArts在线服务更新 对于已部署的推理服务,ModelArts支持通过更换模型的版本号,实现服务升级。 推理服务有三种升级模式:全量升级、滚动升级(扩实例)和滚动升级(缩实例)。了解三种升级模式的流程,请参见图1。 全量升级 需要额外的双倍的资源,先全量创建新版本实例,然后再下线旧版本实例。
登录ModelArts管理控制台,左侧菜单栏选择“数据管理>数据标注”,进入数据标注列表,单击需要删除图片的数据集,进入标注详情页。 在“全部”、“未标注”或“已标注”页面中,依次选中需要删除的图片,或者“选择当前页”选中该页面所有图片,然后单击删除。在弹出的对话框中,根据实际情况选择是否勾选“同时删
在左侧菜单栏中选择“AI专属资源池 > 弹性节点 Server”。 执行如下操作,启动或停止弹性节点Server。 启动弹性节点Server:单击“启动”。只有处于“已停止/停止失败/启动失败”状态的弹性节点Server可以执行启动操作。 停止弹性节点Server:单击“停止”,在弹出的确认对话框中,确认信
6fde-4c33-9dcd-55be17858ceb的作业超参敏感度分析结果中超参batch_size的结果图像保存路径。 GET https://endpoint/v2/{project_id}/training-jobs/e346206c-6fde-4c33-9dcd-55
data is shorter than windows 。 处理方法 增加预测数据行数大于训练作业window超参值。 重建训练作业,修改window超参值。 父主题: 服务预测
ecified max_model_len is greater than the drived max_model_len 解决方法: 修改config.json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。 config
确认服务的部署区域,获取项目ID和名称、获取帐号名和帐号ID和获取用户名和用户ID。 操作步骤 调用认证鉴权接口获取用户的Token。 请求消息体: URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json
工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 请求示例 DELETE https://{endpoint}/v1/{project_id}/workspaces/ccd05d1a553b4e188ea878e7dcb85e47
Workflow工作流管理 获取Workflow工作流列表 新建Workflow工作流 删除Workflow工作流 查询Workflow工作流 修改Workflow工作流 总览Workflow工作流 查询Workflow待办事项 在线服务鉴权 创建在线服务包 获取Execution列表
ecified max_model_len is greater than the drived max_model_len 解决方法: 修改config.json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。 config
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/app-auth/apps/{app_name}/exists&workspace_id=0
label_zh String 算法类别名称。 template_id String 算法类别的ID。 请求示例 查询数据处理算法类别的列表 GET https://{endpoint}/v2/{project_id}/processor-tasks/items 响应示例 状态码: 200 OK
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/notebooks/tags 响应示例 状态码:200 查询项目下Notebook实例类型下的标签,正常返回。