检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如下查询training_job_id为04f679b17380d32a2f32c00335c4b5ba作业的超参敏感度分析结果。 GET https://endpoint/v2/{project_id}/training-jobs/04f679b17380d32a2f32c00335
启动。 stopped:stopped为停止节点实例,只有处于running状态的节点实例支持停止。 响应参数 无 请求示例 PUT https://{endpoint}/v1/{project_id}/services/{service_id}/nodes/{node_id}/status
调用成功时无此字段。 请求示例 如下以更新作业ID为10的作业描述为“This is a ModelArts job”为例。 PUT https://endpoint/v1/{project_id}/visualization-jobs/10 { "job_desc": "This
调用失败时的错误码,具体请参见错误码。 调用成功时无此字段。 请求示例 如下以停止“job_id”为10,“version_id”为10的作业版本为例。 POST https://endpoint/v1/{project_id}/training-jobs/10/versions/10/stop 响应示例 成功响应示例
安装VS Code软件 使用VS Code连接开发环境时,首先需要安装VS Code软件。 VS Code下载方式: 下载地址: https://code.visualstudio.com/updates/v1_85 图1 VS Code的下载位置 VS Code版本要求: 建议用户使用VS
如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx.xxx.xxx.xxx" --build-arg "http_proxy=http://xxx.xxx
如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx.xxx.xxx.xxx" --build-arg "http_proxy=http://xxx.xxx
ode远程开发场景下,在Server端安装的插件不丢失。 查询支持的有效规格列表 查询支持的有效规格列表。 查询支持可切换规格列表 查询Notebook实例可切换的规格列表。 查询运行中的开发环境可用时长 查询运行中的开发环境可用时长。 Notebook时长续约 延长运行中的开发环境时长。
2k条指令和演示的数据集。这些指令数据可以用来对语言模型进行指令调优,使语言模型更好地遵循指令。 预训练使用的Alpaca数据集下载:https://huggingface.co/datasets/tatsu-lab/alpaca/resolve/main/data/train-
"http_proxy": "http://proxy-notebook.modelarts-dev-proxy.com:8083", "https_proxy": "http://proxy-notebook.modelarts-dev-proxy.com:8083",
ta.json.json)按照下面的数据存放目录要求放置。 样例数据集alpaca_gpt4_data.json.json的下载链接:https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/blob/main/alpacaGPT4/alpaca_gpt4_data
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/app-auth/apps/{app_name}/exists&workspace_id=0
label_zh String 算法类别名称。 template_id String 算法类别的ID。 请求示例 查询数据处理算法类别的列表 GET https://{endpoint}/v2/{project_id}/processor-tasks/items 响应示例 状态码: 200 OK
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/notebooks/tags 响应示例 状态码:200 查询项目下Notebook实例类型下的标签,正常返回。
total Integer 总数。 stat Map<String,Integer> 状态。 请求示例 请求Workflow统计信息 GET https://{endpoint}/v2/{project_id}/workflows/overview 响应示例 状态码:200 OK {
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec
将子用户子账号加入用户组。在“加入用户组”步骤中,选择“用户组”,然后单击“创建用户”。系统将前面设置的多个用户加入用户组中。 用户登录并验证权限。 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择ModelArts,进入ModelArts主界面,选择不同类型的专属资源池,在页面单击“创建”
MindStudio-Insight用户指南 PyTorch GPU推理迁移至MindSpore Lite NPU推理 模型迁移 Tailor Mindspore-lite模型转换、精度误差分析、性能分析。 whl包,地址见教程中下载链接。 Tailor使用指导 性能调优 msprof msprof命令行工具提供了A
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 修改目录权限,上传代码和数据到宿主机时使用的是root用户,如用ma-user用户训练,此处需要执行如下命令统一文件权限。
POST https://{endpoint}/v1/{project_id}/models { "model_name" : "mnist", "model_version" : "1.0.0", "source_location" : "https://models