检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 参数描述。 param_name String 参数名称。 param_type String 参数类型。 请求示例 GET https://{endpoint}/v1/{project_id}/models/{model_id} 响应示例 状态码:200 模型详情。 {
官网下载地址:https://huggingface.co/hpcai-tech/OpenSora-STDiT-v3/tree/main 下载 t5-v1_1-xxl 权重,将下载好的权重放在 ./weights 目录下。 t5-v1_1-xxl 官网下载地址: https://huggingface
工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 请求示例 DELETE https://{endpoint}/v1/{project_id}/workspaces/ccd05d1a553b4e188ea878e7dcb85e47
task_id String 同步任务ID。 total_sample_count Long 总样本数量。 请求示例 获取数据集同步状态 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/sync-data/status
UNMOUNT_FAILED:卸载失败 UNMOUNTED:卸载完成 uri String OBS对象路径。 请求示例 DELETE https://{endpoint}/v1/{project_id}/notebooks/{instance_id}/storage/{storage_id}
6fde-4c33-9dcd-55be17858ceb的作业超参敏感度分析结果中超参batch_size的结果图像保存路径。 GET https://endpoint/v2/{project_id}/training-jobs/e346206c-6fde-4c33-9dcd-55
on" } ] } 数据域迁移算子(CycleGan算子) 基于CycleGAN用于生成域迁移的图像,即将一类图片转换成另一类图片,把X空间中的样本转换成Y空间中的样本。CycleGAN可以利用非成对数据进行训练。模型训练时运行支持两个输入,分别代表数据的原域和目标域,在训
rsionAcl obs:bucket:PutBucketAcl obs:object:PutObjectAcl 从OBS导入模型。 模型转换指定OBS路径。 按需配置。 表2 部署上线所需权限 业务场景 依赖的服务 依赖策略项 支持的功能 配置建议 部署服务 ModelArts
果出现该情况请将编辑器改为utf-8格式后再粘贴代码。 在本地电脑中创建训练脚本“train.py”,内容如下: # base on https://github.com/pytorch/examples/blob/main/mnist/main.py from __future__
本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 框架 1 Qwen-VL 7b https://huggingface.co/Qwen/Qwen-VL-Chat DeepSpeed 操作流程 图1 操作流程图 表2 操作任务流程说明
用户。 响应参数 无 请求示例 上传授权。设置授权类型为“agency”,授权内容为“modelarts_agency”。 POST https://{endpoint}/v2/{project_id}/authorizations { "user_id" : "****d
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/pools/tags 响应示例 状态码:200 查询项目下指定资源类型的所有标签。
如以下查询training_job_id为5b60a667-1438-4eb5-9705-85b860e623dc的作业中trial为ae544174的信息。 GET https://endpoint//v2/{project_id}/training-jobs/5b60a667-1438-4eb5-9705-8
基本参数请参考步骤八 启动scheduler实例,额外的参数如下: --dynamic:是否开启自适应角色转换,如果不开启,则下方参数无效 --replan-interval:重新计算pd配比转换的间隔时间,默认6000,单位为秒 --profile-input-len:profiling的输入长度,默认"64
py #构造vllm评测配置脚本名字 ├──vllm_ppl.py #ppl精度测试脚本 精度评测切换conda环境,确保之前启动服务为vllm接口,进入到benchmark_eval目录下,执行如下命令。 conda activate python-3
<exp_name>开始训练。 训练完成后在SFS Turbo中保存训练的模型结果。(多机情况下,只有在rank_0节点进行数据预处理,权重转换等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下) 父主题: 准备工作
在ModelArts管理控制台的左侧导航栏中选择“模型部署 > 批量服务”,在服务列表中,您可以单击名称/ID,进入服务详情页面。 在服务详情页面,切换到“事件”页签,查看事件信息。 父主题: 管理批量推理作业
下面的README文件查看当前环境内置的Python虚拟环境。 cat /home/ma-user/README 执行source命令可以切换到具体的Python环境中。 执行which python查看python路径并复制出来,以备后续配置云上Python Interpreter使用。
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec
|── finetune # 微调加载的数据 |──converted_weights # HuggingFace格式转换megatron格式后权重文件 |── saved_dir_for_output # 训练输出保存权重,目录结构会自动生成,无需用户创建