检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
mmlu_gen ceval_gen --debug -w ${output_path} output_path: 要保存的结果路径。 (可选)创建新conda环境,安装vllm和opencompass。执行完之后,在 opencompass/configs/models/vllm/vllm_ppl
进行不断去噪。在经过多次迭代后,最终模型将输出和文字相关的图像。 SD1.5 Finetune是指在已经训练好的SD1.5模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能的过程。 本文档主要介绍如何利用训练框架PyTorch_npu+华为自研Ascend
mmlu_gen ceval_gen --debug -w ${output_path} output_path: 要保存的结果路径。 (可选)创建新conda环境,安装vllm和opencompass。执行完之后,在 opencompass/configs/models/vllm/vllm_ppl
mmlu_gen ceval_gen --debug -w ${output_path} output_path: 要保存的结果路径。 (可选)创建新conda环境,安装vllm和opencompass。执行完之后,在 opencompass/configs/models/vllm/vllm_ppl
此功能与直接基于预置框架创建算法的区别仅在于,镜像是由用户自行选择的。用户可以基于预置框架制作自定义镜像。基于预置框架制作自定义镜像可参考使用基础镜像构建新的训练镜像章节。 完全自定义镜像: 订阅算法和预置框架涵盖了大部分的训练场景。针对特殊场景,ModelArts支持用户构建自定义镜像用于模型
/xxx/pytorch.tar.gz . 将pytorch.tar.gz上传到OBS并设置公共读,并在构建时wget获取、解压、清理。 新镜像构建 基础镜像一般选用ubuntu 18.04的官方镜像,或者nvidia官方提供的带cuda驱动的镜像。相关镜像直接到dockerhub官网查找即可。
${container_name}:容器名称,进入容器时会用到,此处可以自己定义一个容器名称。 {image_id} 为docker镜像的ID,即第四步中生成的新镜像id,在宿主机上可通过docker images查询得到。 进入容器。 docker exec -it -u ma-user ${container-name}
${container_name}:容器名称,进入容器时会用到,此处可以自己定义一个容器名称。 {image_id} 为docker镜像的ID,即第四步中生成的新镜像id,在宿主机上可通过docker images查询得到。 进入容器。 docker exec -it -u ma-user ${container-name}
使用http://{宿主机ip}:8183 可以访问前端页面,如下运行文生图。 图1 访问前端页面 根据上面checkpoint的箭头,对新的npu的checkpoint进行规划,如下图。 图2 规划checkpoint 在ckpt_name中选择要使用的权重文件,单击Queue
name 否 String 资产名称。 type 否 String 资产类型,枚举如下: algorithm:算法 algorithm2:新算法 model:模型算法 content_id 否 String 资产ID,可在AI Gallery中获取。 subscription_id
GPT2(Generative Pre-trained Transformer 2),是OpenAI组织在2018年于GPT模型的基础上发布的新预训练模型,是一个基于Transformer且非常庞大的语言模型。它在大量数据集上进行了训练,直接运行一个预训练好的GPT-2模型:给定一个
ENV_AG_TRAIN_OUTPUT_DIR 训练产物文件存放路径。训练产物将被保存到该路径。训练任务结束后,由AI Gallery平台将该目录上传到新模型的仓库中。 “/home/ma-user/.cache/gallery/output” ENV_AG_USER_METRICS_LOG_PATH
参数类型 描述 name String 资产名称。 type String 资产类型,枚举如下: algorithm:算法 algorithm2:新算法 model:模型算法 content_id String 资产ID,可在AI Gallery中获取。 subscription_id String
ENV_AG_TRAIN_OUTPUT_DIR 训练产物文件存放路径。训练产物将被保存到该路径。训练任务结束后,由AI Gallery平台将该目录上传到新模型的仓库中。 “/home/ma-user/.cache/gallery/output” ENV_AG_USER_METRICS_LOG_PATH
参数类型 描述 name String 资产名称。 type String 资产类型,枚举如下: algorithm:算法 algorithm2:新算法 model:模型算法 content_id String 资产ID,可在AI Gallery中获取。 subscription_id String
参数类型 描述 name String 资产名称。 type String 资产类型,枚举如下: algorithm:算法 algorithm2:新算法 model:模型算法 content_id String 资产ID,可在AI Gallery中获取。 subscription_id String
steps=[model_registration] ) 上述案例中,系统会自动获取订阅模型中的自定义镜像,然后结合输入的OBS模型路径,注册生成一个新的模型,其中model_obs可以替换成JobStep的动态输出。 model_type支持的类型有:"TensorFlow"、"MXNet"、"Caffe"、
Notebook中使用自定义镜像 当Notebook预置镜像不能满足需求时,用户可以制作自定义镜像。在镜像中自行安装与配置环境依赖软件及信息,并制作为自定义镜像,用于创建新的Notebook实例。 Notebook使用自定义镜像介绍 将Notebook实例保存为自定义镜像 OBS 2.0支持 使用自定义镜像训练作业
${container_name}:容器名称,进入容器时会用到,此处可以自己定义一个容器名称。 {image_id} 为docker镜像的ID,即第四步中生成的新镜像id,在宿主机上可通过docker images查询得到。 Step6 启动推理服务 进入容器。 docker exec -it -u ma-user
导出数据集版本的名称。 export_dest 否 String 数据集导出类型。可选值如下: DIR:导出到OBS(默认值) NEW_DATASET:导出到新数据集 export_new_dataset_name 否 String 导出新数据集的名称。 export_new_dataset_work_path