检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
前提条件 用户需有一定的Java开发经验,熟悉jar打包流程。 用户需了解WebSocket协议的基本概念及调用方法。 用户需熟悉Docker制作镜像的方法。 约束与限制 WebSocket协议只支持部署在线服务。 只支持自定义镜像导入模型部署的在线服务。 准备工作 ModelArt
2312-aarch64-snt9b-20240516142953-ca51f42 从SWR拉取。 获取软件 本教程使用的是Open-clip源码包。 昇腾适配过程通过修改训练脚本方式实现,不涉及其他软件获取。 Step1 准备环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码
参数类型 描述 type 是 String 资源池类型。可选值如下: Dedicate:物理资源池,独立的网络,支持网络打通,定制驱动,定制作业类型。 scope 是 Array of strings 资源池支持的作业类型。用户创建标准资源池时至少选择一种,物理资源池支持全部选择。可选值如下:
/home/ma-user/coco # 进入到对应目录 # cd /home/ma-user/work/${YOLOX在SFS上的路径} # 安装环境并执行脚本 # /home/ma-user/anaconda3/envs/pytorch/bin/pip install -r requirements
test results.log results.json 目前只支持以上超参,客户修改其他参数则需手动修改yaml文件内容 执行精度比较脚本 进入test-benchmark目录目录执行命令。 ascendfactory-cli accuracy <cfgs_yaml_file>
包,在线转换会增加启动时间,可以提前对权重进行转换以减少启动时间,转换步骤如下: 进入llm_tools/AutoAWQ代码目录下执行以下脚本: 执行时间预计10分钟。执行完成后会将权重路径下的原始权重替换成转换后的权重。如需保留之前权重格式,请在转换前备份。 python convert_awq_to_npu
有该参数。 “代码目录” 训练作业代码目录所在的OBS路径。 您可以单击代码目录后的“编辑代码”,在“OBS在线编辑”对话框中实时编辑训练脚本代码。当训练作业状态为“等待中”、“创建中”和“运行中”时,不支持“OBS在线编辑”功能。 说明: 当您使用订阅算法创建训练作业时,不支持该参数。
名称:AI应用的名称,请按照实际应用名填写。 版本:版本描述,请按照实际填写。 元模型来源:注意此处选择“从容器镜像选择”。 容器镜像所在路径:单击文件夹标签,选择已经制作好的镜像。 容器调用接口参数:根据镜像实际提供的协议和端口填写,本案例中的SDXL镜像提供HTTP服务和8183端口。 图4 填写参数(1)
“容器镜像所在的路径” 单击从容器镜像中导入模型的镜像,其中,模型均为Image类型,且不再需要用配置文件中的“swr_location”来指定您的镜像位置。 制作自定义镜像的操作指导及规范要求,请参见模型镜像规范。 说明: 您选择的模型镜像将共享给系统管理员,请确保具备共享该镜像的权限(不支持导入其
erence/5d8f1760c08b7dfba3ae97b71cbd4c6f17d12dbd/LLaVA 修改mme_8p.sh。需要将脚本里模型的路径更改为实际存放模型的路径(--model-path 模型路径),同时检查数据集路径与实际保持一致(--question-file
cd .. 在/home/ma-user/ascendcloud-aigc-algorithm-open_sora/目录下执行如下命令启动训练脚本。 torchrun --nnodes=1 --nproc_per_node=8 train.py configs/opensora/train/64x512x512
间网络通畅,检查代理设置例如no_proxy环境变量,避免scheduler访问P、D实例时走不必要的网关。 前提条件 已完成推理环境镜像制作,具体参见准备推理环境。 步骤一:生成ranktable 介绍如何生成ranktable,以1p1d-tp2分离部署模式为例。当前1p1d
/home/ma-user/sdxl-train/user-job-dir/目录下,覆盖容器中原有的code目录。 启动命令:直接运行启动脚本文件diffusers_finetune_train.sh。 sh /home/ma-user/sdxl-train/user-job-d
Gallery会基于资产和资源情况分析该任务是否支持设置“商品数量”,用户可以基于业务需要选择任务所需的资源卡数。 在“运行时长控制”选择是否指定运行时长。 不限时长:不限制作业的运行时长,AI Gallery工具链服务部署完成后将一直处于“运行中”。 指定时长:设置作业运行几小时后停止,当AI Gallery工
长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。 --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,若未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awq或smoothquant方式。
… os.environ['DEVICE_ID'] = "5" … 最后执行python脚本进行推理: # shell python mslite_pipeline.py 图2 执行推理脚本 图3 MindSpore Lite pipeline输出的结果图片 父主题: 应用迁移
SHELL_FOLDER $CODE_DIR/scripts_modellink/${MODEL_NAME%-*} 【可选】模型转换数据、转换权重、训练脚本路径 MA_TRAIN_AUTO_RESUME False 【可选】【故障快恢】是否开启此功能,【True、False】默认False不开
练输出路径,请保证您设置的桶路径有写入权限和读取权限。 在ModelArts中,训练代码需包含以下步骤: (可选)引入依赖 当您使用自定义脚本创建算法的时候,如果您的模型引用了其他依赖,您需要在“算法管理 > 创建算法”的“代码目录”下放置相应的文件或安装包。 安装python依
"you@example.com" && \ git config --global user.name "Your Name" && \ 执行以下命令制作训练镜像。安装过程需要连接互联网git clone,请确保ECS可以访问公网 docker build -t <镜像名称>:<版本名称>
/home/ma-user/modelarts/user-job-dirAscendFactory/scripts_modellink 【必填】模型转换数据、转换权重、训练脚本路径,scripts_modellink目录路径 train_auto_resume False 是否开启【故障快恢】功能,【True、F