检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在ModelArts控制台,单击“模型部署 > 在线服务 > 部署”,开始部署在线服务。 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资源池,计算节点规格选择snt9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图3 部署在线服务-专属资源池
例。 cd /home/ma-user/ws mkdir -p tokenizers/Llama2-70B 多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。 父主题: 准备工作
例。 cd /home/ma-user/ws mkdir -p tokenizers/Llama2-70B 多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。 父主题: 准备工作
npu-smi info # 在每个实例节点上运行此命令可以看到NPU卡状态 npu-smi info -l | grep Total # 在每个实例节点上运行此命令可以看到总卡数,用来确认对应卡数已经挂载 npu-smi info -t
创建并行文件系统 虚拟私有云VPC 虚拟私有云可以为您构建隔离的、用户自主配置和管理的虚拟网络环境。 通过打通专属资源池的VPC,可以方便用户跨VPC使用资源,提升资源利用率。 创建虚拟私有云和子网 弹性云服务器ECS 如果您需要在服务器上部署相关业务,较之物理服务器,弹性云服务器的
保存到OBS中。 图4 选择镜像 资源池:选择专属资源池,规格选择Ascend: 8*ascend-snt9b。如果需要多机训练,增加计算节点个数即可,启动脚本文件diffusers_finetune_train.sh支持多机训练。 图5 选择资源池规格 作业日志路径:选择输出日志到OBS的指定目录。
"cn-north-1" } } } } 其中,加粗的斜体字段需要根据实际值填写: iam_endpoint为IAM的终端节点。 user_name为IAM用户名。 user_password为用户登录密码。 domain_name为用户所属的账号名。 cn-no
train_instance_type 是 String 训练作业选择的资源规格,请参考查询资源规格列表 train_instance_count 是 int 训练作业计算节点个数。 framework_type 否 String 训练作业选择的引擎规格,请参考查询引擎规格列表。 framework_version
ModelArts CommonOperations ModelArts Dependency Access 开发环境Notebook/镜像管理/弹性节点Server 对象存储服务OBS OBS Administrator 凭据管理服务CSMS CSMS ReadOnlyAccess 云审计服务CTS
运行时长进行收费。 “专属资源池”按实际情况选择已创建的专属资源池。如果没有专属资源,需要单独购买并创建。 说明: 如果您购买的专属池是单节点的Tnt004规格:GPU: 1*tnt004 | CPU: 8 核 32GiB (modelarts.vm.gpu._tnt004u8)
“名称”:按照界面提示规则自定义一个在线服务的名称,也可以使用默认值。 “资源池”:选择“公共资源池”。 “模型来源”和“选择模型及版本”:会自动选择模型和版本号。 “计算节点规格”:在下拉框中选择“限时免费”资源,勾选并阅读免费规格说明。 其他参数可使用默认值。 如果限时免费资源售罄,建议选择收费CPU资源进行
运行模型需要的环境变量键值对,可选填,默认为空。为确保您的数据安全,在环境变量中,请勿输入敏感信息。 instance_count 否 Integer 模型部署的实例数,即计算节点的个数。 model_id 否 String 模型ID。 specification 否 String 在线服务的资源规格。详见部署服务 weight
在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资源池,计算节点规格选择snt9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图6 部署在线服务-专属资源池
在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资源池,计算节点规格选择snt9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图6 部署在线服务-专属资源池
Standard模型训练 ModelArts Standard模型训练提供容器化服务和计算资源管理能力,负责建立和管理机器学习训练工作负载所需的基础设施,减轻用户的负担,为用户提供灵活、稳定、易用和极致性能的深度学习训练环境。通过ModelArts Standard模型训练,用户可以专注于开发、训练和微调模型。
运行模型需要的环境变量键值对,可选填,默认为空。为确保您的数据安全,在环境变量中,请勿输入敏感信息。 instance_count Integer 模型部署的实例数,即计算节点的个数。 model_id String 模型ID。 specification String 在线服务的资源规格。详见部署服务 weight
训练脚本接收的参数。 Specifications 计算规格,这里选择Ascend类型的,以界面实际可选值为准。 Compute Node 节点数(单机训练默认为1) PyCharm中支持两种方式创建训练作业:使用预置镜像训练作业、自定义镜像创建训练作业。 使用预置镜像创建训练作业。
运行模型需要的环境变量键值对,可选填,默认为空。为确保您的数据安全,在环境变量中,请勿输入敏感信息。 instance_count Integer 模型部署的实例数,即计算节点的个数。 model_id String 模型ID。 specification String 在线服务的资源规格。详见部署服务 weight
tensorflow/data/mnist.npz”,获取方式设置为“超参”。 资源池:选择公共资源池。 资源类型:选择GPU规格。 计算节点个数:1个。 永久保存日志:打开。 作业日志路径:设置为OBS中存放训练日志的路径。例如:“obs://test-modelarts/mindspore-gpu/log/”。
在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资源池,计算节点规格选择snt9b,部署超时时间建议设置为40分钟。此处仅介绍关键参数,更多详细参数解释请参见部署在线服务。 图6 部署在线服务-专属资源池