检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
弹出“发布AI Gallery Notebook”页面。 图1 单击“创建分享” 在“发布AI Gallery Notebook”页面填写参数,单击“创建”将Notebook代码样例分享至AI Gallery。 填写“发布标题”,标题长度为3~64个字符,不能包含字符“\ / :
├──benchmark_tools #性能评测 ├── benchmark.py # 可以基于默认的参数跑完静态benchmark和动态benchmark ├── benchmark_parallel.py # 评测静态性能脚本
├──benchmark_tools #性能评测 ├── benchmark.py # 可以基于默认的参数跑完静态benchmark和动态benchmark ├── benchmark_parallel.py # 评测静态性能脚本
将密钥对.pem文件转成.ppk文件 Step3 使用SSH工具连接云上Notebook实例 运行PuTTY。 单击“Session”,填写以下参数。 Host Name (or IP address):云上开发环境Notebook实例的访问地址,即在Notebook实例详情页获取的地
径。 容器调用接口:根据实际情况配置容器调用接口。 健康检查:保持默认。如果镜像中配置了健康检查则按实际情况配置健康检查。 图1 模型配置参数 单击“立即创建”,进入模型列表页,等模型状态变为“正常”,表示模型创建成功。 使用模型部署在线服务 登录ModelArts管理控制台,进入“模型部署
动态shape 是否需要支持动态shape。 例如:需要动态Shape,需要动态Shape的模型有ResNet-50、YOLOv5。 - 参数类型(FP32/FP16) FP32还是FP16混合,判断精度调优难度。 例如:ResNet-50、YOLOv5模型使用FP16。BertLarge使用FP32。
需要在训练开始前,修改llm_train/AscendSpeed/yi/3_training.sh文件,并添加--tokenizer-not-use-fast参数。修改后如图1所示。 图1 修改Yi 模型3_training.sh文件 ChatGLMv3-6B 在训练开始前,针对ChatGLMv3-
需要在训练开始前,修改llm_train/AscendSpeed/yi/3_training.sh文件,并添加--tokenizer-not-use-fast参数。修改后如图1所示。 图1 修改Yi 模型3_training.sh文件 ChatGLMv3-6B 在训练开始前,针对ChatGLMv3-
需要在训练开始前,修改llm_train/AscendFactory/yi/3_training.sh文件,并添加--tokenizer-not-use-fast参数。修改后如图1所示。 图1 修改Yi 模型3_training.sh文件 ChatGLMv3-6B 在训练开始前,针对ChatGLMv3-
需要在训练开始前,修改llm_train/AscendFactory/yi/3_training.sh文件,并添加--tokenizer-not-use-fast参数。修改后如图1所示。 图1 修改Yi 模型3_training.sh文件 ChatGLMv3-6B 在训练开始前,针对ChatGLMv3-
需要在训练开始前,修改llm_train/AscendFactory/yi/3_training.sh文件,并添加--tokenizer-not-use-fast参数。修改后如图1所示。 图1 修改Yi 模型3_training.sh文件 ChatGLMv3-6B 在训练开始前,针对ChatGLMv3-
通过身份认证。AK/SK签名认证方式仅支持消息体大小12M以内,12M以上的请求请使用Token认证。 APP认证:在请求头部消息增加一个参数即可完成认证,认证方式简单,永久有效。 ModelArts支持通过以下几种方式调用API访问在线服务(案例中均以HTTPS请求为例): 通
打通VPC 在打通VPC弹框中,打开“打通VPC”开关,在下拉框中选择可用的VPC和子网。 需要打通的对端网络不能和当前网段重叠。 图2 打通VPC参数选择 如果没有VPC可选,可以单击右侧的“创建虚拟私有云”,跳转到网络控制台,申请创建虚拟私有云。 如果没有子网可选,可以单击右侧的“创建
模型。 评估模型 训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。经常不能一次性获得一个满意的模型,需要反复的调整算法参数、数据,不断评估训练生成的模型。 一些常用的指标,如准确率、召回率、AUC等,能帮助您有效的评估,最终获得一个满意的模型。 部署模型 模型
0.5 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表及权重文件地址 支持模型 Template 支持模型参数量 权重文件获取地址 Llama3 llama3 llama3-8b https://huggingface.co/meta-llama/
动态shape 是否需要支持动态shape。 例如:需要动态Shape,需要动态Shape的模型有ResNet-50、YOLOv5。 - 参数类型(FP32/FP16) FP32还是FP16混合,判断精度调优难度。 例如:ResNet-50、YOLOv5模型使用FP16。BertLarge使用FP32。
设置告警规则(以NPU掉卡为例)。 规则类型:选择“指标告警规则”。 配置方式:选择“PromQL”。 设置告警规则详情。 默认规则:选择“自定义”。 命令行输入框(排除值为2的为无效数据): sum(nt_npg{type="NT_NPU_CARD_LOSE"} !=2) by (cluster_name
tandard专属资源池的计算资源。使用前,您需要先购买创建一个专属资源池。 公共资源池:公共资源池提供公共的大规模计算集群,根据用户作业参数分配使用,资源按作业隔离。 用户下发训练作业、部署模型、使用开发环境实例等,均可以使用ModelArts提供的公共资源池完成,按照使用量计
支持将使用容器镜像导入的模型和其他训练产生的模型发布至AI Gallery。 在“资产版本”填写新的版本号。 发布HiLens技能 表1 发布HiLens技能的参数说明 参数 说明 资产分类 选择“模型”。 发布方式 发布方式选择“创建新资产”。 资产标题 在AI Gallery显示的资产名称,建议按照您的实现目的设置。
# 精度评测 ├── config ├── config.json # 请求的参数,根据实际启动的服务来调整 ├── mmlu_subject_mapping.json # 数据集配置