检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
件筛选出需要的数据,导出成新的数据集。用户可以通过任务历史查看数据导出的历史记录。本章主要介绍将ModelArts数据集中的数据为新数据集的方式,新导出的数据集可直接在ModelArts控制台数据集列表中显示。 目前只有“图像分类”、“物体检测”、“图像分割”类型的数据集支持导出功能。
/saved_dir_for_output/plog 保存训练过程中记录的程序堆栈信息日志 PLOG 文件。示例中,默认保存在“saved_dir_for_output/plog”文件夹下。如果用户需要修改,可添加并自定义该变量。 CONVERT_MG2HF TRUE 训练完成的
集;使用自定义数据集时,请更新代码目录下data/dataset_info.json文件;请务必在dataset_info.json文件中添加数据集描述;具体示例如下。 上传自定义数据到指定目录 将下载的原始数据存放在{work_dir}/llm_train/LLaMAFacto
配置仪表盘查看指标数据 Grafana中可以自定义配置各种视图的仪表盘,ModelArts也提供了针对集群的配置模板。本章节通过使用ModelArts提供的模板查看指标和创建Dashboards查看指标的方式,说明如何进行仪表盘配置。Grafana的更多使用请参考Grafana官方文档。
具体操作请参考创建Notebook实例。 创建完成后Notebook的状态为“运行中”,单击“操作列”的“打开”,自动进入JupyterLab界面,打开Terminal。 在Notebook中制作自定义镜像 首先配置鉴权信息,指定profile,根据提示输入账号、用户名及密码。鉴权更多信息请查看配置登录信息。
置同时被重置节点的最大个数。 驱动版本 可以在下拉框中指定重置节点的驱动版本。 图1 重置节点 单击“操作记录”可查看当前资源池重置节点的操作记录。重置中节点状态为“重置中”,重置成功后,节点状态变为“可用”)。重置节点操作不会收取费用。 重置节点将影响相关业务的运行,重置时本地
于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。 在“我的服务”列表中,当模型部署服务的“状态”变成“运行中”时,表示模型部署完成。 步骤四:在模型体验使用模型服务 在ModelArts Studio左侧导航栏中,选择“模型部署”进入服务列表。 在“
集;使用自定义数据集时,请更新代码目录下data/dataset_info.json文件;请务必在dataset_info.json文件中添加数据集描述;具体示例如下。 上传自定义数据到指定目录 将下载的原始数据存放在{work_dir}/llm_train/LLaMAFacto
集;使用自定义数据集时,请更新代码目录下data/dataset_info.json文件;请务必在dataset_info.json文件中添加数据集描述;具体示例如下。 上传自定义数据到指定目录 将下载的原始数据存放在{work_dir}/llm_train/LLaMAFacto
gpt格式的微调数据集;使用自定义数据集时,请更新dataset_info.json文件;请务必在dataset_info.json文件中添加数据集描述;具体示例如下。 上传自定义数据到指定目录 将下载的原始数据存放在{work_dir}/llm_train/AscendFactory/data目录下。具体步骤如下:
集;使用自定义数据集时,请更新代码目录下data/dataset_info.json文件;请务必在dataset_info.json文件中添加数据集描述;具体示例如下。 上传自定义数据到指定目录 将下载的原始数据存放在{work_dir}/llm_train/LLaMAFacto
--device=/dev/davinci7:挂载NPU设备,示例中挂载了8张卡davinci0~davinci7。 -v ${dir}:${container_work_dir} 代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的大文件系统,dir为宿主机中文件目录,${container_wor
csv。 --served-model-name: 选择性添加, 选择性添加,在接口中使用的模型名;如果没有配置,则默认为tokenizer。 脚本运行完后,测试结果保存在benchmark_serving.csv中,示例如下图所示。 图2 动态benchmark测试结果(示意图)
模式直接接入到云上环境中完成迁移开发与调测,最终生成适配昇腾的推理应用。 当前支持以下两种迁移环境搭建方式: ModelArts Standard:在Notebook中,使用预置镜像进行。 ModelArts Lite DevServer:在裸金属服务器中 ,自助配置好存储、安装固件、驱动、配置网络等。
从上图报错日志判断,预测失败是模型推理代码编写有问题。 解决方法 根据日志报错提示,append方法中缺少必填参数,修改模型推理代码文件“customize_service.py”中的代码,给append方法中传入合理的参数。 如需了解更多模型推理代码编写说明,请参考模型推理代码编写说明。 父主题:
并支持对多个节点进行批量操作。 添加/编辑/删除资源标签 资源标签用于方便管理资源的计费账单。 勾选节点名称,选择节点列表上方的“添加/编辑资源标签”或“删除资源标签”,操作单个节点或批量操作节点资源标签。 查找搜索节点 在节点管理页面的搜索栏中,支持通过节点名称、IP地址、资源标签等关键字搜索节点。
并支持对多个节点进行批量操作。 添加/编辑/删除资源标签 资源标签用于方便管理资源的计费账单。 勾选节点名称,选择节点列表上方的“添加/编辑资源标签”或“删除资源标签”,操作单个节点或批量操作节点资源标签。 查找搜索节点 在节点管理页面的搜索栏中,支持通过节点名称、IP地址、资源标签等关键字搜索节点。
rving.csv中,示例如下图所示。 图2 动态benchmark测试结果(示意图) 投机推理benchmark验证 本章节介绍如何进行投机推理benchmark验证。 已经上传投机推理benchmark验证脚本到推理容器中。如果在步骤四 制作推理镜像步骤中已经上传过AscendCloud-LLM-x
的文本中各个词语的出现频率进行奖惩。取值范围[-2.0,2.0]。 length_penalty 否 1.0 Float length_penalty表示在beam search过程中,对于较长的序列,模型会给予较大的惩罚。 如果要使用length_penalty,必须添加如下三
实例规格 选择实例规格,规格中描述了服务器类型、型号等信息。 xxx 流量限制(QPS) 设置待部署模型的流量限制QPS。 3 实例数 设置服务器个数。 1 更多选项 内容审核 选择是否打开内容审核,默认启用。 开关打开(默认打开),内容审核可以阻止模型推理中的输入输出中出现不合规的内容,但可能会对接口性能产生较大影响。