检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何解决微服务引擎创建过程中处理接入地址步骤失败? 问题描述 创建引擎过程中,处理接入地址步骤失败,报错提示: {"error_code":"SVCSTG.00500404","error_message":"{"code":"VPC.0202","message":"Query
注意事项 当检验失败时返回的异常需要友好,用户能清楚知道错误原因。 校验功能最好在一个filter中实现,避免所有接口都实现一次检验。 父主题: 实现一个认证API
报错“Permissions for 'x:/xxx.pem' are too open”如何解决? 问题现象 原因分析 原因分析一:密钥文件未放在指定路径,详情请参考安全限制或VS Code文档。请参考解决方法一处理。 原因分析二:当操作系统为macOS/Linux时,可能是密
VS Code自动升级后,导致远程连接时间过长 问题现象 原因分析 由于VS Code自动升级,导致连接时需要重新下载新版vscode-server。 解决方法 禁止VS Code自动升级。单击左下角选择Settings项,搜索Update: Mode,将其设置为none。 图1
如何将Keras的.h5格式模型导入到ModelArts中 ModelArts不支持直接导入“.h5”格式的模型。您可以先将Keras的“.h5”格式转换为TensorFlow的格式,然后再导入ModelArts中。 从Keras转TensorFlow操作指导请参见其官网指导。 父主题:
对接测试 操作前需进行Jenkins对接GitLab测试,保证Jenkins通过API能够正常访问GitLab。 生成GitLab访问令牌 登录GitLab。 鼠标移动到右上角的账号名上,单击“Edit profile”。 单击“Access Tokens”,输入“Token n
手工排产 提供排产保存、一键排产、导出待排产信息、排产调整、取消排产、导出排产结果信息、查询工单排产信息功能。 排产保存:初始化的工单会变更为已排产。 一键排产: 系统自动设置待排产信息。 排产调整:修改已排产状态的工单排产信息。 取消排产:已排产状态的工单变为初始化。 前提条件
条码标签打印 支持按工单号、产品条码和标签模板打印标签,并记录打印信息。 前提条件 已登录MBM Space,且拥有该菜单栏目的操作权限。 已维护派工看板。 已维护标签模板定义。 已维护当前登录用户的所属工厂信息。 注意事项 执行打印操作前需先完成打印机设置,并确认已连接打印客户端。
产品正向追溯 支持按工单或产品追溯所使用的批次物料与序列物料记录。 前提条件 已登录MBM Space,且拥有该菜单栏目的操作权限。 已维护当前登录用户的所属工厂信息。 注意事项 工单号、产品编码、产品条码当中至少配置其中的一个参数作为查询条件。 产品正向追溯 在顶部导航栏中,选择“生产管理
角色管理 维护角色拥有的菜单栏目功能权限,管理角色权限对应的用户。 前提条件 已使用租户管理员角色登录MBM Space。 已维护栏目管理。 已维护用户管理(公有云)(MBM Space部署在公有云上)。 已维护用户管理(边缘云)(MBM Space部署在边缘云上)。 注意事项
eagle投机小模型训练 本章节提供eagle小模型自行训练的能力,客户可通过本章节,使用自己的数据进行训练eagle小模型,并使用自行训练的小模型进行eagle推理。 步骤一:安装Eagle Eagle训练适配代码存放在代码包AscendCloud-LLM-x.x.x.zip的
LoRA微调训练 前提条件 已上传训练代码、训练权重文件和数据集到SFS Turbo中。 Step1 修改训练超参配置 以llama2-13b LORA微调为例,执行脚本0_pl_lora_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。其他超参均有默认值,可以参考表1按照实际需求修改。
查看日志和性能 单击作业详情页面,则可查看训练过程中的详细信息。 图1 查看训练作业 在作业详情页的日志页签,查看最后一个节点的日志,其包含“elapsed time per iteration (ms)”数据,可换算为tokens/s/p的性能数据。 吞吐量(tokens/s/p):global
自定义AstroZero系统告警 在AstroZero环境配置中,用户可根据自身业务需求,自定义告警模板。创建告警模板后,系统会根据模板内容记录告警,并根据模板发送告警通知。 新建告警模板 账号登录AstroZero服务控制台,单击“进入首页”,进入应用开发页面。 在页面左上方单击,选择“环境管理
预训练任务 步骤1 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.907)
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.909)
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: 主流开源大模型基于DevServer适配ModelLink PyTorch NPU训练指导(6.3.908)
查看日志和性能 单击作业详情页面,则可查看训练过程中的详细信息。 图1 查看训练作业 在作业详情页的日志页签,查看最后一个节点的日志,其包含“elapsed time per iteration (ms)”数据,可换算为tokens/s/p的性能数据。 吞吐量(tokens/s/p):global
准备资源 创建专属资源池 本文档中的模型运行环境是ModelArts Standard,用户需要购买专属资源池,具体步骤请参考创建资源池。 资源规格要求: 计算规格:用户可参考表1。 硬盘空间:至少200GB。 昇腾资源规格: Ascend: 1*ascend-snt9b表示昇腾单卡。