检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
详细评估 后续操作 针对当前版本的模型,经过“整体评估”和“详细评估”后,如果根据业务需求,模型还需继续优化,请单击“上一步”,回到“模型训练”步骤,详细操作指导请见训练模型。 如果模型已达到业务需求,请单击“发布部署”,进入“服务部署”步骤,详情请见部署服务。 父主题: 多语种文本分类工作流
部署 资源准备 创建云服务器 安装前配置 安装SAP NetWeaver
归档模型 模型训练完成后,支持归档模型。操作步骤如下所示。 单击界面右上角的“归档”图标,界面下方新增“归档”代码框。 配置新增的cell代码框右侧配置参数。 参数说明如下所示: 模型名:归档模型的名称。以字母开头,可由数字、大小写字母或中划线组成。示例:Learnware。 模型版本:归档模型的版本。格式为“xx
业记录。模型训练页面展示了历史作业的执行情况、模型的评估指标和生成时间。模型的评估指标是使用训练数据集产生的。 单击“查看参数”可以查看该模型训练时指定的机器学习作业参数;逻辑回归作业可以单击“查看中间结果”实时查看每一次迭代的评估指标。 图12 模型训练参数 进行模型评估。在历
模型实例 模型实例表位于平台【模型管理】模块,是二级子功能。提供平台用户对数字模型实例配置、管理、维护的功能。 模型实例基于基础模型新建实例对象运行时体现对象实例的具体特征属性。 添加实例 添加模型事件,模型的衍生模型和模型的实例会继承该事件。 操作步骤:在左侧导航栏单击【模型管
在左侧的导航栏选择“应用业务模型ABM > 模型地图”。 在搜索栏中输入需要查询的资产关键字,选择查询资产的类型,支持资产目录、数据标准,技术实例,也可根据最近热词进行搜索。 模型地图中支持进行标注配置和检索配置,帮助用户更高效的检索到所需资产,具体配置操作参考配置模型地图。 父主题: 应用业务模型使用指导
完成模型配置。 模型级别:可选择“初始模型”和“迭代模型”。“初始模型”为Octopus平台提供的内置模型,“迭代模型”是用户二次微调后的模型。 输入模型:选择需要进行微调的模型和版本。初始模型提供的内置模型如下: 表1 Octopus平台提供的内置模型 模型名称 说明 hw_model_3d_detection
detail 否 String 模型描述。 endpoint 否 String 模型endpoint。 extend_config 否 ModelExtendConfig object 模型的自定义配置,json格式。 alias 否 String 昇腾模型场景请求模型需要的name。 表4
"maxQueueDelayMicroseconds" : 5000 } } } 父主题: DeepSeek模型基于ModelArts Lite Server适配MindIE推理部署指导
等待3秒后,刷新应用界面,可看到部署的自定义应用的实例状态为“运行中”,表明该应用容器已运行起来。 部署后应用状态为部署中,等待一段时间后单击刷新,可以看到应用为运行中。 查看应用在边缘运行状态 输入命令docker ps 可以看到插件应用已经在边缘运行了。 部署应用后还需要配置数据流转规则,以使您的应用能够接收和发送数据
查看在线服务详情 查看在线服务的事件 管理在线服务生命周期 修改在线服务配置 在云监控平台查看在线服务性能指标 集成在线服务API至生产环境中应用 设置在线服务故障自动重启 父主题: 使用ModelArts Standard部署模型并推理预测
NLP大模型训练流程与选择建议 NLP大模型训练流程介绍 NLP大模型的训练分为两个关键阶段:预训练和微调。 预训练阶段:在这一阶段,模型通过学习大规模通用数据集来掌握语言的基本模式和语义。这一过程为模型提供了处理各种语言任务的基础,如阅读理解、文本生成和情感分析,但它还未能针对特定任务进行优化。
选择当前资源类型为主机集群的环境,作为部署对象。 选择软件包 选择制品仓库中需要部署的软件包。 下载到主机的部署目录 软件包下载到目标主机的路径。 控制选项 配置是否启用该操作。 失败后继续运行:当前步骤部署失败后,应用是否继续部署后续的步骤。 使用sudo权限执行:配置是否使用sudo权限部署该步骤。 表2
如待作废的接口模型已部署至运行态中,作废后需要重新发布和部署应用,才会同步删除运行态对应的接口模型数据。 前提条件 已登录应用设计态。 操作步骤 在左侧导航栏中,选择“数据模型管理 > 接口模型”,进入接口模型页面。 找到需要作废的接口模型,单击。 您也可以进入待作废的接口模型详情页面,单击“作废”。
训练模型 特征和算法确定后,可以开始训练模型。 训练模型 单击“模型选择”左下方的“训练模型”。 新增“训练模型”内容,如图1所示。 图1 训练模型 单击“训练模型”代码框左侧的图标,进行模型训练。 模型训练完成后,界面下方展示模型的评估效果。 第一列内容的含义如下所示: 0:标注为0的所有样本。可以理解为标签。
准备模型训练镜像 ModelArts平台提供了Tensorflow,PyTorch,MindSpore等常用深度学习任务的基础镜像,镜像里已经安装好运行任务所需软件。当基础镜像里的软件无法满足您的程序运行需求时,您还可以基于这些基础镜像制作一个新的镜像并进行训练。 训练作业的预置框架介绍
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
操作步骤:在左侧导航栏单击【模型管理】模块展开子级菜单导航,选择【模型管理>基础模型】,进入基础模型管理界面,在模型结构区域单击更多操作项面板,单击“编辑”按钮,弹出模型编辑面板,根据实际情况编辑模型信息,单击“确定”按钮,编辑模型成功,如下图: 图2 模型管理 图3 编辑 删除模型 模型存在衍生模型或衍生实例,则不支持“删除”操作