检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开源模型怎么部署? 开源模型的部署需要购买推理单元,具体操作如下: 在AI原生应用引擎的左侧导航栏选择“资产中心”,选择“大模型”页签。 将鼠标光标移至待部署的开源模型卡片上,单击“部署”。 在“创建部署服务”页面,可以查看到需要几个推理单元,单击“购买推理单元资源”。 图1 创建部署服务
新建模型失败 问题描述 新建数据模型时,提示保存失败。 处理方法 检查数据模型度量数据的“聚合类型”函数设置是否合理,比如“聚合类型”设置为求和“sum”函数,这种情况会导致数据建模保存报错。 父主题: 运营中心
将已有模型部署为模型服务 模型需要部署成功后才可正式提供模型服务。部署成功后,可以对模型服务进行模型调测,并支持在创建Agent时使用或通过模型调用接口调用。 本文介绍如何将微调后的模型或部分平台资产中心的模型部署为模型服务。 前提条件 已购买推理单元资源,具体购买方法请参见购买AI原生应用引擎包年包月资源。
AI原生应用引擎训练好后的模型如何获取? 使用模型微调训练好模型后的新模型只能通过模型部署(创建模型服务)上线,无法下载至本地使用。 父主题: AI原生应用引擎
模型调用 调用文本对话模型服务 调用文本向量化模型服务 父主题: API
平台有没有预置模型? 平台预置的开源模型 开源模型Qwen系列、deepseek-coder系列等 请参考将已有模型部署为模型服务进行部署,部署后即可进行调测/体验、调用。 开源模型chatglm3-6b 平台提供了对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为
思考模型和问答模型的区别 思考模型:用于任务规划和选择组件,主要用于工作流、知识库、工具的调用,以及入参的识别传递等。 问答模型:主要用于问答及总结。 父主题: AI原生应用引擎
小。在深度学习中,微调用于改进预训练模型的性能。 2 生成模型服务 将已有模型部署为模型服务 接入模型服务 支持通过API接入模型服务,同时支持将平台预置模型进行微调后,部署为模型服务,模型服务可以在创建Agent时使用或通过模型调用接口调用。 3 调测模型 通过调测模型,可检验
请参见模型API接入接口规范。 创建接入模型服务 在AI原生应用引擎的左侧导航栏选择“模型中心 > 我的模型服务”,单击“接入模型服务”。 在“创建接入模型服务”页面,参照表1配置模型信息。 表1 模型信息参数说明 参数名称 参数说明 模型名称 填写的模型名称必须为该模型的模型I
参数解释: 模型服务调用唯一id字段。平台定义了4种模型服务: 1.平台预置模型服务 登录AI原生应用引擎,在左侧导航栏选择”资产中心“,选择“大模型”页签,单击模型卡片进入模型详情页面,查看模型服务调用ID。 2.租户部署模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 >
生成模型服务 将已有模型部署为模型服务 接入模型服务 创建路由策略用于提供模型服务 父主题: 管理模型
数据集是模型微调的基础,首先需要创建用于模型训练的数据集。 创建模型微调流水线 通过模型微调任务进行模型训练,微调任务结束后,将生成改进后的新模型。 部署模型 模型部署是通过为基座模型(即原模型)和微调后的新模型创建用于预测的模型服务的过程实现。 测试模型调优效果 在线测试微调后的模型(输入问题发起请求获取数据分析结
部署包 部署包就是ansible-playbook,作为业务虚拟机部署的脚本使用。 图1 部署包结构 其中package.json里面的内容为playbook。 父主题: 打包规范
体验”,进入模型调测页面。 在“模型调测”页面,可调测文本对话类型模型、文本生图类型模型、图像理解类型模型、语音转文本类型模型、文本向量化类型模型、文本转语言类型模型以及文本排序类型模型。 调测文本对话类型模型,具体操作如下: 在“模型类型”下选择“文本对话”并配置表1所示参数。
管理模型 模型使用指引 基于微调数据集进行模型微调 生成模型服务 调测/体验模型 评测模型 查看模型调用记录 收藏平台资产中心的模型 模型API接入接口规范 如何对平台接入的第三方模型服务设置鉴权
发布微调后的模型 微调任务执行完成后,可以将微调后的模型部署为模型服务,模型部署后才能进行模型调测以及在创建Agent时调用。 在模型微调流水线任务列表中,单击操作列的“发布”,当任务状态显示为“已发布”,表示模型部署完成。如果部署失败,任务状态显示为“发布失败”,您可以检查配置后重新发布。
任务描述 评测任务的描述信息。 选择模型 选择待评测的模型,最多可选择3个模型,支持以下模型: 我的模型API(我部署的、我接入的) 预置模型API 模型服务商API 单击“模型参数配置”,配置如下参数: 输出最大token数:表示模型输出的最大token数。 温度:较高的数
查看模型调用记录 通过查看模型的调用记录,可以获取模型调用方式、用时及调用时间等信息。 查看模型调用记录 在AI原生应用引擎的左侧导航栏选择“模型中心 > 模型调用记录”。 在“模型调用记录”页面,通过筛选调用方式、日期、状态,或输入模型名称可快速查看模型调用记录信息,如模型调用
查看模型调用统计 模型调用统计页面展示当前租户所在的根部门以及租户下二级子部门的模型调用情况。 前提条件 需要具备AI原生应用引擎租户运营管理员权限,权限申请操作请参见AppStage组织成员申请权限。 查看模型调用统计 在AI原生应用引擎的左侧导航栏选择“运营看板 > 模型调用统计”。
收藏平台资产中心的模型 在AI原生应用引擎的左侧导航栏选择“资产中心”。 在资产中心页面,选择“大模型”页签。 将鼠标光标移至模型卡片上,单击卡片右上角。 单击模型卡片右上角的,可以取消收藏。 收藏成功后,您可以在“模型中心 > 我的模型服务”页面“我收藏的”页签下,查看收藏结果,可以