检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
我接入的模型需要满足什么要求才能在创建Agent时作为思考模型? 模型本身支持FunctionCall。 接入的模型需要符合OpenAI接口规范且具体请参见模型API接入接口规范。 注意:流式返回的工具调用信息必须在一条消息内,不能分拆返回。 接入模型服务时 ,在模型服务描述中填
库的基础;微调数据集是模型微调的基础,通过在微调数据集上进行训练,您可以获得改进后的新模型以适应特定任务。 模型管理 支持通过API接入模型服务,同时支持将平台预置模型进行微调后,部署为模型服务,为检验模型的准确性及反应效果,您可以通过调测模型能力进行体验调测,确保模型能够在实际应用中正常运行。
查看模型调用统计 模型调用统计页面展示当前租户所在的根部门以及租户下二级子部门的模型调用情况。 前提条件 需要具备AI原生应用引擎租户运营管理员权限,权限申请操作请参见AppStage组织成员申请权限。 查看模型调用统计 在AI原生应用引擎的左侧导航栏选择“运营看板 > 模型调用统计”。
操作步骤 在AI原生应用引擎左侧导航栏选择“凭证管理 > 模型鉴权设置”。 在“模型供应商列表”页面,单击模型供应商卡片上“设置鉴权”,针对不同的模型服务设置相应鉴权信息。 具体鉴权信息需根据界面提示前往模型供应商官网进行申请。 父主题: 管理模型
开源模型怎么部署? 开源模型的部署需要购买推理单元,具体操作如下: 在AI原生应用引擎的左侧导航栏选择“资产中心”,选择“大模型”页签。 将鼠标光标移至待部署的开源模型卡片上,单击“部署”。 在“创建部署服务”页面,可以查看到需要几个推理单元,单击“购买推理单元资源”。 图1 创建部署服务
基于微调数据集进行模型微调 创建微调数据集 收藏预置微调数据集 对微调数据集进行数据标注 创建模型微调任务 父主题: 管理模型
模型调测时,无法选择模型服务商API是什么原因? 对模型服务商API调测前,需要先设置鉴权,具体操作请参见如何对模型供应商提供的模型服务设置鉴权。 父主题: AI原生应用引擎
一站式创建Agent时如何取消选择默认模型,更换为其他模型 单击已选择的模型名称,在弹出框中单击模型名称后面的,取消选择当前模型,在下拉框中重新勾选其他模型即可。 父主题: AI原生应用引擎
上,单击卡片右上角。 单击工具卡片右上角的,可以取消收藏。 收藏成功后,您可以在“知识中心 > 微调数据集”页面“数据集列表”页签的“我收藏的”子页签下,查看收藏结果。 单击数据集列表操作列的“取消收藏”,可以取消收藏。 单击数据集列表中的数据集名称,可以便捷地查看数据集详情,包括基本信息、调度信息及版本记录。
单击标注右侧“删除”,可删除标注。 对于标注中的output,还可执行以下操作: 单击output所在行右侧的“自动生成”,由平台内置的模型自动生成当前行的output信息。 单击output所在行右侧的“重新生成”,由平台内置的模型重新生成当前行的output信息。 单击output所在行右侧的“删除”,可删除当前行的output信息。
平台有没有预置模型? 平台预置的开源模型 开源模型Qwen系列、deepseek-coder系列等 请参考将已有模型部署为模型服务进行部署,部署后即可进行调测/体验、调用。 开源模型chatglm3-6b 平台提供了对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为
> 我的模型服务”,选择“我部署的”页签,在模型服务列表中复制模型服务调用ID。 3.租户接入模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务”,选择“我接入的”页签,在模型服务列表中复制模型服务调用ID。 约束限制: 不涉及。 取值范围: 不涉及。 默认取值:
AI原生应用引擎支持所有数据集进行数据标注吗? 进行标注的数据集必须同时满足用途为“模型训练”、任务领域为“自然语言处理”、任务子领域为“文本生成”、数据集格式为“对话文本”四个条件。 父主题: AI原生应用引擎
参照表1,修改提示语的基础配置参数。 优化提示语 在“我创建的”的提示语列表中,单击“操作”列“优化”。 参照表2,配置参数,优化提示语。 删除提示语 删除:在“我创建的”的提示语列表中,单击提示语所在行的“操作”列的“删除”。 批量删除:在“我创建的”的提示语列表中,勾选需要删除的提示语,单击“批量删除”。
新建模型失败 问题描述 新建数据模型时,提示保存失败。 处理方法 检查数据模型度量数据的“聚合类型”函数设置是否合理,比如“聚合类型”设置为求和“sum”函数,这种情况会导致数据建模保存报错。 父主题: 运营中心
模型调用 调用文本对话模型服务 调用文本向量化模型服务 父主题: API
速推进引导对话的发展,或者增加故事的复杂性和深度。大模型会基于提示语所提供的信息,生成对应的文本或者图片。 测试提示语 在AI原生应用引擎的左侧导航栏选择“资产中心”。 在资产中心页面,选择“提示语模板”页签。 将鼠标光标移至提示语模板卡片上,单击“测试”,进入模型调测页面。 在
工作流的返回是json格式,但是大模型会进行总结,如何以json格式直接输出? 创建Agent配置工作流时,支持选择模式,选择为“总结模式”时,大模型会对工作流的输出进行总结;选择为“精确模式”时大模型不会总结,直接返回工作流的输出,如图1所示,具体介绍请参见创建并发布Agent。
我的模型服务”,选择“我部署的”页签,在模型服务列表中复制模型服务调用ID。 租户接入模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务”,选择“我接入的”页签,在模型服务列表中复制模型服务调用ID。 kwargs - - 其他OpenAI Embedding参数。
模型微调任务一直在等待中是什么原因? 模型微调任务一直在“等待中”状态,表示当前平台资源规格紧张,任务需要进行排队,请耐心等待。 父主题: AI原生应用引擎