检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
> 我的模型服务”,选择“我部署的”页签,在模型服务列表中复制模型服务调用ID。 3.租户接入模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务”,选择“我接入的”页签,在模型服务列表中复制模型服务调用ID。 约束限制: 不涉及。 取值范围: 不涉及。 默认取值:
模型调测时,无法选择模型服务商API是什么原因? 对模型服务商API调测前,需要先设置鉴权,具体操作请参见如何对模型供应商提供的模型服务设置鉴权。 父主题: AI原生应用引擎
标记)的关联偏差值。 像-1和1这样的适度值将以较小的程度改变选择标记的概率。 使用logit_bias参数时,偏差被添加到模型生成的logits之前进行抽样。 max_tokens 否 Integer 返回体允许的最大token数。 n 否 Integer 返回体中包含的cho
> 我的模型服务”,选择“我部署的”页签,在模型服务列表中复制模型服务调用ID。 3.租户接入模型服务 登录AI原生应用引擎,在左侧导航栏选择“模型中心 > 我的模型服务”,选择“我接入的”页签,在模型服务列表中复制模型服务调用ID。 约束限制: 不涉及。 取值范围: 不涉及。 默认取值:
基于微调数据集进行模型微调 创建微调数据集 收藏预置微调数据集 对微调数据集进行数据标注 创建模型微调任务 父主题: 管理模型
大模型微调需要的数据有要求吗? AI原生应用引擎用于大模型微调的数据集任务领域为“自然语言处理”、数据集格式为“对话文本”。 文件内容要求为标准json数组,例如: [{"instruction": "aaa", "input": "aaa", "output": "aaa"},{"instruction":
AI原生应用引擎训练好后的模型如何获取? 使用模型微调训练好模型后的新模型只能通过模型部署(创建模型服务)上线,无法下载至本地使用。 父主题: AI原生应用引擎
平台有没有预置模型? 平台预置的开源模型chatglm3-6b 平台预置开源模型chatglm3-6b,并提供对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型。首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源
创建微调数据集 对于需要个性化定制模型或者在特定任务上追求更高性能表现的场景,往往需要对大语言模型进行模型微调以适应特定任务。微调数据集是模型微调的基础,通过在微调数据集上进行训练从而获得改进后的新模型。 平台在资产中心预置了部分微调数据集,同时也支持用户根据需求自定义创建微调数据集。本文介绍如何创建微调数据集。
一站式创建Agent时如何取消选择默认模型,更换为其他模型 单击已选择的模型名称,在弹出框中单击模型名称后面的,取消选择当前模型,在下拉框中重新勾选其他模型即可。 父主题: AI原生应用引擎
单击标注右侧“删除”,可删除标注。 对于标注中的output,还可执行以下操作: 单击output所在行右侧的“自动生成”,由平台内置的模型自动生成当前行的output信息。 单击output所在行右侧的“重新生成”,由平台内置的模型重新生成当前行的output信息。 单击output所在行右侧的“删除”,可删除当前行的output信息。
布数据模型。 下线数据模型 当指定数据模型为“已发布”状态时,单击操作列“下线”,可以下线数据模型。 修改数据模型 当指定数据模型为“草稿”或“已下线”状态时,单击“修改”,可以修改数据模型信息。 删除数据模型 当指定数据模型为“草稿”状态时,单击“删除”,可以删除数据模型。 说明:
数据模型修改或者删除失败 问题描述 修改/删除数据模型时,提示修改/删除失败。 处理方法 检查数据模型是否已经被指标使用。 父主题: 运营中心
上,单击卡片右上角。 单击工具卡片右上角的,可以取消收藏。 收藏成功后,您可以在“知识中心 > 微调数据集”页面“数据集列表”页签的“我收藏的”子页签下,查看收藏结果。 单击数据集列表操作列的“取消收藏”,可以取消收藏。 单击数据集列表中的数据集名称,可以便捷地查看数据集详情,包括基本信息、调度信息及版本记录。
我创建的微调数据集会被其他用户调用去训练他们的大模型吗? 用户个人创建的数据集是属于个人账号下的专属数据,未经本人许可不会被其他人员查看到,且不会被其他用户在大模型训练时调用。 父主题: AI原生应用引擎
per 无模型阈值上限 0-100000000 默认值100000000 无模型时配置的阈值上限(固定阈值线)。 对于新增的接口,因为没有历史数据,无法训练出该接口的模型,此时可以配置合适的值用来监控此类接口。 no_model_threshold_lower 无模型阈值下限 0-100000000
工作流的返回是json格式,但是大模型会进行总结,如何以json格式直接输出? 创建Agent配置工作流时,支持选择模式,选择为“总结模式”时,大模型会对工作流的输出进行总结;选择为“精确模式”时大模型不会总结,直接返回工作流的输出,如图1所示,具体介绍请参见创建并发布Agent。
以变量标识符“双大括号{{}}”为例,提示语中的变量内容则填入双大括号{{}}中。 引用模板提示语内容: 单击输入框右侧的“引用模板”选择我创建的、我收藏的或平台预置的提示语模板。 推理模型 将提示语应用于我创建的、平台预置的或第三方模型服务中,预览推理结果。 选择推理模型后,可配置推理模型的相关参数,如表3所示。
Agent问答的时候报错“很抱歉,我的系统似乎遇到了一些故障问题,暂时无法为您提供服务” 问题现象 图1 Agent报错 解决方法 检查创建Agent时选择的模型是否为模型服务商API,使用模型服务商API时,需要配置模型服务鉴权,新开的租户没有配置模型鉴权,具体操作请参见如何对模型供应商提供的模型服务设置鉴权。
模型微调任务一直在等待中是什么原因? 模型微调任务一直在“等待中”状态,表示当前平台资源规格紧张,任务需要进行排队,请耐心等待。 父主题: AI原生应用引擎