检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
大模型微调需要的数据有要求吗? AI原生应用引擎用于大模型微调的数据集任务领域为“自然语言处理”、数据集格式为“对话文本”。 文件内容要求为标准json数组,例如: [{"instruction": "aaa", "input": "aaa", "output": "aaa"},{"instruction":
Agent问答的时候没有回答 思考模型没有配置鉴权,或者鉴权失效了,可以通过模型调测功能测试思考模型是否正常,具体操作请参见调测/体验模型。 父主题: AI原生应用引擎
发布Agent的时候提示套餐校验失败 发布Agent前需要订购智能应用运行时引擎资源,请参靠购买AI原生应用引擎,按照需要购买实例个数以及时长。 父主题: AI原生应用引擎
如何获取Agent发布时所需的API Key? 填写AI原生应用引擎平台的API Key,生成方式请参见新增平台API Key。 父主题: AI原生应用引擎
查看Agent调用统计 Agent调用统计页面展示当前租户所在的根部门以及租户下二级子部门的Agent调用情况。 前提条件 需要具备AI原生应用引擎租户运营管理员权限,权限申请操作请参见AppStage组织成员申请权限。 查看模型调用统计 在AI原生应用引擎的左侧导航栏选择“运营看板 > Agent调用统计”。
SSL_do_handshake() failed 问题现象 配置同步失败,日志详细信息提示如下: "SSL_do_handshake() failed" 解决方法 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“微服务开发 > 负载均衡”。 选择左侧导航栏的“证书管理”。 在证
on}替换成实际所使用的Rainbow SDK版本。 如果将SDK放到外部maven仓中,则只需要添加rainbow-proxy依赖。 如果采用本地依赖的方式引入SDK,即手动将本地下载的SDK jar包引入到工程的lib目录下,还需要添加间接依赖:rainbow-core-dr
delete:用于删除服务器上的资源,通常使用URL参数指定要删除的资源。 put:用于更新服务器上的资源,通常将更新的数据放在请求体中。 patch:请求服务器更新资源的部分内容。当资源不存在的时候,patch可能会去创建一个新的资源。 API请求体架构 请求头 HTTP请求消息的组成部分之一
绑定root通道失败怎么办? 问题描述 绑定root通道时出现{"cause":"no root key","detail":"not found host:10.32.37.127 rootSshRecord.","success":false}报错。 处理方法 检查是否禁用了root
AI原生应用引擎中预置了哪些提示语? AI原生应用引擎预置了多款提示语模板,包含智能问答,智能写作,生活助手,智能分析,智能文档,生活助手等提示语类型,每个提示语类型下面都有对应类型相关提示语,如指标计算方法,问答场景选择,总结大纲,买家评价生成器等提示语。 父主题: AI原生应用引擎
AI原生应用引擎SDK API 版本变更记录 SDK概述 快速开始 应用示例 modules模块 错误处理 日志处理
现。模型调优的目标是提高模型在特定任务或数据集上的性能。通过模型调优,用户可以让模型更好地适应业务场景,从而提高模型在实际应用中的效果。 本文以AI原生应用引擎预置的baichuan-13B为基座模型,通过微调提升模型的数据分析和指标计算能力,帮助您快速掌握使用AI原生应用引擎完成模型调优并测试效果。
通过运营看板查看AI原生应用引擎资产总览 查看资产总览 查看模型调用统计 查看Agent调用统计
查看模型调用统计 模型调用统计页面展示当前租户所在的根部门以及租户下二级子部门的模型调用情况。 前提条件 需要具备AI原生应用引擎租户运营管理员权限,权限申请操作请参见AppStage组织成员申请权限。 查看模型调用统计 在AI原生应用引擎的左侧导航栏选择“运营看板 > 模型调用统计”。
收藏平台资产中心的模型 支持收藏平台资产中心提供的模型,包括预置的模型和平台接入的第三方模型。将自己关注的或后续计划使用的模型收藏后,可便捷地在收藏列表中进行查看。 前提条件 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。 收藏平台资产中心的模型
对创建的提示语进行优化 提示语优化是针对提示语进行结构、排版、内容等维度进行优化和改进,将大模型的输入限定在了一个特定的范围之中,进而更好地控制模型的输出。通过提供清晰和具体的指令,引导模型输出并生成高相关、高准确且高质量的文本对答内容,属于自然语言处理领域突破的重要技术,可以提
在“我接入的”页签下的服务列表中,单击“操作”列的“取消发布”。 模型调测 在“我接入的”页签的服务列表中,单击“操作”列“模型调测”。 参照调测模型的步骤,完成模型测试。 修改模型服务 在“我接入的”页签下的服务列表中,单击“操作”列的“更多 > 修改”。 删除模型服务 在“我接入的”页签下的服务列表中,单击“操作”列的“更多
我接入的模型需要满足什么要求才能在创建Agent时作为思考模型? 模型本身支持FunctionCall。 接入的模型需要符合OpenAI接口规范且具体请参见模型API接入接口规范。 注意:流式返回的工具调用信息必须在一条消息内,不能分拆返回。 接入模型服务时 ,在模型服务描述中填
按照标题切分的时候,分段长度是什么意思? 如果当前分片长度小于该值,则会和其他分片进行合并直到接近该值,所以如果不想合并,请将分段长度设置为1。 父主题: AI原生应用引擎
语言模型的回答,逐个字词的快速返回模式,不需等待大语言模型生成完成。 输出最大token数 表示模型输出的最大长度。 温度 较高的数值会使输出更加随机,而较低的数值会使其更加集中和确定。建议该参数和“多样性”只设置1个。 多样性 影响输出文本的多样性,取值越大,生成文本的多样性越强。建议该参数和“温度”只设置1个。