检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
OBS终端节点的获取方法如下: 获取已授予OBS桶读写权限的账号。对账号授予桶的读写权限的方法,请参见对其他账号授予桶的读写权限。 登录控制台,选择“存储 > 对象存储服务 OBS”,进入OBS控制台。 鼠标移动到指定桶所在行,在弹出的基本信息中,“Endpoint”参数值即为OBS终端节点。
PromptTemplate 负责提示语模板的构建和初始化等。 4 KnowledgeRetriever 提供了知识库检索的能力,可以检索开发者的知识库,提取相关的信息。 5 ApplicationCenter 提供了开发者调用部署在平台的应用的能力。 父主题: AI原生应用引擎SDK
在AppStage控制台左侧导航栏选择“AI原生应用引擎”,在AI原生应用引擎详情页面的“我的资源”区域的资源列表中,单击需要停止计费的资源“操作”列的“退订”。 在“退订资源”对话框中,确认要退订的资源,单击“一键输入”自动在输入框填入“退订资源”。 单击“确定”,即可退订该按需计费资源。
e 中间件 转发策略配置的管理,包括监听下的转发策略、健康检查、后端服务器及动态路由。 WiseCloud::LoadBalancer::GrayConfig 一方服务 灰度服务配置的管理,包括灰度规则的管理及灰度阶段切换。 资源间的关系 图1 资源间的关系 所有的资源必须归属于同一个服务下,才能绑定。
6 我的待办/我的申请 选择“我的待办”或“我的申请”页签,可查看我名下的待办或申请的相关事项。 说明: 当“我的待办”或“我的申请”超过4条后,将在“我的待办”或“我的申请”区域右上角显示“更多”按钮,单击“更多”可进入“我的待办”/“我的申请”界面查看全部信息。 7 帮助文档 快速跳转至高频使用的功能详细指导文档。
进入AppStage的AI原生应用引擎、开发中心、运维中心、运营中心的快捷入口。用户需要申请不同中心的角色,从而具备对应角色的操作权限,可申请的角色以及对应的权限范围请参见权限管理。 5 我的待办/我的申请 选择“我的待办”或“我的申请”页签,可查看我名下的待办或申请的相关事项。 说明:
使用代码托管内置的仓库模板创建代码管理的仓库。 下载代码 基于Git的代码托管服务,支持将仓库文件下载到本地进行文件的操作。 安装插件 开发人员可下载所需的开发工具,如WiseStudio 插件、Nuwa 插件、Wushan 插件后进行安装。 开发代码 开发代码的详细指导请参见《开发指南》。
TRUNCATE_MODE(如果分片的token长度超过向量化模型的token数,则知识库向量化失败)。 SMART_MODE(如果分片的token长度超过向量化模型的token数,则自动对超长部分进行截断处理)。 DEFAULT_MODE(如果分片的token长度超过向量化模型的token数,则大
参数解释: Agent的唯一id。 取值范围: 只由英文字母及数字组成,长度为32个字符。 user_id String 参数解释: 本轮对话的用户唯一身份标识。 取值范围: 在发起对话请求时自定义的user_id。 AI引擎用户的真实user_id,orgid的不可逆加密值。 conversation_id
种类型的Agent。 LLM模式下,将准备好的模型服务(必选)、工具、工作流及知识库等编排成Agent。 工作流模式下,用户与工作流进行对话,因此必须添加工作流,不支持添加模型、工具、知识库等配置。 2 体验Agent 以对话的形式,对创建的Agent或平台资产中心预置的AI应用
平台有没有预置模型? 平台预置的开源模型chatglm3-6b 平台预置开源模型chatglm3-6b,并提供对应的模型服务API,但是该模型能力有限,只能作为问答模型,不能作为思考模型。首次使用该模型服务API需要订购免费的“ChatGLM3-6B大模型服务API在线调用”资源
模型微调是指调整大型语言模型的参数以适应特定任务的过程,适用于需要个性化定制模型或者在特定任务上追求更高性能表现的场景。这是通过在与任务相关的微调数据集上训练模型来实现的,所需的微调量取决于任务的复杂性和数据集的大小。在深度学习中,微调用于改进预训练模型的性能。 支持将平台资产中心的部分模型作为
judge历史的原始详情中出现judge_data_size(in):0提示。 可能原因 judge没有获取到数据。 解决方法 检查告警原始表汇聚任务配置的汇聚提前时间和judge任务的汇聚提前时间,保证对应时间点能够获取到数据即可。 操作步骤 找到告警原始表对应的汇聚任务(MP
查看注册到Cloud Map的中间件 中间件是指业务服务实现自身功能需要用到的技术组件,随业务服务独立部署和运维。 中间件统一展示在中间件列表中,中间件列表只提供数据的查询和展示,不提供对数据的增、删、改操作。所有的增删改操作都在各中间件的管理台上操作,中间件管理台上的操作,会自动同步到Cloud
查看注册到Cloud Map的中间件 中间件是指业务服务实现自身功能需要用到的技术组件,随业务服务独立部署和运维。 中间件统一展示在中间件列表中,中间件列表只提供数据的查询和展示,不提供对数据的增、删、改操作。所有的增删改操作都在各中间件的管理台上操作,中间件管理台上的操作,会自动同步到Cloud
除、隐藏、展示等操作。 选择的屏幕模板中的卡片如果已升级,您想要使用升级后的卡片,必须在“屏幕卡片”页签下单击“卡片一键升级”或在对应的卡片右侧单击。 配置完成后,单击“完成”。 配置完成后的屏幕,会展示在“我的屏幕”。 在“我的屏幕”界面,选择创建的屏幕,单击“编辑”,可以再次返回屏幕构建页面对相关配置进行修改。
开源模型怎么部署? 开源模型的部署需要购买推理单元,具体操作如下: 在AI原生应用引擎的左侧导航栏选择“资产中心”,选择“大模型”页签。 将鼠标光标移至待部署的开源模型卡片上,单击“部署”。 在“创建部署服务”页面,可以查看到需要几个推理单元,单击“购买推理单元资源”。 图1 创建部署服务
主机管理服务(VMS)”。 选择左侧导航栏的“云服务器管理 > 未纳管主机”。 在“未纳管主机”页面,单击“主机刷新”。 选择待刷新未纳管主机的主机类型、所属的公有云账号和所在Region后,单击“确定”。 如果选择不到已有资源的Region,需要将鼠标悬停在右上角的账号,在下拉列表选择“服务环
以变量标识符“双大括号{{}}”为例,提示语中的变量内容则填入双大括号{{}}中。 引用模板提示语内容: 单击输入框右侧的“引用模板”选择我创建的、我收藏的或平台预置的提示语模板。 推理模型 将提示语应用于我创建的、平台预置的或第三方模型服务中,预览推理结果。 选择推理模型后,可配置推理模型的相关参数,如表3所示。
AI原生应用引擎面向开发者提供了一套搭建原生应用的Python SDK,包含了模型调用,知识获取,工具调用等功能。开发者可以使用SDK调用AI原生应用引擎的各种能力,快速构建大模型应用。 用户可以通过AI原生应用引擎平台下载SDK,同时对SDK完整性进行校验以确保获取的SDK为原始文件。本文介绍如何