检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
购买周期计费,适用于可预估资源使用周期的场景。 按需计费模式:按需付费是后付费方式,可以随时开通/关闭对应资源,支持秒级计费,系统会根据云服务器的实际使用情况每小时出账单,并从账户余额里扣款。 父主题: 计费FAQ
Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
调用工作流 工作流试运行成功后,可以使用API调用该工作流。 获取调用路径 工作流的调用路径获取步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“Agent开发”,跳转至Agent开发平台。 在“工作台 > 工作流”页面,单击所需工作流的“
典型问题 在构建和运行多语言文本翻译工作流时,可能会遇到的常见典型问题如下: 问题一:文本翻译插件运行失败,报错信息如图1。 图1 文本翻译插件运行失败 可能原因:调用文本翻译API的Token错误或失效。 解决方法:参考创建多语言文本翻译插件,重新获取Token并进行试运行。 问题
Agent开发平台介绍 Agent开发平台简介 Agent开发平台是基于NLP大模型,致力打造智能时代集开发、调测和运行为一体的AI应用平台。无论开发者是否拥有大模型应用的编程经验,都可以通过Agent平台快速创建各种类型的智能体。Agent开发平台旨在帮助开发者高效低成本的构建
欠费说明 在使用云服务时,如果账户的可用额度低于待结算账单金额,即被判定为账户欠费。欠费可能会影响云服务资源的正常运行,因此需要及时充值。预付费模式购买后不涉及欠费。 服务按时长计费的,当余额不足以支付当前费用时,账户将被判定为欠费。由于盘古NLP大模型不涉及物理实体资源,因此无
户的安全责任在于对使用的IaaS、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮
下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建科学计算大模型部署任务后,可以查看模型的部署状态。 当状态显示为“运行中”时,表示模型已成功部署。此过程可能需要较长时间,请耐心等待。
如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建CV大模型部署任务后,可以查看模型的部署状态。 当状态显示为“运行中”时,表示模型已成功部署。此过程可能需要较长时间,请耐心等待。
如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建预测大模型部署任务后,可以查看模型的部署状态。 当状态显示为“运行中”时,表示模型已成功部署。此过程可能需要较长时间,请耐心等待。
管理NLP大模型评测任务 管理评测任务 在评测任务列表中,任务创建者可以对任务进行克隆(复制评测任务)、启动(重启评测任务)和删除操作。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型评测”,可进行如下操作:
登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服务”页签,单击状态为“运行中”的模型名称,在“详情”页签,可获取模型调用路径,如图1。 图1
登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服务”页签,单击状态为“运行中”的模型名称,在“详情”页签,可获取模型调用路径,如图1。 图1
为可能发生的干旱提供预警,使农业部门能够及时采取措施,如推广节水技术或调整种植计划。 代码助手 在软件开发领域,编程语言的多样性和复杂性给程序员带来了巨大的挑战。盘古NLP大模型为程序员提供了强大的代码助手,显著提升了研发效率。 盘古大模型能够根据用户给定的题目,快速生成高质量的
步骤2:试运行多语言文本翻译工作流 完成工作流编排后,需要对该工作流进行试运行,以查看工作流效果。工作流试运行步骤如下: 配置文本翻译插件的Token。 单击右上角“试运行”,在“插件配置”中单击“添加参数”,填写X-Auth-Token和Token值,单击“开始运行”。 其中,
如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建专业大模型部署任务后,可以查看模型的部署状态。 当状态显示为“运行中”时,表示模型已成功部署。此过程可能需要较长时间,请耐心等待。
下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建NLP大模型部署任务后,可以查看模型的部署状态。 当状态显示为“运行中”时,表示模型已成功部署。此过程可能需要较长时间,请耐心等待。
骤。 图2 选择加工模板 清洗步骤编排完成后,单击右下角“启动清洗”,将启动清洗任务。 当数据清洗任务运行成功后,状态将从“运行中”变为“运行成功”,表示数据已经完成清洗。 在完成数据清洗后,如果无需使用数据标注功能,可直接在“数据清洗”页面单击操作列“生成”,生成加工数据集。 加工后的数据集可在“数据工程
图2 选择加工模板 清洗步骤编排完成后,单击右下角“启动清洗”,将启动清洗任务。 当数据清洗任务运行成功后,状态将从“运行中”变为“运行成功”,表示数据已经完成清洗。 在完成数据清洗后,在“数据清洗”页面单击操作列“生成”,生成加工数据集。 加工后的数据集可在“数据工程 > 数据加工
结果。 如图1,当用户输入翻译类问题时,“意图识别”节点对用户的意图分类为“文本翻译”,此时工作流将运行“提问器”节点分支,并依次运行后序节点,最终输出翻译后的内容。 图1 试运行工作流-1 其他意图:用户其他的请求(除翻译请求外)将执行大模型节点分支,并根据用户的提问进行回答。