检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
计费说明 计费项 关于盘古大模型的详细费用信息,敬请咨询华为云售前咨询,我们将为您提供专业的解答和支持。 盘古NLP大模型分为模型订阅服务、训练服务和推理服务三个收费项。 模型订阅服务和推理服务按调用时长计费,时长精确到秒。 训练服务按实际消耗的Tokens数量计费,话单周期内的Tokens计算精确到1K
I加速卡与日志信息,单击“确定”。 如果节点有npu设备需选择“AI加速卡 > Ascend”,并选择加速卡类型。 如果节点没有加速卡,则选择“AI加速卡 > 不使用”。 单击“立即下载”,下载设备证书和Agent固件,并将设备证书与Agent固件分别重命名为license.tgz、hilens-agent
在数据配置中,选择训练模型所需的数据集。 图2 数据配置 完成训练任务基本信息。设置模型的名称、描述以及订阅提醒。 设置订阅提醒后,模型训练和部署过程产生的事件可以通过手机或邮箱发送给用户。 图3 基本信息 单击“立即创建”,创建自监督训练任务。 自监督微调训练参数说明 不同模型训练参数默认值存在一定差异,请以前端页面展示的默认值为准。
边缘服务部署流程 边缘部署是指将模型部署到用户的边缘设备上。这些设备通常是用户自行采购的服务器,通过ModelArts服务纳管为边缘资源池。然后利用盘古大模型服务将算法部署到这些边缘资源池中。 图1 边缘资源池创建步骤 当前仅支持预置模型(盘古-NLP-N2-基础功能模型)和基于
什么是盘古大模型 盘古大模型致力于深耕行业,打造多领域的行业大模型和能力集。其核心能力依托于盘古大模型套件平台,该平台是华为云推出的集数据管理、模型训练和模型部署为一体的一站式大模型开发与应用平台。平台提供了包括盘古大模型在内的多种大模型服务,支持大模型的定制开发,并提供覆盖全生命周期的大模型工具链。
"name": "username", //IAM用户名 "password": "********", //华为云账号密码 "domain": { "name":
将“核采样”参数调小,如改为0.1,保持其他参数不变,单击“重新生成”,再单击“重新生成”,可以看到模型前后两次回复内容的多样性降低。 图3 “核采样”参数调小后生成结果1 图4 “核采样”参数调小后生成结果2 将“核采样”参数调大,如改为1,保持其他参数不变,单击“重新生成”,再单击
将“核采样”参数调小,如改为0.1,保持其他参数不变,单击“重新生成”,再单击“重新生成”,可以看到模型前后两次回复内容的多样性降低。 图3 “核采样”参数调小后生成结果1 图4 “核采样”参数调小后生成结果2 将“核采样”参数调大,如改为1,保持其他参数不变,单击“重新生成”,再单击
在撰写提示词区域单击“设为候选”按钮,将当前撰写的提示词设置为候选提示词。 图2 设为候选 每个工程任务下候选提示词上限9个,达到上限9个时需要删除其他候选提示词才能继续添加。 父主题: 横向比较提示词效果
行结果: 用户: 帮我定个今天下午3点到8点的A02会议室 助手: A02会议室在今天下午3点到8点已经被预订了。是否需要为您预订其他时间段或者其他会议室? - 步骤1: 思考:好的,我需要先查询A02会议室今天下午3点到8点的预订状态。使用meeting_room_status_query工具进行查询。
"name": "username", //IAM用户名 "password": "********", //华为云账号密码 "domain": { "name":
无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Agent-L0.C模型,或其衍生模型,使用通用模型或其他模型无法运行。如上例所示,当前的module-version需要配置为“N2_agent_v2”,模型的相关配置需要改为Pangu-NLP-N2-Agent-L0
systemPrompt(customSystemPrompt).build()) .build(); 优化工具描述 工具依赖的信息,可以通过其他工具获取时,增加关联关系提示: @AgentTool(toolId = "query_reimbursement_limit", toolDesc
据。 图2 从训练数据拆分 完成训练任务基本信息。设置模型的名称、描述以及订阅提醒。 设置订阅提醒后,模型训练和部署过程产生的事件可以通过手机或邮箱发送给用户。 图3 基本信息 单击“立即创建”,创建有监督微调训练任务。 有监督微调(全量微调)训练参数说明 不同模型训练参数默认值
llm_config = LLMConfig() llm_config.llm_module_config.system_prompt = "你是华为开发的AI助手" # 盘古LLM pangu_llm = LLMs.of("pangu", llm_config) answer = pangu_llm
防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Default模型,或其衍生模型,使用通用模型或其他模型无法运行。当前的moduleVersion需要配置为“N2_agent_v2”,如上例所示,因此模型的url要配置为Pangu-NLP-N2-Default模型的地址。
”功能查看算子对数据的清洗效果。算子功能的详细介绍请参见清洗算子功能介绍。 图3 执行节点 用户配置算子后推荐增加、显示备注信息,用于团队其他成员快速了解算子编排。 图4 增加并显示备注信息 对于搭建满意的清洗流程,可以“发布模板”,后续重复使用。发布后的模板,可以在“模板”页签
Tenant 20230728 base 2.9.15 公网IP:100.85.220.207 root密码: CPU架构:aarch64(登录设备,执行arch命令查看) worker bms-panguXXXX CPU:鲲鹏(4*48Core@2.6GHz) 内存:24*64GB DDR4
"name": "username", //IAM用户名 "password": "********", //华为云账号密码 "domain": { "name":
您可以通过简单的提示词获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入或示例等。您可以通过这些元素来更好地指导模型,并因此获得更好的结果。提示词主要包含以下要素: 指令:想要模型执行