检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
rompt配置,直接接受用户原始输入,并输出大模型执行后的原始输出,该组件的配置详见配置大模型组件。 用户可根据需求配置所需组件,并连接其他组件。除开始、结束和大模型组件外,平台提供了意图识别、提问器、插件、判断、代码组件,配置详见配置意图识别组件、配置提问器组件、配置插件组件、配置判断组件、配置代码组件。
横向比较提示词效果 将设置为候选的提示词横向比对,获取提示词的差异性和效果。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent 开发 > 提示词工程 > 提示词开发”。 在工程任务列表页面,找到所需要操作的工程任务,单击该工程任务右侧“撰写”。
进入应用详情页面。 图1 填写应用名称与应用描述 图2 创建应用 配置Prompt builder,详见配置Prompt builder。 配置插件,详见配置插件。 配置知识,详见配置知识。 配置对话,详见配置开场白和推荐问题。 调试Agent应用,详见调试Agent应用。 A
手工编排Agent应用 手工编排Agent应用流程 配置Prompt builder 配置插件 配置知识 配置开场白和推荐问题 调试Agent应用 父主题: 开发盘古大模型Agent应用
能。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
调测特性,基于Snt9B3部署,可支持1个推理单元部署推理。 Pangu-AI4S-Ocean_Swell_24h-20241030 此版本在Studio上首次发布,用于海浪预测,支持在线推理、能力调测特性,基于Snt9B3部署,可支持1个推理单元部署推理。 Pangu-AI4S
如何对盘古大模型的安全性展开评估和防护 盘古大模型的安全性主要从以下方面考虑: 数据安全和隐私保护:大模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、
可以查看到调用链中该组件的输入和输出。 此外,平台支持配置构建应用所需的NLP大模型参数。 单击应用右上角的,打开大模型参数配置页面。配置参数见表1,完成大模型参数配置。 表1 大模型参数配置 参数 说明 模型选择 选择要使用的LLM,不同的模型效果存在差异。 模式选择 用于配置大模型的输出多样性。 包含取值:
应。 使用该鉴权方式前,请确保有已部署的大模型。 获取APPCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP
级模型版本,支持8K训练,4K/32K推理。基于Snt9B3卡可单卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理和能力调测特性。单卡部署4K模型版本支持64并发,单卡部署32K模型版本支持32并发。 Pangu-NLP-N1-Chat-128K-20241030
此版本是2024年10月发布的十亿级模型版本,支持128K序列长度在线推理。基于Snt9B3卡支持8卡推理部署,此模型版本仅支持预置模型版本,不支持SFT后模型版本做128K序列长度推理部署。 Pangu-NLP-N2-Base-20241030 - 此版本是2024年10月发布的百亿级
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP大模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio大模型开发平台,进入所需操作空间。
方便统一管理与操作。用户可以查看模型的所有历史版本及操作记录,从而追踪模型的演变过程。同时,平台支持一系列便捷操作,包括模型训练、压缩和部署,帮助用户简化模型开发及应用流程。这些功能有助于用户高效管理模型生命周期,提高资产管理效率。 管理模型资产 登录ModelArts Studio大模型开发平台,进入所需空间。
提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面: 模型优化与部署:将训练好的大模型部署到生产环境中,可能通过云服务或本地服务器进行推理服务。此时要考虑到模型的响应时间和并发能力。 模型监控与迭代:部署后的模型需要持续监控其性能,
为什么微调后的盘古大模型的回答中会出现乱码 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果中出现了其他语言、异常符号、乱码等字符。这种情况可能是由于以下几个原因导致的,建议您依次排查: 数据质量:请检查训练数据中是否存在包含异常字符的数据,可以通过规则进行清洗。
为什么微调后的盘古大模型的回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可
左侧导航窗格中,选择“用户”页签,单击右上方的“创建用户”。 图6 创建用户 配置用户基本信息,单击“下一步”。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 将用户添加至创建用户组步骤中创建的用户组,单击“创建用户”,完成IAM用户的创建。
准备工作 申请试用盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
附录 状态码 错误码 获取项目ID 获取模型部署ID
开发盘古NLP大模型 使用数据工程构建NLP大模型数据集 训练NLP大模型 压缩NLP大模型 部署NLP大模型 调用NLP大模型