检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调用盘古NLP大模型API实现文本对话 场景描述 此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。 准备工作 调用盘古
应用提示词实现智能客服系统的意图匹配 应用场景说明:智能客服系统中,大模型将客户问题匹配至语义相同的FAQ问题标题,并返回标题内容,系统根据匹配标题调出该FAQ问答对,来解答客户疑问。 父主题: 提示词应用示例
使用盘古预置NLP大模型进行文本对话 场景描述 此示例演示了如何使用盘古能力调测功能与盘古NLP大模型进行对话问答。您将学习如何通过调试模型超参数,实现智能化对话问答功能。 准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 >
创建盘古NLP大模型SFT任务 场景描述 此示例演示了如何从头创建SFT(有监督微调)训练任务。通过该示例,您将了解以下内容: 如何将数据导入平台并进行数据加工、标注和评估操作。 如何创建SFT训练任务并配置训练参数,以提升文本理解和生成的质量。 如何执行模型的压缩和部署操作。 准备工作 请提
如何调整推理参数,使盘古大模型效果最优 推理参数(解码参数)是一组用于控制模型生成预测结果的参数,其可以用于控制模型生成结果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考:
建一个IAM用户,获取IAM用户的Token。 获取Token方法: Token可通过调用“获取Token”接口获取,接口调用示例如下。 伪码 POST https://iam.cn-southwest-2.myhuaweicloud.com/v3/auth/tokens Content-Type:
应用提示词生成面试题目 应用场景说明:将面试者的简历信息输入给大模型,基于简历生成面试问题,用于辅助人工面试或实现自动化面试。 父主题: 提示词应用示例
答案,展示在前端界面。 在该框架中,query改写模块、中控模块和问答模块由大模型具体实现,因此涉及到大模型的训练、优化、部署与调用等流程。pipeline编排流程可以基于python代码实现,也可以人工模拟每一步的执行情况。检索模块可以使用Elastic Search来搭建,也
Pangu-NLP-N1-Chat-32K-20241030 32K 盘古NLP大模型,此版本是2024年10月发布的十亿级模型版本,支持8K序列长度训练,4K、32K序列长度推理。基于Snt9B3卡可单卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理和能力调测特性。
创建盘古多语言文本翻译工作流流程 操作步骤 说明 步骤1:创建并配置插件 本样例场景实现文本翻译插件的创建与配置。 步骤2:创建并配置工作流 本样例场景实现多语言文本翻译工作流的创建与配置。 步骤3:试运行工作流 本样例场景实现工作流的试运行。 步骤1:创建并配置插件 登录ModelArts S
在盘古大模型中,以N1系列模型为例,盘古1token≈0.75个英文单词,1token≈1.5汉字。不同模型的具体情况详见表1。 表1 token比 模型规格 token比(token/英文单词) token比(token/汉字) N1系列模型 0.75 1.5 N2系列模型 0.88 1
洋生态、全球海浪高度。 全球海洋要素:实现预测全球范围内海面高度, 温度、盐度、海流速度纬向分量和海流速度经向分量变量。 区域海洋要素:实现预测特定区域范围内海面高度, 温度、盐度、海流速度纬向分量和海流速度经向分量变量。 全球海洋生态:实现预测全球范围内的叶绿素浓度、硅藻浓度等8种生态变量。
Studio大模型开发平台提供的“成员管理”功能实现子用户精细的权限管理。 创建用户组 使用主账号登录IAM服务控制台。 左侧导航窗格中,选择“用户组”页签,单击右上方的“创建用户组”。 图1 创建用户组 在“创建用户组”界面,输入“用户组名称”,单击“确定”,创建用户组。 返回用户组列表,单击操作列的“授权”。 图2
个工作空间都是完全独立的,确保了工作空间内的资产不受其他空间的影响,从而保障数据和资源的隔离性与安全性。用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色
请求发送以后,您会收到响应,包含状态码、响应消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于Pangu服务接口,如果调用后返回状态码为“200”,则表示请求成功。 响应消息头 对应请求消息头,响应同样也有消息头,如“Content-Type”。
如何对盘古大模型的安全性展开评估和防护? 训练智能客服系统大模型需考虑哪些方面? 如何调整训练参数,使盘古大模型效果最优? 如何判断盘古大模型训练状态是否正常? 为什么微调后的盘古大模型总是重复相同的回答? 盘古大模型是否可以自定义人设? 更多 大模型概念类 如何对盘古大模型的安全性展开评估和防护? 训练智能客服系统大模型需考虑哪些方面?
与其他服务的关系 与对象存储服务的关系 盘古大模型使用对象存储服务(Object Storage Service,简称OBS)存储数据和模型,实现安全、高可靠和低成本的存储需求。 与ModelArts服务的关系 盘古大模型使用ModelArts服务进行算法训练部署,帮助用户快速创建和部署模型。
功能总览 功能总览 全部 数据工程工具链 模型开发工具链 应用开发工具链 能力调测 应用百宝箱 数据工程工具链 数据是大模型训练的基础,为大模型提供了必要的知识和信息。数据工程工具链作为盘古大模型服务的重要组成部分,具备数据获取、清洗、配比和管理等功能。 该工具链能够高效收集和处
创建工作流 支持开发者基于Agent平台创建工作流。创建工作流时,工作流默认包含了开始、结束和大模型组件。开发者可基于该工作流,添加更多的组件,实现业务流程的编排。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent开发”,将跳转至Agent开发平台。
配置服务访问授权 配置OBS访问授权 盘古大模型服务使用对象存储服务(Object Storage Service,简称OBS)进行数据存储,实现安全、高可靠和低成本的存储需求。因此,为了能够顺利进行存储数据、训练模型等操作,需要用户配置访问OBS服务的权限。 登录ModelArts