检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练智能客服系统大模型需要考虑哪些方面 根据智能客服场景,建议从以下方面考虑: 根据企业实际服务的场景和积累的数据量,评估是否需要构建行业模型,如电商、金融等。 根据每个客户的金牌客服话术,可以对对话模型进行有监督微调,进一步优化其性能。 根据每个客户的实际对话知识,如帮助文档、
数据保护技术 盘古大模型服务通过多种数据保护手段和特性,保障存储在服务中的数据安全可靠。 表1 盘古大模型的数据保护手段和特性 数据保护手段 简要说明 传输加密(HTTPS) 盘古服务使用HTTPS传输协议保证数据传输的安全性。 基于OBS提供的数据保护 基于OBS服务对用户的数
需求。例如,短视频口播场景要求文风可以引起观众兴趣、不丢失产品特点且可以引导观众购买。 微调数据清洗: 下表中列举了本场景常见的数据质量问题以及相应的清洗策略,供您参考: 表1 微调数据清洗步骤 数据问题 清洗步骤与手段 清洗前 清洗后 问题一:数据中存在超链接、异常符号等。 删除数据中的异常字符。
中展现出卓越的性能。无论是文本分类、情感分析、机器翻译,还是问答系统,模型都能以高准确率完成任务,为用户提供高质量的输出结果。 这种卓越的表现源于其先进的算法和深度学习架构。盘古大模型能够深入理解语言的内在逻辑与语义关系,因此在处理复杂语言任务时展现出更高的精准度和效率。这不仅提
度的控制。可以在盘古服务的委托中增加Pangu OBSWriteOnly、Pangu OBSReadOnly策略,控制OBS的读写权限。 表1 策略信息 策略名称 拥有细粒度权限/Action 权限描述 Pangu OBSWriteOnly obs:object:PutObjectAcl
什么是盘古大模型 盘古大模型致力于深耕行业,打造多领域的行业大模型和能力集。其核心能力依托于盘古大模型套件平台,该平台是华为云推出的集数据管理、模型训练和模型部署为一体的一站式大模型开发与应用平台。平台提供了包括盘古大模型在内的多种大模型服务,支持大模型的定制开发,并提供覆盖全生命周期的大模型工具链。
建用户组”。 图1 创建用户组 在“创建用户组”界面,输入“用户组名称”,创建用户组。 返回用户组列表,单击列表中的“授权”。 图2 用户组授权 参考表1,为用户组设置权限。 表1 授权项 授权项 说明 Agent Operator 拥有该权限的用户可以切换角色到委托方账号中,访问被授权的服务。
1(50GB)、D2(50GB)、D3(50GB),则3*50=150GB,此时用户可以控制最大的数据量,限制数据量大小,如100GB。 表1 配置比例 配置比例 数据集大小上限500GB 第一阶段 第二阶段 - 数据集 原始大小 默认值 手动修改 实际大小 D1 100GB 1
清理操作。缓存还可以支持语义匹配和查询,通过向量和相似度的计算,实现对数据的语义理解和检索。 Vector向量存储:是一种将数据转换为数学表示的方法,它可以度量数据之间的关系和相似度。向量存储可以根据不同的词向量模型进行初始化、更新、查找和清理操作。向量存储还可以支持多种相似算法
清理操作。缓存还可以支持语义匹配和查询,通过向量和相似度的计算,实现对数据的语义理解和检索。 Vector向量存储:是一种将数据转换为数学表示的方法,它可以度量数据之间的关系和相似度。向量存储可以根据不同的词向量模型进行初始化、更新、查找和清理操作。向量存储还可以支持多种相似算法
提示词进行保存和管理。 表1 功能说明 功能 说明 提示用例管理 提示用例集用于维护多组提示词变量的信息,可以用于提示词的调优、比较和评估。 支持对用例集的创建、查询、修改、删除。 提示词工程任务管理 提示词工程平台以提示词工程任务为管理维度,一个任务代表一个场景或一个调优需求,
altokens 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数
专业大模型按需推理计费仅支持OP账号使用,推理服务按实际调用的Tokens数量计费,不足1K Tokens则小数点保留至后四位计算。 计费模式 盘古大模型的计费模式见表1。 表1 计费模式表 计费项 计费模式 付费方式 计费周期 模型订阅服务 包周期计费 预付费 按照订单的购买周期结算。 按订单的购买周期计费。 推理服务
以提高训练效率。如果规模较大,那么可能需要较小的学习率和较小的批量大小,防止内存溢出。 这里提供了一些微调参数的建议值和说明,供您参考: 表1 微调参数的建议和说明 训练参数 范围 建议值 说明 训练轮数(epoch) 1~50 2/4/8/10 训练轮数是指需要完成全量训练数据
率分布进行采样或者计算。 user 否 String 用于代表用户的唯一标识符,字符串长度最大64,最小1。 temperature 否 Float 用于控制生成文本的多样性和创造力。 取值接近0表示最低的随机性,1表示最高的随机性。一般来说,temperature越低,适合完成
用户查询问题相关的上下文信息。 表3 messages 参数 是否必选 参数类型 描述 content 是 String 表示对话的内容,对话内容为文本(text)类型。 role 否 String 表示对话的角色,取值是user。 响应参数 表4 响应Body参数 参数 参数类型
和其会议ID", "principle":"请在需要查询员工已预订会议室列表时使用", "input_desc": "", "output_desc": "已预订会议室列表", "args_schema": str(pickle.dumps(None))
生成的文本内容。 index Integer 生成的文本在列表中的索引,从0开始。 ppl Double 评估指标,表示推理输出的置信度,ppl为非必传参数。 表7 message 参数 参数类型 描述 role String 角色。 content String 对话的内容。 最小长度:1
和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 NLP大模型清单 模型类别 模型 token 简介 NLP大模型 盘古-NLP-N1-基础功能模型-32K 部署可选4096、32768
为什么微调后的模型,只能回答在训练样本中学过的问题 为什么微调后的模型,输入与训练样本相似的问题,回答与训练样本完全不同 为什么微调后的模型,评估结果很好,但实际场景表现却很差 多轮问答场景,为什么微调后的效果不好 数据量满足要求,为什么微调后的效果不好 数据量和质量均满足要求,为什么微调后的效果不好 数据