检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
申请开通服务 您可按照需要选择是否开启内容审核。 开启内容审核后,可以有效拦截大模型输入、输出的有害信息,保障模型调用安全。 NLP模型在流式输出时,同样支持内容审核。特别是模型生成超长内容时,通过实时审核模型生成的内容片段,可以有效降低首token的审核时延,同时确保用户看到的内容是经过严格审核的。
生成的内容必须语言通顺; 10.生成的内容中不能出现“带货口播”等这一类字样; 输出格式:口播如下: xxx 方法二:产品介绍可以来源于真实的产品信息,也可以通过in-context-learning方式生成。示例如下: 大模型输入: 你是一个广告策划,你的工作是为不同的产品写宣传文案。
要求写邮件、做摘要总结、生成观点见解等。 多轮对话:基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 图1 服务管理 图2 申请开通服务 您可按照需要选择是否开启内容审核。 开启内容审核后,可以有效拦截大模型输入输出的有害信息,保障模型调用安全,推荐进行开启。 图3 大模型内容审核
记忆系统:通过构建记忆模块去管理历史任务和策略,并让Agent结合记忆模块中相关的信息以获取最优化任务解决策略。 任务执行:能通过工具与外界发生联系并产生影响,工具可以自定义,包括查询信息、调用服务、网络搜索、文件管理、调用云服务等,通过Agent构建一个让LLM按照特定的规则迭代运行的Prompt,直到
在左侧导航栏中选择“服务管理”,选择所需要查看的服务,单击操作列“查看详情”。 图1 查看详情 在服务详情页面,在“概览”页签,可以查看调用量的概览信息,在“监控”页签,可以查看下详细的调用总量、调用成功量与调用失败量。 图2 查看调用量概览信息 图3 查看调用量详情 通过“运营面板”功能查看调用量
基本概念 训练相关概念 表1 训练相关概念说明 概念名 说明 Token 令牌(Token)是指模型处理和生成文本的基本单位。Token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成Token,然后根据模型的概率分布进行采样或者计算。 例如,在英文中,有些组合单词会根
什么是盘古大模型 盘古大模型致力于深耕行业,打造多领域的行业大模型和能力集。其核心能力依托于盘古大模型套件平台,该平台是华为云推出的集数据管理、模型训练和模型部署为一体的一站式大模型开发与应用平台。平台提供了包括盘古大模型在内的多种大模型服务,支持大模型的定制开发,并提供覆盖全生命周期的大模型工具链。
模型刚开始训练时,如果选择一个较大的学习率,可能导致模型训练不稳定。选择使用warmup热身的方式,可以使开始训练的热身阶段内学习率较小,模型可以慢慢趋于稳定,待模型相对稳定后再逐渐提升至预设的最大学习率进行训练。使用热身可以使得模型收敛速度更快,效果更佳。 模型保存步数 1000 1000~2000中10的倍数
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要
模型刚开始训练时,如果选择一个较大的学习率,可能导致模型训练不稳定。选择使用warmup热身的方式,可以使开始训练的热身阶段内学习率较小,模型可以慢慢趋于稳定,待模型相对稳定后再逐渐提升至预设的最大学习率进行训练。使用热身可以使得模型收敛速度更快,效果更佳。 当前盘古-NLP-N4-基模型支持自监督训练。
控制生成文本多样性和质量。 最大口令限制 用于控制聊天回复的长度和质量。一般来说,设置较大的参数值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的参数值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容,请避免该值小于10,否则可能生成空值或
"name": "username", //IAM用户名 "password": "********", //华为云账号密码 "domain": { "name":
控制生成文本多样性和质量。 最大口令限制 用于控制聊天回复的长度和质量。一般来说,设置较大的参数值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的参数值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容,请避免该值小于10,否则可能生成空值或
将愈加显著。 当然,如果您的可用数据很少,也可以采取一些方法来扩充您的数据,从而满足微调要求,比如: 数据增强:在传统机器学习中,可以通过简单的重复上采样方式来扩充数据,但该方法不适用于大模型微调的场景,这将导致模型的过拟合。因此可以通过一些规则来扩充数据,比如:同义词替换、语法
给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。它可以用来做文本生成、自动写作、代码补全等任务。 NLP-多轮对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 父主题: 使用前必读
大模型是否可以自定义人设 大模型支持设置人设,在用户调用对话问答(chat/completions)API时,可以将“role”参数设置为system,让模型按预设的人设风格回答问题。例如,以下示例要求模型以幼儿园老师的风格回答问题。 { "messages": [
购买盘古大模型套件 在购买盘古大模型套件之前,您可以通过“能力调测”功能体验平台预置的模型,请参见体验盘古预置模型能力。 盘古大模型套件在订购时分为模型资产和模型推理资产。 模型资产即盘古系列大模型,用户可以订购盘古基模型、功能模型、专业大模型。 基模型:基模型经过大规模数据的预
的Prompt可以保持固定。注意,这里Prompt保持固定和保证数据多样性,二者并不冲突。 当然,如果您的数据质量较差,也可以采取一些方法来提升数据质量,比如: 数据清洗:您可以通过一些简单基础的规则逻辑来过滤异常数据,比如,去空、去重、字符串过滤等。同时,您也可以采用PPL(困
盘古大模型套件使用流程 表1 使用流程说明 流程 子流程 说明 操作指导 准备工作 注册华为账号并开通华为云 在使用华为云服务之前您需要注册华为账号并开通华为云。 注册华为账号并开通华为云 购买盘古大模型套件 购买盘古系列大模型及推理资产。 购买盘古大模型套件 开通盘古大模型服务 开通大模型的文本补全、多轮对话能力。
据样例供您参考: 原始对话示例: A:你是谁? B:您好,我是盘古大模型。 A:你可以做什么? B:我可以做很多事情,比如xxxx A:你可以讲个笑话吗? B:当然可以啦,以下是xxxx A:可以把这个笑话改成xxxx B:好的,以下是修改后的xxxx 拼接后的微调数据格式示例: