检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
面试问题生成 应用场景说明:将面试者的简历信息输入给大模型,基于简历生成面试问题,用于辅助人工面试或实现自动化面试。 父主题: 写作示例
移除文本中的图标和标注信息。 参考文献过滤 移除文本中参考文献的信息。 数据去重 去重 移除文本中重复内容。 数据安全 数据脱敏 识别并对文本中电话号码、邮箱、身份证等信息进行脱敏。 敏感词过滤 识别并过滤文本中包含的涉黄、涉暴、涉政等敏感词。 通用清洗 正则替换 基于给定的正则表达式,进行文本替换。 正则过滤
于40%,表示数据质量极差,提示需要进行优化。 表3 合规度校验规则说明 校验项 说明 个人隐私 校验数据中是否存在个人隐私信息,例如,身份证号、手机号、固定电话、Email地址、护照号、车牌号、军官证、车架号、GPS地址、IP地址、MAC地址和IMEI码等。 敏感关键词 校验数据中是否存在敏感关键字,如涉政信息。
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要
例如,“结合金融领域相关知识,生成一份调研报告大纲,报告主题是区块链洞察”、“以上是某理财app用户反馈的问题,请提供解决方案。” 人设: 增加人设可以让生成的内容更符合该领域需求。 例如,“假设你是一位银行面试官,请生成10个银行面试问题。”、“假如你是一个高级文案策划,请生成10个理财产品的
当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可以增大模型回答生成的长度,避免生成异常截断。请注意,该参数值存在上限
描述任务要求。 例如,在文档问答任务中,任务本质不是生成,而是抽取任务,需要让模型“从文档中抽取出问题的答案,不能是主观的理解或解释,不能修改原文的任何符号、字词和格式”, 如果使用“请阅读上述文档,并生成以下问题答案”,“生成”一词不是很恰当,模型会引入一些外部知识。 例如,在
实现对话问答、文案生成和阅读理解等任务,并具备逻辑推理、代码生成以及插件调用等高阶能力。 NLP大模型提供了基模型和功能模型两种类型: 基模型:已经在大量数据上进行了预训练,学习并理解了各种复杂特征和模式。这些模型可以作为其他任务的基础,例如阅读理解、文本生成和情感分析等。基模型本身不具备对话问答能力。
erature来调整生成文本的倾向性,但不要同时更改这两个参数。 取值范围:(0, 1] 缺省值:N1模型为0.7、N2模型为1,N4模型为0.85 max_tokens 否 Integer 生成文本的最大token数量,单位token。 输入的文本加上生成的文本总量不能超过模型所能处理的最大长度。
考察模型逻辑 虽然模型的思考过程是个黑盒,但可以通过反问模型答案生成的逻辑或提问模型是否理解任务要求,考察模型生成的逻辑,提升模型思维过程的可解释性。 对于模型答案的反问 如果模型给出了错误的答案,可以反问模型回答的逻辑,有时可以发现错误回答的根因,并基于此修正提示词。 在反问时
单击“查看详情”,可在服务列表中申请需要开通的服务。 文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如让模型依据要求写邮件、做摘要总结、生成观点见解等。 多轮对话:基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 图1 服务管理 图2
在各类处理任务中表现出色。无论是生成文章、撰写报告,还是设计广告文案,盘古大模型都能根据输入需求灵活调整,生成符合预期的高质量内容。 推理速度快 盘古大模型采用了高效的深度学习架构和优化算法,显著提升了推理速度。在处理请求时,模型能够更快地生成结果,减少等待时间,从而提升用户体
这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以根据业务需求开发出诸如营销文案生成、阅读理解、智能对话和代码生成等应用功能。 父主题: 大模型概念类问题
文本生成:对于文本生成场景(宣传文案生成、信稿文本生成、文学创作等),通常希望生成的文本有一点的多样性,建议在保证不过于随机的基础上,增大“温度”或“核采样”的值(二者选其一调整)。若发现生成的文本过于发散,可以降低“话题重复度控制”的值,保证内容统一;反之若发现内容过于单一,甚至出现了复读机式的重复内容生成,则需要增加“话题重复度控制”的值。
书籍等语料)进行大规模无监督预训练,具备了强大的语言理解、生成、意图识别和逻辑推理能力。这使得大模型在智能问答系统中表现出色:用户输入问题后,大模型依靠其强大的意图理解能力和从大规模预训练语料及通用SFT中获得的知识,生成准确而全面的回答。然而,依赖通用大模型自身知识来回答问题,在某些垂直领域应用中会面临挑战:
可以引导大模型生成准确率更高的结果。 单样本/多样本 可以在提示词中提供示例,让模型先学习后回答,在使用这种方法时需要约束新样例不能照抄前面给的参考样例,新样例必须多样化、不能重复等,否则可能会直接嫁接前文样例的内容,也可以约束只是让它学习参考样例的xxx生成思路、xxx风格、xxx生成方法等。
撰写提示词 提示词是用来引导模型生成的一段文本。撰写的提示词应该包含任务或领域的关键信息,如主题、风格和格式等。 撰写提示词时,可以设置提示词变量,即在提示词中通过添加占位符{{ }}标识,表示一些动态的信息,让模型根据不同的情况生成不同的文本,增加模型的灵活性和适应性。例如,将
创建提示词评估数据集 批量评估提示词效果前,需要先上传提示词变量数据文件用于创建对应的评估数据集。 提示词变量是一种可以在文本生成中动态替换的占位符,用于根据不同的场景或用户输入生成不同的内容。其中,变量名称可以是任意的文字,用于描述变量的含义或作用。 提示词评估数据集约束限制 上传文件限xlsx格式。
``` %s ``` 生成的内容必须满足以下要求: 1.生成内容的字数要求为200个字左右; 2.生成的内容必须生动有趣、丰富多样; 3.生成内容的语言风格必须口语化; 4.生成的内容开头必须能足够引起观众的兴趣,比如可以采取对目标观众反问、对比等方式; 5.生成的内容结尾必须要引导观众购买;
深度语义理解与生成能力的人工智能大语言模型。可进行对话互动、回答问题、协助创作。 华为云盘古大模型,以下功能支持API调用。 表1 API清单 API 功能 NLP-文本补全 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。它可以用来做文本生成、自动写作、代码补全等任务。