检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 父主题: 安全
目标任务依赖垂域背景知识:通用模型学习到的知识大部分都是来自互联网上的开源数据,如果目标任务本身属于某个领域(如金融、政务、法律、医疗、工业等),需要依赖很深的领域背景知识,那么通用模型可能无法满足这些要求,需要在该领域的数据集上进行微调,以增强模型的泛化能力。 回答的风格或格式有特殊要求
return "in use"; case "A03": return "booked"; default: return "available";
合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当降低这些参数的值,降低过拟合的风险。 数据质量:请检查训练数据的质量,若训练样本出现了大量重复数据,或者数据多样性很差,则会加剧该现象。 父主题: 典型训练问题和优化策略
例如,在图2中有10条评估用例,当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。通过比较“预期结果”与“生成结果”的差异可以判断提示词效果。
盘古大模型套件在订购时分为模型资产和模型推理资产。 模型资产即盘古系列大模型,用户可以订购盘古基模型、功能模型、专业大模型。 基模型:基模型经过大规模数据的预训练,能够学习并理解多种复杂特征和模式。这些模型可作为各种任务的基础,包括但不限于阅读理解、文本生成和情感分析等,但不具备对话问答能力。
temperature 否 Float 用于控制生成文本的多样性和创造力。 取值接近0表示最低的随机性,1表示最高的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,如0.9,适合完成创造性的任务。 temperature参数可以影响
选择基模型/基础功能模型 盘古-NLP-N2-基础功能模型 准备训练数据 本场景不涉及自监督训练,无需准备自监督数据。 微调数据来源: 来源一:真实业务场景数据。 来源二:基于大模型的数据泛化。基于目标场任务的分析,通过人工标注部分数据样例,然后利用大模型(如盘古提供的任意规格的基础功能模型
"2024-01-31"} 用户反馈:公司改为金财互联数据服务有限公司,nsrsbh为91440101MA59JN5456 - 步骤3: 思考:好的,我将更新"company_name"参数为"金财互联数据服务有限公司",并添加"nsrsbh"参数为"9144010
的变量值信息。 输入变量值后预览区域会自动组装展示提示词。用户也可以直接选择已创建的变量集填入变量值信息,变量集是一个excel文件,每行数据是需要输入的变量值信息,可以通过“导入”功能进行上传。 图1 预览提示词效果 单击“查看效果”按钮,输出模型回复结果,用户可以根据预览效果调整提示词的文本和变量。
是众多自然语言处理下游任务的基础模型。学术界和工业界的实践证明,随着模型参数规模的增加,自然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以根据业务需求开发出诸如营销文案生成、阅读理解、智能对话和代码生成等应用功能。
盘古-NLP-BI专业大模型-4K 4096 基于NLP-N2-基础功能模型运用特定专业代码数据训练后的BI专业大模型,具有4K上下文能力。 盘古-NLP-BI专业大模型-32K 32768 基于NLP-N2-基础功能模型运用特定专业代码数据训练后的BI专业大模型,具有32K上下文能力。 盘古-NLP-N2单场景模型-4K
List<PanguChatChunk> panguChatChunks = new ArrayList<>(); Future<HttpResponse> future = httpclient.execute(HttpAsyncMethods.create(httpPost),
return_type=int) name、description、principle、input_desc、output_desc和args_schema的定义与说明与静态工具相同。 return_type。为可选参数,如果func为未指
return "x亿人民币"; case "y公司": return "y亿人民币"; case "z公司": return "z亿人民币";
temperature 否 Float 用于控制生成文本的多样性和创造力。 取值接近0表示最低的随机性,1表示最高的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,如0.9,适合完成创造性的任务。 temperature参数可以影响
LLMs.of("pangu") 基础问答:基础的模型文本问答(temperature等参数采用模型默认的设置)。 llm_api.ask("你是谁?").answer 自定义参数问答:自定义设置如temperature等参数,获得对应的效果。 from pangukitsappdev.api
:param agent_session: AgentSession :return: bool类型结果 """ return False 定义一个监听器 通过实现AgentListener定义一个监听器: from pangukitsappdev
if current: result.append(separator.join(current)) return result # 加载文档,支持word和txt文本文件 def load_file(name): docs = []
builder() .llmParamConfig(LLMParamConfig.builder().temperature(0.01).build()) .llmModuleConfig( LLMModuleConfig