正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
tar包存储原始的图片,单个tar包的大小不得超过500MB,图片描述JSONL文件只需一份。 指令微调数据 tar包存储原始的图片,单个tar包的大小不得超过500MB,图片描述JSONL文件只需一份。 图片数据仅支持jpg格式,图片大小不得低于5kb,图片最小边不得低于200px,长边:短边比例不得大于3:1。
练和预测需要使用特殊的Prompt,需要注意保持一致。 中控模块:盘古-NLP-N1-基础功能模型 说明:该模块需要实现意图识别分类的功能。当输入意图识别模块的是政务问题时,控制下游调用检索模块;当输入不需要调用检索的非政务问题时,不调用检索,直接模型回答问题。实现方法为通过微调获得一个具有二分类能力的模型。
数据量很少,可以微调吗? 更多 技术专题 技术、观点、课程专题呈现 云图说 通过云图说,带您了解华为云 OCR基础课程 介绍文字识别服务的产品、技术指导和使用指南 OCR系列介绍 文字识别服务在计算机视觉的重要性、基本技术和最新进展 智能客服 您好!我是有问必答知识渊博的的智能问答机器人,有问题欢迎随时求助哦!
移除文本中的图标和标注信息。 参考文献过滤 移除文本中参考文献的信息。 数据去重 去重 移除文本中重复内容。 数据安全 数据脱敏 识别并对文本中电话号码、邮箱、身份证等信息进行脱敏。 敏感词过滤 识别并过滤文本中包含的涉黄、涉暴、涉政等敏感词。 通用清洗 正则替换 基于给定的正则表达式,进行文本替换。 正则过滤
部署为在线服务 模型训练完成后,即模型处于“已完成”状态时,可以启动模型的部署操作。 基于盘古大模型打造的专业大模型包括BI专业大模型与单场景大模型支持模型推理,但不支持模型训练。 部署为在线服务 登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“部署”。
场景介绍 在金融场景中,客户日常业务依赖大量报表数据来支持精细化运营,但手工定制开发往往耗费大量人力。因此,希望借助大模型消除语义歧义性,识别用户查询意图,并直接生成支持下游操作的结构化JSON信息。大模型的NL2JSON能力可以从自然语言输入抽取关键信息并转换为JSON格式输出
训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、审计和数据主权保护等机制。在训练和推理过程中,通过数据脱敏、隐私计算等技术手段识别并保护敏感数据,有效防止隐私泄露,保障个人隐私数据安全。 内容安全:通过预训练和强化学习价值观提示(prompt),构建正向的意识形态。通
提示词工程 在撰写提示词区域输入提示词文本,可以插入若干个变量,通过占位符{{ }}标识,单击“确认”按钮,平台会自动识别插入的变量。 图2 撰写提示词 图3 确认提示词内容 识别的变量展示在变量定义区域,可以编辑变量名称便于理解。 图4 查看提示词变量 变量定义区域展示的是整个工程任务下
行深度分析和理解。它能够精准识别用户的意图和需求,即使是复杂或模糊的查询,也能提供准确的响应。这种对话问答方式提高了知识获取效率,使智能客服系统更加人性化和有温度。 此外,盘古大模型还能够根据用户的行为和反馈不断学习和优化,进一步提升服务能力。它能识别用户的情绪和语气,调整回答的
调用边缘模型 调用边缘模型的步骤与使用“在线部署”调用模型的步骤相同,具体步骤请参考使用API调用模型。 父主题: 部署为边缘服务
逻辑判断等能力,来理解和回应用户的需求。 例如,需要构建一个企业助理应用,该应用需要具备预定会议室、创建在线文档和查询报销信息等功能。在构建此应用时,需要将预定会议室与创建在线文档等功能的API接口定义为一系列的工具,并通过AI助手,将这些工具与大模型进行绑定。当用户向AI助手提
计算。 例如,在英文中,有些组合单词会根据语义拆分,如overweight会被设计为2个token:“over”、“weight”。在中文中,有些汉字会根据语义被整合,如“等于”、“王者荣耀”。 在盘古大模型中,以N1系列模型为例,盘古1token≈0.75个英文单词,1token≈1
图1 创建知识库 选择知识库类型后,单击“创建”进入知识库设置页面,创建知识库。 当选择“自定义知识库”时,需要设置名称、英文名称、描述信息。注意英文名称和描述将影响模型检索效果,不可随意填写,需按照知识库中文档的实际内容或知识库目进行填写。设置完成后单击“立即创建”进入知识
使用API调用模型 用户可以通过API调用盘古大模型服务提供的基模型以及用户训练后的模型。训练后的模型需使用“在线部署”,才可以使用本章节提供的方法进行调用。本章节分别介绍使用Postman调用API和多语言(Java/Python/Go)调用API的方法,仅供测试使用。 前提条件
a: int, b: int) -> int: return a + b @Tool说明: name。工具的标识,建议为英文且与实际工具含义匹配,在同一个Agent中唯一。 description。工具的描述,建议为中文,尽可能的简短描述工具。 principl
调用盘古大模型API 用户可以通过API调用盘古大模型服务的基模型以及用户训练后的模型。训练后的模型只有在使用“在线部署”功能时,才可以使用本章节提供的方法进行调用。本章节将介绍如何使用Postman调用API,仅供测试使用。 前提条件 使用API调用模型前,请先完成盘古大模型服务订购和开通操作。
为至关重要。不同模型在预训练、微调、模型评估、模型压缩和在线推理等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是各个模型支持的具体操作: 表1 模型支持的操作 模型 预训练 微调 模型评估 模型压缩 在线推理 盘古-NLP-N1-基础功能模型-8K - √ √
部署盘古大模型 部署为在线服务 部署为边缘服务
使用“能力调测”调用模型 能力调测通过图形化问答界面,提供了快速访问盘古大模型能力的入口。用户可以通过能力调测调用基模型与训练后的模型。 训练后的模型需要“在线部署”且状态为“运行中”时,才可以使用本章节提供的方法进行调测。 文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的
布进行采样或计算。不同系列模型在读取中文和英文内容时,字符长度转换为token长度的转换比如下。以N1为例,盘古模型1token≈0.75个英文单词,1token≈1.5汉字。 表3 token比 模型规格 token比(token/英文单词) token比(token/汉字) N1系列模型