检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
每个Token代表模型处理和生成文本的基本单位,它可以是一个单词、字符或字符的片段。模型的输入和输出都会被转换成Token,并根据模型的概率分布进行采样或计算。训练服务的费用按实际消耗的Token数量计算,即实际消耗的Token数量乘以Token的单价。为了帮助用户更好地管理和优化
/etc/hccn.conf,确保有如下回显网卡信息,则配置完成。 配置NFS网盘服务。 大模型采用镜像+模型分开的方式部署时,需要有一个节点来提供NFS网盘服务,创建部署时通过NFS挂载的方式访问模型。 父主题: 部署为边缘服务
量数据库配置。其中,ToolProvider的作用为根据工具检索的结果组装工具。 上述例子使用了一个简单的InMemoryToolProvider,InMemoryToolProvider的原理为将完整的工具存入内存,再根据工具检索的结果(tool_id)将其从内存中取出。一般来
需要模型使用某银行客服的口吻进行线上问答,此时需要使用符合该银行风格和格式的数据集进行微调,以提升模型的遵循度。 Prompt工程后,效果仍无法达到预期:当对模型做了大量的Prompt工程,加之目标任务的难度也较高,通用模型的回答可能无法达到预期,此时建议采用目标任务的数据进行微调,以提升模型回答的准确性。
开通API 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。 文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如让模型依据要求写邮件、做摘要总结、生成观点见解等。 多轮
配置2个参数。其中,ToolProvider的作用为根据工具检索的结果组装工具。 上述例子使用了一个简单的InMemoryToolProvider,InMemoryToolProvider的原理为将完整的工具存入内存,再根据工具检索的结果(toolId)将其从内存中取出。一般来说
数据工程工具链 数据是大模型训练的基础,为大模型提供了必要的知识和信息。数据工程工具链作为盘古大模型服务的重要组成部分,具备数据获取、清洗、配比和管理等功能。 该工具链能够高效收集和处理各种格式的数据,满足不同训练和评测任务的需求。通过提供自动化的质量检测和数据清洗能力,对原始数
SearchTool()); } 静态工具和动态工具的注册方式相同,通过addTool接口进行注册。 通过setMaxIterations可以设置最大迭代次数,控制Agent子规划的最大迭代步数,防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Def
userguide/clusterscheduling/dlug_scheduling_02_000001.html 父主题: 部署为边缘服务
示工程提高语言模型的安全性,也可以通过专业领域知识和外部工具赋能语言模型,增强其能力。 Prompt基本要素 您可以通过简单的提示词获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入
token_num:已训练的数据量。 step:已完成的训练步数。 batch_size:每个训练步骤中使用的样本数据量。 sequence:每个数据样本中的token数量。 数据量以token为单位。 优化器 adamw adamw 优化器参数指的是用于更新模型权重的优化算法的相关参数,可以选择adamw。
选择需要部署的模型。 推理资源 选择非限时免费的模型时显示。选择盘古大模型服务提供的在线推理资产。 部署方式 选择“在线部署”,即将算法部署至盘古大模型服务提供的资源池中。 推理资产 选择“已购资产”。 限时免费:使用免费的推理资源,仅支持部署一个实例。 已购资产:由用户购买的推理资源,实际可用推理单元由购买时的数量决定。
打分模式:当前版本打分模式仅支持基于规则,用户不可选,且暂无人工打分。基于规则打分:使用预置的相似度或准确率打分规则对比模型生成结果与真实标注的差异,从而计算模型指标。 评估数据: 选择已创建并发布的评估数据集。 基本信息: 输入任务的名称和描述。 单击“立即创建”,创建一个模型评估任务。 父主题: 评估盘古大模型
盘古推理SDK简介 推理SDK概述 盘古大模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(多轮对话)(/chat/completions)
开启内容审核后,可以有效拦截大模型输入、输出的有害信息,保障模型调用安全。 NLP模型在流式输出时,同样支持内容审核。特别是模型生成超长内容时,通过实时审核模型生成的内容片段,可以有效降低首token的审核时延,同时确保用户看到的内容是经过严格审核的。 图3 大模型内容审核 购买内容审核套餐包时,如果使用“文本补全
边缘部署是指将模型部署到用户的边缘设备上。这些设备通常是用户自行采购的服务器,通过ModelArts服务纳管为边缘资源池。然后利用盘古大模型服务将算法部署到这些边缘资源池中。 图1 边缘资源池创建步骤 当前仅支持预置模型(盘古-NLP-N2-基础功能模型)和基于N2的模型(盘古-NLP-
N2基础功能模型、N4基础功能模型、经有监督微调训练以及RLHF训练后的N2、N4模型可以通过模型压缩技术在保持相同QPS目标的情况下,降低推理时的显存占用。 采用INT8的压缩方式,INT8量化可以显著减小模型的存储大小与降低功耗,并提高计算速度。 模型经过量化压缩后,不支持评估操作,但可以进行部署操作。
阈值:指工具召回的相关性得分的阈值。阈值越高,召回工具的数量越少,但对召回工具的准确性要求更高。 多轮改写模型:对用户的问题进行多次改写,以增加召回内容的多样性。 检索工具数量:指在处理用户问题时,会检索出相关性最高的前N个工具。 历史信息处理策略 设置处理和利用用户历史对话信息的策略。
"meeting_room_status_query", toolDesc = "查询会议室的状态,是否被预定或者正在使用中", toolPrinciple = "请在需要预定会议室之前使用,查询会议室状态判断是否可以预定", inputDesc = "", outPutDesc
name、domain name、project id。 project id参数需要与盘古服务部署区域一致。例如,盘古大模型部署在“西南-贵阳一”区域,需要获取与“西南-贵阳一”区域对应的project id。 图1 查看盘古服务区域 图2 获取user name、domain name、project