检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在收集评估数据集时,应确保数据集的独立性和随机性,并使其能够代表现实世界的样本数据,以避免对评估结果产生偏差。对评估数据集进行分析,可以帮助了解模型在不同情境下的表现,从而得到模型的优化方向。 在“数据工程 > 数据管理”中创建“评测”类型的数据集作为评估数据集,数据集创建完成后需要执行发布操作。 数据量建议3
对于复杂推理问题(如数学问题或逻辑推理),通过给大模型示例或鼓励大模型解释推理过程,可以引导大模型生成准确率更高的结果。 单样本/多样本 可以在提示词中提供示例,让模型先学习后回答,在使用这种方法时需要约束新样例不能照抄前面给的参考样例,新样例必须多样化、不能重复等,否则可能会直接嫁接前文样例的内容,也可以约束只是
在AI助手的创建页面可以直接进行调测,也可以在AI助手列表页进行调测。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > AI助手”,选择需要调测的AI助手,单击“调测”按钮。 图1 AI助手 在调测页面,可以调整AI助手的指令,输入问题后,单击“运行”获得模型回复结果。 图2 AI助手能力调测
列单击“查看详情”,可在服务列表中申请需要开通的服务。 文本补全:提供单轮文本能力,常用于文本生成、文本摘要、闭卷问答等任务。 多轮对话:提供多轮文本能力,常用于多轮对话、聊天任务。 图1 服务管理 图2 申请开通服务 您可按照需要选择是否开启内容审核。 开启内容审核后,可以有效
↕ ► ◄ 表情符号校验 校验数据中是否存在表情符号,如 ⛪ 璉等,常见表情符清单请参见Full Emoji List。 空值校验 校验数据中是否存在空字符串。 异常格式校验 检查数据是否满足数据格式要求。 冗余换行符校验 检查数据中是否存在连续两个及以上的换行符。 表2 健康度状态说明
型供用户体验。用户可以在页面右侧进行参数设置,然后在输入框中输入问题,模型就会返回对应的答案内容,具体参数信息见表1。 图1 体验预置模型功能 表1 能力调测参数信息表 参数名称 描述 温度 控制语言模型输出的随机性与创造性。温度设置越低,输出更可预测;温度设置越高,输出种类更多,更不可预测。
启用盘古大模型搜索增强能力 大模型在训练时使用的是静态的文本数据集,这些数据集通常是包含了截止到某一时间点的所有数据。因此,对于该时间点之后的信息,大模型可能无法提供。 通过将大模型与盘古搜索结合,可以有效解决数据的时效性问题。当用户提出问题时,模型先通过搜索引擎获取最新的信息,
型供用户体验。用户可以在页面右侧进行参数设置,然后在输入框中输入问题,模型就会返回对应的答案内容,具体参数信息见表1。 图1 体验预置模型功能 表1 能力调测参数信息表 参数名称 描述 温度 控制语言模型输出的随机性与创造性。温度设置越低,输出更可预测;温度设置越高,输出种类更多,更不可预测。
使用API调用模型 用户可以通过API调用盘古大模型服务提供的基模型以及用户训练后的模型。训练后的模型需使用“在线部署”,才可以使用本章节提供的方法进行调用。本章节分别介绍使用Postman调用API和多语言(Java/Python/Go)调用API的方法,仅供测试使用。 前提条件
在各类处理任务中表现出色。无论是生成文章、撰写报告,还是设计广告文案,盘古大模型都能根据输入需求灵活调整,生成符合预期的高质量内容。 推理速度快 盘古大模型采用了高效的深度学习架构和优化算法,显著提升了推理速度。在处理请求时,模型能够更快地生成结果,减少等待时间,从而提升用户体验
获取项目ID 从控制台获取项目ID 登录管理控制台。 在页面右上角的用户名的下拉列表中选择“我的凭证”。 图1 我的凭证 在“我的凭证”页面,获取项目ID(project_id),以及账号名、账号ID、IAM用户名和IAM用户ID。 在调用盘古API时,获取的项目id需要与盘古服
使用含有标记的数据进行模型训练,以学习输入和输出之间的映射关系。 创建有监督训练任务 模型评估 创建模型评估任务 训练完成后评估模型的回答效果。 创建模型评估任务 查看模型评估结果 查看模型评估指标和评估结果。 查看评估任务详情 模型压缩 - 通过模型压缩技术实现同等QPS目标下,降低推理显存占用。 压缩盘古大模型
id参数需要与盘古服务部署区域一致。例如,盘古大模型部署在“西南-贵阳一”区域,需要获取与“西南-贵阳一”区域对应的project id。 图1 查看盘古服务区域 图2 获取user name、domain name、project id 下载并安装Postman调测工具。 打开Post
单击“立即创建”,可在资源池列表中查看节点的状态。如果状态为“运行中”,则创建成功。 在主控节点执行如下k8s命令,验证边缘池创建结果: 执行如下命令建立软连接。 ln -s /home/k3s/k3s /usr/bin/kubectl 执行如下命令查看节点状态。 kubectl get
gulargemodels”。 请在SDK中心获取最新的sdk包版本,替换示例中版本。 表1 安装推理SDK SDK语言 安装方法 Java 在您的操作系统中下载并安装Maven,安装完成后您只需要在Java项目的pom.xml文件中加入相应的依赖项即可。 <dependency>
清洗。 数据清洗模板获取方式如下: 登录盘古大模型套件平台。 在左侧导航栏中选择“数据工程 > 数据清洗”,进入“清洗模板”页面,在该页面查看预置的数据清洗模板。 图1 获取数据清洗模板 父主题: 清洗数据集(可选)
info查看驱动是否已安装。如果有回显npu卡信息,说明驱动已安装。 详情请参见昇腾官方文档。 hccn too网卡配置。 执行如下命令,查看是否有回显网卡信息。如果有,则说明网卡已经配置,否则继续操作下面步骤。 cat /etc/hccn.conf 执行如下命令,查看npu卡数。
获取模型调用API地址 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。 图1 服务管理 在“概览 > 服务列表”中选择需要调用的模型,并单击操作列的“调用路径”。 图2 服务概览页面 在弹窗中可获取对应模型的
toolPrinciple = "请在有用户ID、用户单据、用户最大报销比例的情况下查询用户最大报销额度时调用此工具。需要先分别调用query_receipt工具查询用户单据和query_reimbursement_ratio工具查询最大报销比例。", inputDesc = "用户ID、用户单据、用户报销最大比例"
导出模型 单击“确定”,导出模型。 模型导出成功后,可以在obs中查看导出后的模型文件。下载该obs文件,上传到环境B对应的obs桶中。 登录环境B的盘古大模型套件平台,在“模型迁移”页面,选择“导入模型”,输入模型对应的obs地址和模型名称后,单击“确定”,启动导入模型任务。 图4 导入模型