检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
迁移盘古大模型 模型训练完成后,可以通过迁移(导入模型、导出模型)功能将本局点训练的模型导出,或将其他局点训练的模型导入本局点进行使用。 支持迁移操作的模型可以在“模型开发 > 模型管理 > 我的模型”中查看。 图1 模型管理 导入/导出模型 以从环境A迁移模型到环境B为例: 登
输入变量值后预览区域会自动组装展示提示词。用户也可以直接选择已创建的变量集填入变量值信息,变量集是一个excel文件,每行数据是需要输入的变量值信息,可以通过“导入”功能进行上传。 图1 预览提示词效果 单击“查看效果”按钮,输出模型回复结果,用户可以根据预览效果调整提示词的文本和变量。 父主题: 撰写提示词
在创建数据集弹出框中选择“创建一个新的数据集”,单击“创建”。 图8 创建数据集 在新建数据集页面,依据需要进行的训练任务,选择导入数据,填写基本信息。 导入数据 选择模型类型、训练类型、数据类型、导入格式以及数据来源。 表1 数据集路径说明 数据集训练类型 数据集所在OBS路径 自监督训练数据集 创建数据集时,需要指定数据文件所在的文件夹。
安装SDK Maven中央仓导入 在项目pom.xml中参考以下方式添加依赖。 <dependency> <groupId>com.huaweicloud</groupId> <artifactId>pangu-kits-app-dev-java</artifactId>
统计模型调用量 模型调用成功后,有两种方式可以查看模型的调用量。 通过“服务管理”功能查看调用量:查看具体某个模型的调用总量、调用成功量、调用失败量,且可按时间进行筛选。 通过“运营面板”功能查看调用量:查看全部模型访问总数、模型回复时的响应时长、兜底回复比例以及输入/输出token信息。
的数据都以逗号分隔,每行的数据完整且格式正确 有监督单轮,带人设,JSONL格式 编码格式为UTF-8。 每一行表示一段文本,system不能为空,形式为{"system":"system内容","context":"context内容","target":"target内容"}
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 开通盘古大模型API。 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。
实例化Agent Agent实例化过程包括注册LLM和注册工具两个部分。 from pangukitsappdev.agent.react_pangu_agent import ReactPanguAgent from pangukitsappdev.api.llms.factory
注册华为账号并开通华为云 注册华为账号并开通华为云 在使用华为云服务之前,您需要先注册华为账号并开通华为云。通过此账号,您可以按需付费,灵活使用所有华为云提供的服务。 进入华为云官网,参考账号注册指导及界面提示信息,完成账号注册。 注册成功后即可自动登录华为云,您需要完成“实名认
实例化Agent Agent实例化过程包括注册LLM和注册工具两个部分。 import com.huaweicloud.pangu.dev.sdk.agent.ReactPanguAgent; import com.huaweicloud.pangu.dev.sdk.api.llms
验证数据可选择“从训练数据拆分”和“从已有数据导入”。 从训练数据拆分:取值范围[1%-50%]。设置1%即从训练数据中随机拆分出1%的数据作为验证集,验证集中最多使用100条数据用于模型训练效果评估。数据按比例拆分后,如果超过100条,会随机取100条数据。 从已有数据导入:从已有的数据集中选择数据
注册边缘资源池节点 进入ModelArts服务,选择所需空间。 在左侧列表中单击“边缘资源池”,在“节点”页签中,单击“创建”。 在“创建边缘节点”页面中,填写节点名称,配置AI加速卡与日志信息,单击“确定”。 如果节点有npu设备需选择“AI加速卡 > Ascend”,并选择加速卡类型。
session3th = run(sessionId, "会议室更换为 // 第三轮回复:” A02会议室在今天下午2点到4点已经被使用了,无法预定。您是否需要更换其他时间或者其他会议室?” log.info("机器人:" + session3th.getCurrentMessage()
基础问答 应用介绍 基础的大语言模型问答场景。涉及模型问答,流式效果等相关特性。 环境准备 python3.9 及以上版本。 安装依赖的组件包, pip install pangu_kits_app_dev_py gradio。 盘古大语言模型。 开发实现 创建配置文件llm.properties,
安装SDK pip直接安装 执行如下命令: pip install pangu_kits_app_dev_py 本地导入 从support网站上下载pangu-kits-app-dev-py的whl包。 建议使用conda创建一个新的python环境,python版本选择3.9。
cluster_install-ascend.sh generate_docker_cert --pkg-path=/home/hilens/pkgs 基于边缘部署准备工作与注册边缘资源池节点,按照以下目录结构存放下载文件,注意修改下载文件的命名。其中,docker下的certs证书会自动生成,一般无需修改。 pkgs
搜索增强 场景介绍 私有化场景下,大模型需要基于现存的私有数据提供服务。通过外挂知识库(Embedding、向量库)方式提供通用的、标准化的文档问答场景。 工程实现 准备知识库。 获取并安装SDK包。 在配置文件(llm.properties)中配置模型信息。 # 盘古模型IAM
搜索增强 场景介绍 私有化场景下,大模型需要基于现存的私有数据提供服务。通过外挂知识库(Embedding、向量库)方式提供通用的、标准化的文档问答场景。 工程实现 准备知识库。 获取并安装SDK包。 在配置文件(llm.properties)中配置模型信息。 # 盘古模型IAM
长文本摘要 应用介绍 切割长文本,利用大模型逐步总结,如对会议/报告/文章等总结概述。涉及长文本分割、摘要等相关特性。 环境准备 python3.9 及以上版本。 安装依赖的组件包, pip install pangu_kits_app_dev_py gradio python-docx。
长文本摘要 场景介绍 切割长文本,利用大模型逐步总结。 如对会议/报告/文章等较长内容总结概述。 工程实现 获取并安装SDK包。 在配置文件(llm.properties)中配置模型信息。 # IAM 认证信息,根据实际填写 sdk.llm.pangu.iam.url= sdk.llm