检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在服务“总览”页面,单击“立即体验”,平台将跳转至盘古大模型体验申请页面。 图1 立即体验 您可以选择希望体验的盘古大模型,单击“申请体验”,填写手机、邮箱和邀请码,单击“下一步”,提交体验盘古大模型的申请。 图2 申请体验-1 图3 申请体验-2 父主题: 体验盘古大模型功能
在服务“总览”页面,单击“立即体验”,平台将跳转至盘古大模型体验申请页面。 图1 立即体验 您可以选择希望体验的盘古大模型,单击“申请体验”,填写手机、邮箱和邀请码,单击“下一步”,提交体验盘古大模型的申请。 图2 申请体验-1 图3 申请体验-2 父主题: 体验盘古大模型功能
例如,在构造泛化问题的任务中,需要基于原问题改写为相同含义的问题,而不是生成相似的问题。当提示词使用“请生成10个跟“手机银行怎么转账”相似的问题”时,模型会认为实体/关键词/场景一致则是相似(在这个例子里实体为手机银行),而不是任务需要的语义级别的相同含义,所以输出内容会发散。 父主题: 进阶技巧
表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其他地址,使用GET和POST请求查看。 304 Not
表示数据质量极差,提示需要进行优化。 表3 合规度校验规则说明 校验项 说明 个人隐私 校验数据中是否存在个人隐私信息,例如,身份证号、手机号、固定电话、Email地址、护照号、车牌号、军官证、车架号、GPS地址、IP地址、MAC地址和IMEI码等。 敏感关键词 校验数据中是否存在敏感关键字,如涉政信息。
在数据配置中,选择训练模型所需的数据集。 图2 数据配置 完成训练任务基本信息。设置模型的名称、描述以及订阅提醒。 设置订阅提醒后,模型训练和部署过程产生的事件可以通过手机或邮箱发送给用户。 图3 基本信息 单击“立即创建”,创建自监督训练任务。 自监督微调训练参数说明 不同模型训练参数默认值存在一定差异,请以前端页面展示的默认值为准。
据。 图2 从训练数据拆分 完成训练任务基本信息。设置模型的名称、描述以及订阅提醒。 设置订阅提醒后,模型训练和部署过程产生的事件可以通过手机或邮箱发送给用户。 图3 基本信息 单击“立即创建”,创建有监督微调训练任务。 有监督微调(全量微调)训练参数说明 不同模型训练参数默认值
选择盘古-NLP-N4系列模型时显示,配置最大Token长度。 服务名称 在线服务的名称。 描述 在线服务的简要描述。 订阅提醒 勾选订阅提醒,并添加手机号/邮箱,系统将在训练任务完成或重要事件发生时,发送提醒。 表2 部署实例量与推理单元数关系 模型类型 推理资源 盘古-NLP-N1系列模型
I加速卡与日志信息,单击“确定”。 如果节点有npu设备需选择“AI加速卡 > Ascend”,并选择加速卡类型。 如果节点没有加速卡,则选择“AI加速卡 > 不使用”。 单击“立即下载”,下载设备证书和Agent固件,并将设备证书与Agent固件分别重命名为license.tgz、hilens-agent
边缘服务部署流程 边缘部署是指将模型部署到用户的边缘设备上。这些设备通常是用户自行采购的服务器,通过ModelArts服务纳管为边缘资源池。然后利用盘古大模型服务将算法部署到这些边缘资源池中。 图1 边缘资源池创建步骤 当前仅支持预置模型(盘古-NLP-N2-基础功能模型)和基于
hilens-agent.tgz // hilens agent固件包 license.tgz // hilens 设备license 工作节点执行命令如下: bash -x cluster_install-ascend.sh --pkg-path=/home/hilens/pkgs
Token计算器 功能介绍 为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 URI POST /v1/{project_id}/deployment
配置Cache(Java SDK) Cache缓存是一种临时存储数据的方法,它可以把常用的数据保存在内存或者其他设备中,这样当需要访问这些数据时,就不用再去原始的数据源查找,而是直接从缓存中获取,从而节省时间和资源。 对LLM使用缓存: LLM llm = LLMs.of(LLMs
配置Cache(Python SDK) Cache缓存是一种临时存储数据的方法,它可以把常用的数据保存在内存或者其他设备中,当需要访问这些数据时,无需再去原始的数据源查找,而是直接从缓存中获取,从而节省时间和资源。 Cache缓存有以下几种操作: 初始化:指定缓存使用哪种存储方式
String customSystemPrompt = "你是财务报销助手。当需要用户反馈信息时,尽可能提示用户名称,手机号码等原始信息。今天的日期是" + new SimpleDateFormat("yyyy年MM月dd日").format(new Date());
调用盘古大模型API 用户可以通过API调用盘古大模型服务的基模型以及用户训练后的模型。训练后的模型只有在使用“在线部署”功能时,才可以使用本章节提供的方法进行调用。本章节将介绍如何使用Postman调用API,仅供测试使用。 前提条件 使用API调用模型前,请先完成盘古大模型服务订购和开通操作。
Tenant 20230728 base 2.9.15 公网IP:100.85.220.207 root密码: CPU架构:aarch64(登录设备,执行arch命令查看) worker bms-panguXXXX CPU:鲲鹏(4*48Core@2.6GHz) 内存:24*64GB DDR4
使用API调用模型 用户可以通过API调用盘古大模型服务提供的基模型以及用户训练后的模型。训练后的模型需使用“在线部署”,才可以使用本章节提供的方法进行调用。本章节分别介绍使用Postman调用API和多语言(Java/Python/Go)调用API的方法,仅供测试使用。 前提条件
打造政务智能问答助手 场景介绍 大模型(LLM)通过对海量公开数据(如互联网和书籍等语料)进行大规模无监督预训练,具备了强大的语言理解、生成、意图识别和逻辑推理能力。这使得大模型在智能问答系统中表现出色:用户输入问题后,大模型依靠其强大的意图理解能力和从大规模预训练语料及通用SF