检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
字段,很可能是因为用户使用的jackson版本太老导致。 建议客户本地将jackson版本升级到和华为云java sdk一致,jackson版本要求请见pom.xml。 引用华为云java sdk的bundle包来解决jackson版本冲突的问题。 <dependency>
畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(多轮对话)(/chat/completions) Java、Python、Go、.NET、NodeJs 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 通用文本(
调用盘古大模型API 用户可以通过API调用盘古大模型服务的基模型以及用户训练后的模型。训练后的模型只有在使用“在线部署”功能时,才可以使用本章节提供的方法进行调用。本章节将介绍如何使用Postman调用API,仅供测试使用。 前提条件 使用API调用模型前,请先完成盘古大模型服务订购和开通操作。
SDK支持兼容OpenAI-API规范的开源模型。例如,用vllm框架使用OpenAI-API启动推理服务。当前鉴权方式支持AppCode鉴权和华为云的APIG简易认证方式。配置文件需要指定url和key,配置项为: sdk.llm.openai.url=https://infer-ap
过身份认证,获得操作API的权限。 Token的有效期为24小时,需要使用一个Token鉴权时,可以先缓存起来,避免频繁调用。 如果您的华为云账号已升级为华为账号,将不支持获取账号Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。 获取Token方法: To
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 开通盘古大模型API。 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。
计费说明 计费项 关于盘古大模型的详细费用信息,敬请咨询华为云售前咨询,我们将为您提供专业的解答和支持。 盘古NLP大模型分为模型订阅服务、训练服务和推理服务三个收费项。 模型订阅服务和推理服务按调用时长计费,时长精确到秒。 训练服务按实际消耗的Tokens数量计费,话单周期内的Tokens计算精确到1K
提交工单。 图1 立即购买 图2 新建工单 获取购买权限后,根据需要选择计费模式,基模型需选择“N2 - 基础模型功能 & 应用增强功能”。用户可根据需求自行选择功能模型,输入资源名称,类型选择“边缘部署”,输入需要订购的推理算力,单击“确认订单”。 订购完成后,进入“平台管理 >
Decrypt failed报错 报错原因:模型训练过程中,训练日志出现“Decrypt failed”报错,表示解密失败。 解决方案:请联系华为云排查环境变量ak、sk。 图4 Decrypt failed报错 父主题: 训练盘古大模型
"name": "username", //IAM用户名 "password": "********", //华为云账号密码 "domain": { "name":
最新动态 本文介绍了盘古大模型各特性版本的功能发布和对应的文档动态,新特性将在各个区域(Region)陆续发布,欢迎体验。 2024年9月 序号 功能名称 功能描述 阶段 相关文档 1 盘古大模型正式公测上线 盘古大模型是集数据管理、模型训练和模型部署于一体的一站式大模型开发与应
用量。 通过“服务管理”功能查看调用量:查看具体某个模型的调用总量、调用成功量、调用失败量,且可按时间进行筛选。 通过“运营面板”功能查看调用量:查看全部模型访问总数、模型回复时的响应时长、兜底回复比例以及输入/输出token信息。 通过“服务管理”功能查看调用量 登录盘古大模型套件平台。
为各种任务的基础,包括但不限于阅读理解、文本生成和情感分析等,但不具备对话问答能力。 功能模型:功能模型是在基模型的基础上经过微调,专门适应特定任务,并具备对话问答的能力。经过特定场景优化的功能模型能够更有效地处理文案生成、阅读理解、代码生成等任务。 专业大模型:针对特定场景优化
当前仅支持预置模型(盘古-NLP-N2-基础功能模型)和基于N2的模型(盘古-NLP-N2-基模型、盘古-NLP-N2-基础功能模型、盘古-NLP-N2-SQL模型、盘古-NLP-N2-Agent模型、盘古-NLP-N2-Code模型)经有监督微调(SFT)训练后的用户模型进行边缘部署。 使用边缘部署功能需要在Mo
NLP大模型 盘古-NLP-N1-基础功能模型-32K 部署可选4096、32768 基于NLP-N1-基模型训练的基础功能模型,具备文案生成、多轮对话、实体抽取、翻译、知识问答等大模型通用能力,具有32K上下文能力,可外推至128K。 盘古-NLP-N2-基础功能模型-4K 4096 基于
压缩盘古大模型 N2基础功能模型、N4基础功能模型、经有监督微调训练以及RLHF训练后的N2、N4模型可以通过模型压缩技术在保持相同QPS目标的情况下,降低推理时的显存占用。 采用INT8的压缩方式,INT8量化可以显著减小模型的存储大小与降低功耗,并提高计算速度。 模型经过量化
Prompt(提示词模板) 提示词模板模块提供模板格式化、自定义配置管理功能。 模板格式化 from langchain import PromptTemplate from pangukitsappdev.api.llms.factory import LLMs from pangukitsappdev
Prompt(提示词模板) 提示词模板模块提供模板格式化、自定义配置、few-shot管理功能。 模板格式化 import com.huaweicloud.pangu.dev.sdk.template.KV; import com.huaweicloud.pangu.dev.sdk
多轮对话 功能介绍 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 URI POST /v1/{project_id}/deployments/{deployment_id}/chat/completions 表1 路径参数 参数 是否必选 参数类型 描述 project_id
配置盘古访问授权 盘古大模型服务使用对象存储服务(Object Storage Service,简称OBS)进行数据存储,实现安全、高可靠和低成本的存储需求。因此,为了能够正常的存储数据、训练模型,需要用户配置盘古访问OBS的权限。 使用主账号登录盘古大模型套件平台。 在左侧菜单选择“平台管理