检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 NLP大模型清单 模型类别 模型 token 简介 NLP大模型 盘古-NLP-N1-基础功能模型-32K 部署可选4096、32768
大模型来调用不同的工具,实现相应的功能。在创建AI助手前,需要将使用的功能封装为工具。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > 工具管理”,单击页面右上角“创建工具”。 图1 工具管理 在“创建工具”页面参考表1完成工具代码的设置。 表1 创建工具参数说明 参数
基于NL2JSON助力金融精细化运营 场景介绍 在金融场景中,客户日常业务依赖大量报表数据来支持精细化运营,但手工定制开发往往耗费大量人力。因此,希望借助大模型消除语义歧义性,识别用户查询意图,并直接生成支持下游操作的结构化JSON信息。大模型的NL2JSON能力可以从自然语言输
横向比较提示词效果 将设置为候选的两个提示词横向比较,获取提示词的差异性和效果。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > 提示词工程”,进入提示词工程页面。 在工程任务列表页面,找到所需要操作的工程任务,单击该工程任务名称,跳转工程任务下候选提示词页面。 图1
创建AI助手 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > AI助手”,单击页面右上角“创建助手”。参考表1完成AI助手匹配。 表1 创建AI助手参数说明 参数分类 参数名称 参数说明 基本信息 助手名称 设置AI助手的名称。 描述 填写AI助手的描述,如填写功能介绍。
然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以根据业务需求开发出诸如营销文案生成、阅读理解、智能对话和代码生成等应用功能。 父主题: 大模型概念类问题
什么是提示词工程 什么是提示词工程 提示工程是一个较新的学科,应用于开发和优化提示词(Prompt),帮助用户有效地将语言模型用于各种应用场景和研究领域。掌握提示词工程相关技能将有助于用户了解大型语言模型的能力和局限性。 提示工程不仅涉及设计和研发提示词,还包括与大型语言模型的交
向大模型提问时,大模型将会结合知识库中的内容进行回答,解决特定领域问题回答不准的现象。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > 知识库管理”,单击页面右上角“创建知识库”。 知识库分为自定义知识库、引用知识库。 自定义知识库:通过盘古大模型套件平台创建的知识库。
盘古大模型正式公测上线 盘古大模型是集数据管理、模型训练和模型部署于一体的一站式大模型开发与应用平台。平台支持大模型的定制开发,提供全生命周期工具链,帮助开发者高效构建与部署模型,企业可灵活选择适合的服务与产品,轻松实现模型与应用的开发。 公测 产品介绍 2 盘古大模型「应用百宝箱」上线 应用百宝箱是
统的需求。 项目 华为云的区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目为单位进行授权,用户可以访问您账号中该区域的所有资源。如果您希望进行更加精细的权限控制,可以在区域默认的项目中创建子项目,并在子项目中购买资源,
购买平台的用户默认为系统管理员,具有所有操作的权限。 运营人员 具备总览、平台管理(资产管理、权限管理)功能的权限。 模型开发人员 具备总览、服务管理、能力调测、数据工程(数据管理、数据清洗)、模型开发(模型管理、模型训练、模型评估、模型压缩、模型部署)、平台管理(资产管理、权限管理)功能的使用权限。
在调用服务API、SDK时,需要将账号相关的信息作为API凭证传入代码。 API凭证主要包括:IAM用户名、IAM用户名ID、账号名、账号ID、项目ID、项目、所属区域。可登录控制台在“我的凭证 > API凭证”页面获取。 图1 获取账号信息 父主题: 准备工作
附录 状态码 错误码 获取项目ID 获取模型调用API地址
ent_id}/caltokens 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2
语言风格,以更好地吸引用户注意。这种智能化、个性化的营销文案创作,不仅提升了营销效果,也释放了企业的创作活力和创新潜力。 代码助手 在软件开发领域,编程语言的多样性和复杂性给程序员带来了巨大的挑战。盘古NLP大模型为程序员提供了强大的代码助手,显著提升了研发效率。 盘古大模型能够
计算速度。 模型经过量化压缩后,不支持评估操作,但可以进行部署操作。 创建模型压缩任务 登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型压缩”。 单击界面右上角“创建压缩任务”,进入创建压缩任务页面。 图1 模型压缩 选择需要进行压缩的模型执行模型压缩,压缩策略为
给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。 开发环境要求 华为云盘古大模型推理SDK要求: Java SDK适用于JDK 1.8及其以上版本。 Python SDK适用于Python3及以上版本。
置会影响模型的生成质量和多样性,因此需要根据不同的场景进行选择。提示词的撰写步骤如下: 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > 提示词工程”,进入提示词工程页面。 在工程任务列表页面,找到所需要操作的工程任务,单击该工程任务操作栏中的“撰写”。 图1 提示词工程
Key即为SK,AK和SK需要妥善保存,避免泄露导致安全风险,如果不慎丢失,需要及时删除,并重新生成。 使用SDK调用盘古API。 进入“开发体验馆 Codelabs”页面,查看盘古API场景示例如下。 图14 开发体验馆 选择要调用的场景示例,按照使用参考完成前置条件,可选择不同语言SDK,图15以Java为例。 参数说明如下:
请在SDK中心获取最新的sdk包版本,替换示例中版本。 表1 安装推理SDK SDK语言 安装方法 Java 在您的操作系统中下载并安装Maven,安装完成后您只需要在Java项目的pom.xml文件中加入相应的依赖项即可。 <dependency> <groupId>com.huaweicloud.sdk</groupId>