检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
概述 盘古大模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练大模型中,打造出具有深度语义理解与生成能力的人工智能大语言模型。可进行对话互动、回答问题、协助创作。 华为云盘古大模型,以下功能支持API调用。 表1 API清单 API 功能 NLP-文本补全 给定一个
盘古应用开发SDK简介 应用开发SDK概述 应用开发SDK针对大模型应用开发场景,对大语言模型进行封装,提供了提示词模板、记忆、技能、智能代理等功能模块,简化用户的开发工作,帮助用户快速开发一个大模型应用。当前应用开发SDK支持如下语言: Java Python 开发环境要求 华
这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以根据业务需求开发出诸如营销文案生成、阅读理解、智能对话和代码生成等应用功能。 父主题: 大模型概念类问题
什么是AI助手 AI助手是一种基于NLP大模型构建的人工智能应用,它通过结合多种工具并利用大模型的对话问答、规划推理、逻辑判断等能力,来理解和回应用户的需求。 例如,需要构建一个企业助理应用,该应用需要具备预定会议室、创建在线文档和查询报销信息等功能。在构建此应用时,需要将预定会
、压缩、部署到调用和迁移,全面掌握盘古大模型的开发过程。同时,结合应用开发的提示词工程、AI助手、智能助理Agent应用、域内知识增强应用以及盘古应用开发SDK,您将能够高效构建智能应用,充分释放盘古大模型的潜力,为业务创新提供强大支持。 模型开发 准备盘古大模型训练数据集 训练盘古大模型
大模型的计量单位token指的是什么 大模型是否可以自定义人设 盘古自然语言大模型的适用场景有哪些 大模型的安全性需要从哪些方面展开评估和防护 训练智能客服系统大模型需要考虑哪些方面
的服务。 模型效果优秀 经过海量数据训练,盘古大模型在各种自然语言处理任务中展现出卓越的性能。无论是文本分类、情感分析、机器翻译,还是问答系统,模型都能以高准确率完成任务,为用户提供高质量的输出结果。 这种卓越的表现源于其先进的算法和深度学习架构。盘古大模型能够深入理解语言的内在
安全 责任共担 身份认证与访问控制 数据保护技术 审计 监控安全风险
Python SDK 安装SDK 配置SDK LLMs(语言模型) Prompt(提示词模板) Memory(记忆) Skill(技能) Agent(智能代理) 应用示例 父主题: 盘古应用开发SDK
从基模型训练出行业大模型 打造短视频营销文案创作助手 打造政务智能问答助手 基于NL2JSON助力金融精细化运营
Java SDK 安装SDK 配置SDK LLMs(语言模型) Prompt(提示词模板) Memory(记忆) Skill(技能) Agent(智能代理) 应用示例 父主题: 盘古应用开发SDK
在左侧导航栏中选择“服务管理”,选择所需要查看的服务,单击操作列“查看详情”。 图1 查看详情 在服务详情页面,在“概览”页签,可以查看调用量的概览信息,在“监控”页签,可以查看下详细的调用总量、调用成功量与调用失败量。 图2 查看调用量概览信息 图3 查看调用量详情 通过“运营面板”功能查看调用量
通过大模型搭建Agent应用,并结合多种工具,实现对话问答、规划推理和逻辑判断功能。 AI助手 应用开发SDK - 通过应用开发SDK提供的大模型调用、提示词模板、记忆、技能、智能代理等功能模块,快速开发大模型应用。 盘古应用开发SDK
化的输出。 Prompt工程相关概念 表3 Prompt工程相关概念说明 概念名 说明 提示词 提示词(Prompt)是一种用于与AI人工智能模型交互的语言,用于指示模型生成所需的内容。 思维链 思维链 (Chain-of-Thought)是一种模拟人类解决问题的方法,通过一系列
AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。 Token认证 Token在计算机系统中代表令牌(临时)的意思,拥有Token就代表拥有某种权限。Token认证就是在调用API的时候将Token加到请求消息头,从而通过身份认证,获得操作API的权限。
数据清洗”,单击界面右上角“创建任务”。 图1 数据清洗 依据需要清洗的数据类型,选择对应的数据集和数据集版本,输出路径,设置名称、描述等信息为可选项。 输出路径默认为系统生成,您也可以自定义输出路径,当前支持覆盖和追加两种方式。 覆盖:清洗后数据覆盖和替换原有数据集内容。 追加:清洗后数据增加到原有数据集路径下。
JSON,包含“context”和“target”两个字段。示例如下: {"context": "今天是2023-11-20,你是一个银行智能助理,现在需要根据用户问题、指标-解释表、参数-类型-解释表,生成符合要求格式的json。\n\n请学习并记住以下背景知识:\n1.jso
properties文件,并根据实际需要配置相应的值。 在环境变量中配置“SDK_CONF_PATH”指向该配置文件: # 建议在业务项目入口处配置 import os os.environ["SDK_CONFIG_PATH"] = "./llm.properties" 完整配置项如下: 配置项中的密码等字段
主账号(最终租户)默认拥有系统管理员权限,支持给子账号分配角色。 角色包括:推理服务API调用人员、模型开发人员、运营人员、Prompt工程人员、系统管理员。 图9 设置用户角色 表2 角色和功能关系 功能 推理服务API调用人员 模型开发人员 运营人员 Prompt工程人员 系统管理员 总览
模型安全:通过模型动态混淆技术,使模型在运行过程中保持混淆状态,有效防止结构信息和权重信息在被窃取后暴露。 系统安全:通过网络隔离、身份认证和鉴权、Web安全等技术保护大模型系统安全,增强自身防护能力,以抵御外部安全攻击。 父主题: 大模型概念类问题