检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装Ascend插件 详情请参考官方文档:https://www.hiascend.com/document/detail/zh/mindx-dl/50rc1/dluserguide/clusterscheduling/dlug_scheduling_02_000001.html
调用边缘模型 调用边缘模型的步骤与使用“在线部署”调用模型的步骤相同,具体步骤请参考使用API调用模型。 父主题: 部署为边缘服务
替换{{location}}的值,来获得模型回答,提升评测效率。 同时,撰写提示词过程中,可以通过设置模型参数控制模型生成行为,如调整温度、核采样和最大口令限制等。模型参数的设置会影响模型的生成质量和多样性,因此需要根据不同的场景进行选择。提示词的撰写步骤如下: 登录盘古大模型套件平台。
数据量足够,但质量较差,可以微调吗 无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 如何调整训练参数,使模型效果最优 如何判断训练状态是否正常 如何评估微调后的模型是否正常 如何调整推理参数,使模型效果最优 为什么微调后的模型,回答总是在重复某一句或某几句话 为什么微调后的模型,回答中会出现乱码
准备工作 注册华为账号并开通华为云 购买盘古大模型套件 开通盘古大模型服务 配置盘古访问授权 创建子用户并授权使用盘古
部署盘古大模型 部署为在线服务 部署为边缘服务
左侧导航窗格中,选择“用户”页签,单击右上方的“创建用户”。 图6 创建用户 配置用户基本信息。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 单击“下一步”,将用户添加至创建用户组步骤创建的用户组中,完成IAM用户的创建。
Java 安装SDK(Java SDK) 配置SDK(Java SDK) 配置LLMs(Java SDK) 配置Prompt(Java SDK) 配置Memory(Java SDK) 配置Skill(Java SDK) 配置Agent(Java SDK) 父主题: 盘古应用开发SDK
动、回答问题、协助创作。 华为云盘古大模型,以下功能支持API调用。 表1 API清单 API 功能 NLP-文本补全 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。它可以用来做文本生成、自动写作、代码补全等任务。 NLP-多轮对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。
供既准确又及时的答案。 登录盘古大模型套件平台,在左侧导航栏中选择“能力调测”。 单击“多轮对话”页签,选择使用N2系列模型,在页面右侧“参数设置”中可以开启搜索增强功能。 图1 体验搜索增强能力
Python 安装SDK(Python SDK) 配置SDK(Python SDK) 配置LLMs(Python SDK) 配置Prompt(Python SDK) 配置Memory(Python SDK) 配置Skill(Python SDK) 配置Agent(Python SDK)
提示工程是什么 大模型生成文本的过程可视为一个黑盒,同一模型下对于同一个场景,使用不同的提示词也会获得不同的结果。提示工程是指在不更新模型参数的前提下,通过设计和优化提示词的方式,引导大模型生成目标结果的方法。 为什么需要提示工程 模型生成结果优劣取决与模型能力及提示词质量。其中
Token计算精确到1K Tokens,不足1K Tokens的部分舍去,按小时自动扣费。 变更配置 盘古NLP大模型的模型订阅服务和推理服务默认采用包周期计费,训练服务则默认采用按需计费。使用周期内不支持变更配置。 欠费 在使用云服务时,如果账户的可用额度低于待结算账单金额,即被判定为账户欠费
安装SDK(Java SDK) Maven中央仓导入 在项目pom.xml中参考以下方式添加依赖。 <dependency> <groupId>com.huaweicloud</groupId> <artifactId>pangu-kits-app-dev-java</artifactId>
版本选择3.9。 在whl包同级目录下,执行如下命令安装: pip install pangu_kits_app_dev_py-2.4.0-py3-none-any.whl 安装可选 安装全部依赖项(2.1.0以前版本需手动安装langchain-openai,命令pip install
流。 通用文本(文本补全)(/text/completions) Java、Python、Go、.NET、NodeJs 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。 开发环境要求
实例都包括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使
在Token计算器中选择所需的模型,并输入文本内容后,单击“开始计算”即可统计输入文本的Token数量。 图1 Token计算器 预置模型和已经部署的模型可以使用Token计算器。 父主题: 平台资源管理
Key(SK)。下载的访问密钥为credentials.csv文件,包含AK/SK信息。 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 使用推理SDK章节示例代码均以ak和sk保存在环境变量中来实现身份验证。 登录“我的凭
AI助手 什么是AI助手 配置AI助手工具 配置知识库 创建AI助手 调测AI助手 调用AI助手API