检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
务的难度较大时,该问题将愈加显著。 当然,如果您的可用数据很少,也可以采取一些方法来扩充您的数据,从而满足微调要求,比如: 数据增强:在传统机器学习中,可以通过简单的重复上采样方式来扩充数据,但该方法不适用于大模型微调的场景,这将导致模型的过拟合。因此可以通过一些规则来扩充数据,
import LLMParamConfig from pangukitsappdev.api.llms.factory import LLMs # 设置SDK使用的配置文件 os.environ["SDK_CONFIG_PATH"] = "./llm.properties" # 初始化LLMs
通过访问密钥(AK/SK)认证方式进行认证鉴权,即使用Access Key ID(AK)/Secret Access Key(SK)加密的方法来验证某个请求发送者身份。 父主题: 安全
体验盘古预置模型能力 体验盘古驱动的应用百宝箱 05 实践 通过基模型训练出行业大模型和提示词写作的最佳实践,您将深入掌握行业模型的定制化流程与高效提示词构建方法,确保在实际应用中充分发挥盘古大模型的行业优势,提升业务效果。 最佳实践 从基模型训练出行业大模型 提示词写作实践 06 API 通过AP
修改。 使用AK/SK认证时,您可以基于签名算法使用AK/SK对请求进行签名,也可以使用专门的签名SDK对请求进行签名。详细的签名方法和SDK使用方法请参见API签名指南。 如果之前没有生成过AK/SK,可登录“我的凭证”界面,选择“访问密钥 > 新增访问密钥”来获取。 签名SD
自监督训练: 不涉及 有监督微调: 该场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表1 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 6 学习率(learning_rate) 7.5e-05 学
任务的Prompt可以保持固定。注意,这里Prompt保持固定和保证数据多样性,二者并不冲突。 当然,如果您的数据质量较差,也可以采取一些方法来提升数据质量,比如: 数据清洗:您可以通过一些简单基础的规则逻辑来过滤异常数据,比如,去空、去重、字符串过滤等。同时,您也可以采用PPL
型的收敛情况动态调整。 学习率衰减比率(learning_rate_decay_ratio) 0~1 0.01~0.1 学习率衰减比率用于设置训练过程中的学习率衰减的最小值。计算公式为:最小学习率=学习率*学习率衰减比率。 参数的选择没有标准答案,您需要根据任务的实际情况进行调整,以上建议值仅供参考。
进入训练数据集页面后,需要进行训练配置、数据配置和基本配置。 训练配置 选择模型类型、训练类型以及基础模型。 数据配置 选择训练数据集和配比类型,设置训练数据集配比,详情请参考数据配比功能介绍。 在训练数据集配比完成后,在单击“创建”或后续修改保存时,会对数据集的有效数据进行统计,确保满足模型训练的要求。
部署为边缘服务 边缘服务部署流程 边缘部署准备工作 注册边缘资源池节点 搭建边缘服务器集群 安装Ascend插件 订购盘古边缘部署服务 部署边缘模型 调用边缘模型 父主题: 部署盘古大模型
重要参数,入参继承BaseModel的类型需额外指定,简单类型无需指定。 return_type。指定工具返回类型,为可选参数,如_run方法未指定返回类型时必选。 如果输入输出参数为复杂类型,则需要通过继承BaseModel定义复杂类型的参数描述,此时input_desc、ou
rsationRewriteSkill,它的作用为将多轮对话改写为单轮。二是在创建一个Agent后,调用了setToolRetriever方法为其添加了一个ToolRetriever,这样Agent所使用的工具会根据用户的对话动态的选择。 父主题: Agent(智能代理)
ationRewriteSkill,它的作用为将多轮对话改写为单轮。二是在创建一个Agent后,调用了set_tool_retriever方法为其添加了一个ToolRetriever,这样Agent所使用的工具会根据用户的对话动态的选择。 父主题: Agent(智能代理)
private static Agent panguAgent; // 工具map。在分步骤执行agent场景时,需要调用tool 的run方法来执行tool private static LinkedHashMap<String, Tool> toolMap = new LinkedHashMap();