检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
海洋模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
批量评估提示词效果 创建提示词评估数据集 创建提示词评估任务 查看提示词评估结果 父主题: 开发盘古大模型提示词工程
训练NLP大模型 NLP大模型训练流程与选择建议 创建NLP大模型训练任务 查看NLP大模型训练状态与指标 发布训练后的NLP大模型 管理NLP大模型训练任务 NLP大模型训练常见报错与解决方案 父主题: 开发盘古NLP大模型
调用科学计算大模型 使用“能力调测”调用科学计算大模型 使用API调用科学计算大模型 父主题: 开发盘古科学计算大模型
部署专业大模型 创建专业大模型部署任务 查看专业大模型部署任务详情 管理专业大模型部署任务 父主题: 开发盘古专业大模型
从基模型训练出行业大模型 打造短视频营销文案创作助手 打造政务智能问答助手 基于NL2JSON助力金融精细化运营
提示词写作进阶技巧 设置背景及人设 理解底层任务 CoT思维链 考察模型逻辑 父主题: 提示词写作实践
盘古NLP大模型调优实践 模型调优方法介绍 优化训练数据的质量 优化训练超参数 优化提示词 优化推理超参数 调优典型问题 父主题: 模型调优实践
盘古科学计算大模型调优实践 模型调优方法介绍 数据预处理优化 训练参数优化 评估模型效果 调优典型问题 父主题: 模型调优实践
如何调用REST API 构造请求 认证鉴权 返回结果
附录 状态码 错误码 获取项目ID 获取模型部署ID
科学计算大模型 气象/降水模型 海洋模型 父主题: API
当然,在追求技术创新的同时,我们也应当注重安全隐私的保护,让科技更好地服务于人类社会。 在提示词中突出重点,让大模型生成内容更加具体。 父主题: 盘古NLP大模型调优实践
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 平台当前仅可对NLP大模型进行压缩,支持压缩的模型清单请详见《产品介绍》> “模型能力与规格 > 盘古NLP大模型能力与规格”。
表1 计费模式表 计费类别 计费项 计费模式 计费量纲 付费方式 计费周期 模型服务 模型订阅服务 包周期计费 套 预付费,按照订单的购买周期结算 1个月~1年 数据服务 数据智算服务 按需计费 智算单元 后付费,根据服务实际消耗量计费 按实际任务时长,时长精确到秒。
LoRA(Low-Rank Adaptation)微调方法通过调整模型的少量参数,以低资源实现较优结果,适合聚焦于领域通用任务或小样本数据情境。例如,在针对通用客服问答的场景中,样本量少且任务场景广泛,选择LoRA微调既能节省资源,又能获得较好的效果。
这意味着在提示词中明确要求模型逐步分析问题的各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:通过分步推理,模型能够在每个步骤后检查和修正自己的思考过程。
此外,平台支持导出和导入盘古大模型的功能,使用户能够将其他局点的盘古大模型迁移到本局点,便于模型资源共享。 父主题: 管理盘古大模型空间资产
Lora矩阵的轶 较高的取值意味着更多的参数被更新,模型具有更大的灵活性,但也需要更多的计算资源和内存。较低的取值则意味着更少的参数更新,资源消耗更少,但模型的表达能力可能受到限制。 Agent微调 在训练Agent所需的NLP大模型时,可以开启此参数。
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。