检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用于控制生成文本的多样性和创造力。调高温度会使得模型的输出更多样性和创新性。 核采样 控制生成文本多样性和质量。调高核采样可以使输出结果更加多样化。 最大口令限制 用于控制聊天回复的长度和质量。 话题重复度控制 用于控制生成文本中的重复程度。调高参数模型会更频繁地切换话题,从而避免生成重复内容。 词汇重复度控制
选择“盘古大模型”。 模型类型 选择“科学计算大模型”。 场景 选择模型场景,分为“全球天气要素预测”、“全球中期降水预测”、“全球中期海洋智能预测”、“区域中期海洋智能预测”、“全球中期海洋生态智能预测”、“全球中期海量智能预测”。 全球中期天气要素预测模型可以选择1个或者多个模型进行部署。
理数据集的版权信息,确保数据的使用合法合规,并清晰地了解数据集的来源和相关的版权授权。通过填写这些信息,可以追溯数据的来源,明确数据使用的限制和许可,从而保护数据版权并避免版权纠纷。 图5 设置数据版权 单击页面右下角“立即创建”完成原始数据集的创建操作。创建完成后,自动返回至“
构建科学计算大模型训练数据要求 构建科学计算大模型进行训练的数据要求见表1。 表1 科学计算大模型训练数据要求 模型类别 特征要求 水平分辨率要求 区域范围要求 时间要求 数据获取方式 气象/降水模型 需包含4个表面层特征(10m u风、10m v风、2米温度、海平面气压),13高空层次(
调用科学计算大模型 使用“能力调测”调用科学计算大模型 使用该功能调用部署后的预置服务对区域海洋要素等场景进行预测。 使用“能力调测”调用科学计算大模型 使用API调用科学计算大模型 可调用科学计算API接口对区域海洋要素等场景进行预测。 使用API调用科学计算大模型 数据工程使用流程 ModelArts
Unprocessable Entity 请求格式正确,但是由于含有语义错误,无法响应。 429 Too Many Requests 表明请求超出了客户端访问频率的限制或者服务端接收到多于它能处理的请求。建议客户端读取相应的Retry-After首部,然后等待该首部指出的时间后再重试。 500 Internal
T2m:1层:海表面2m温度 (℃) MSL:1层:平均海平面气压 (Pa) SP:1层:海表面气压 (Pa) 区域范围 / 在图中设置训练模型的经纬度范围,即区域模型的经纬度范围。该范围需要在上传区域数据的范围之内。 模型输出控制参数 训练轮数 表示完成全部训练数据集训练的次数。每个轮次都会遍历
随机性数值。建议不要与核采样同时调整。 核采样 模型在输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到核采样值。核采样值可以限制模型选择这些高概率的词汇,从而控制输出内容的多样性,取值范围0-1。 建议不要与温度同时调整。 父主题: 手工编排Agent应用
表1 构建NLP大模型所需数据量 模型规格 训练类型 推荐数据量 最小数据量(数据条数) 单场景推荐训练数据量 单条数据Token长度限制 N1 微调 - 1000条/每场景 ≥ 1万条/每场景 32K N2 微调 - 1000条/每场景 ≥ 1万条/每场景 32K 构建NLP大模型数据集流程
本场景采用了下表中的推理参数进行解码,您可以在平台中参考如下参数调试: 表3 问答模型的推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 4096 温度(temperature) 0.9 核采样(top_p) 0.4 话题重复度控制(presence_penalty)
用户通过配置Prompt、知识库、工具、规划模式等信息,实现工具自主规划与调用,优点是可零码开发,对话过程更为智能,缺点是当大模型受到输入限制,难以执行链路较长且复杂的流程。 流程型Agent:以工作流为任务执行核心,用户通过在画布上对组件进行“拖拉拽”即可搭建出任务流程,场景的
场景,甚至将同一段文本构建为多个不同的场景。 不同规格的模型支持的长度不同,当您将无监督数据构建为有监督数据时,请确保数据长度符合模型长度限制。 父主题: 大模型微调训练类问题
350]。 表8 全球中期天气要素预测模型、降水模型信息表 模型 预报层次 预报高空变量 预报表面变量 降水 时间分辨率 水平分辨率 区域范围 全球中期天气要素预测模型 13层(1000hpa, 925hpa, 850hpa, 700hpa, 600hpa, 500hpa, 400hpa
模型持续优化: 本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表3 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 4096 温度(temperature) 0.3 核采样(top_p) 1.0 话题重复度控制(presence_penalty)
模型选择:选择要使用的LLM,不同的模型效果存在差异。 核采样:模型在输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到核采样值,核采样值可以限制模型选择这些高概率的词汇,从而控制输出内容的多样性。建议不要与温度同时调整。 温度:用于控制生成结果的随机性。建议不要与核采样同时调整。
状态是否存在异常,如果仍无法解决请联系服务技术支持协助解决。 PANGU.3267 qps exceed the limit. QPS超出限制。 请降低请求频率。 PANGU.3278 required api parameter is not present. 请求参数丢失。
较高的取值意味着更多的参数被更新,模型具有更大的灵活性,但也需要更多的计算资源和内存。较低的取值则意味着更少的参数更新,资源消耗更少,但模型的表达能力可能受到限制。 模型保存步数 指每训练一定数量的步骤(或批次)后,模型的状态就会被保存下来。 可以通过token_num = step * batch_size
模型持续优化: 本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表2 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 1024 温度(temperature) 0.3 核采样(top_p) 0.8 话题重复度控制(presence_penalty)
index:生成的文本在列表中的索引,从0开始。 usage usage object 该参数可以帮助用户了解和控制模型的使用情况,避免超出Tokens限制。 表8 choices 参数 参数类型 描述 message message object 生成的文本内容。 index Integer