检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型名称 说明 西南-贵阳一 Pangu-Predict-Table-Cla-2.0.0 2024年12月发布的版本,支持分析历史数据中的特征与类别的关系,学习出一种映射规则或函数,然后应用这个规则对未来未知的数据点进行分类。 Pangu-Predict-Table-Reg-2.0.0
使用数据工程构建预测大模型数据集 预测大模型支持接入的数据集类型 盘古预测大模型仅支持接入预测类数据集,不同模型所需数据见表1,该数据集格式要求请参见预测类数据集格式要求。 表1 预测大模型与数据集类型对应关系 基模型 模型分类 数据集内容 文件格式 预测大模型 时序预测模型 时序数据
中一些更复杂的内容。 图3 文本描述示例-视频片段描述 单击“下一步”,参考表1配置标注分配与审核。 表1 标注分配与审核配置 参数类型 参数名称 参数说明 标注分配 启用多人标注 关闭时,默认管理员单人标注。 启用时,可以指定参与标注的人员及标注数量。 标注要求 选择标注项为“
考,以提高标注效率。 单击“下一步”,可查看效果预览。 单击“下一步”,参考表1配置标注分配与审核。 表1 标注分配与审核配置 参数类型 参数名称 参数说明 标注分配 启用多人标注 关闭时,默认管理员单人标注。 启用时,可以指定参与标注的人员及标注数量。 标注要求 选择标注项为“
上下文:包含外部信息或额外的上下文信息,引导语言模型更好地响应。 输入数据:用户输入的内容或问题。 输出指示:指定输出的类型或格式。 提示词所需的格式取决于您希望语言模型完成的任务类型,并非所有以上要素都是必须的。 提示词工程使用流程 ModelArts Studio大模型开发平台可以辅助用
用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-Auth-Token,参数值为步骤1中获取的Token值。 参数名为stream,参数值为true。当前工作流仅支持流式调用。 在Postman中选择“Body
他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 参考表1填写请求Header参数。 表1 请求Header参数填写说明 认证方式 参数名 参数值 Token认证 Content-Type application/json X-Auth-Token T
不可用的低质量的数据。 训练模型 自监督训练: 不涉及 有监督微调: 该场景采用下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 问答模型的微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 4 训练轮数(epoch) 3 学习率(learning_rate)
选择需要调用的服务。可从“预置服务”或“我的服务”中选择。 填写系统人设。如“你是一个AI助手”,若不填写,将使用系统默认人设。 在页面右侧配置参数,具体参数说明见表1。 表1 NLP大模型能力调测参数说明 参数 说明 搜索增强 搜索增强通过结合大语言模型与传统搜索引擎技术,提升了搜索结果的相关性、准确性和智能化。
他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 参考表2填写请求Header参数。 表2 请求Header参数填写说明 认证方式 参数名 参数值 Token认证 Content-Type application/json X-Auth-Token T
_name、project_id、project_name,如图3。 图3 请求体参数获取 请求体参数配置完成后,单击“调试”,在响应结果中单击“响应头”,其中,X-Subject-Token参数的值为获取到的Token,如图4。 图4 获取Token值 获取的文本翻译API调用
请参考《API文档》检查请求参数中输入的token数值是否不在范围内,并重新调试API。 PANGU.3318 tolal ContentLength Illegal. Content长度不合法 请参考《API文档》检查请求参数中输入的Content参数长度是否不在范围内,并重新调试API。
{location}}的值,来获得模型回答,提升评测效率。 同时,撰写提示词过程中,可以通过设置模型参数来控制模型的生成行为,如调整温度、核采样、最大Token限制等参数。模型参数的设置会影响模型的生成质量和多样性,因此需要根据不同的场景进行选择。 登录ModelArts Studio大模型开发平台,进入所需空间。
问题二:文本翻译失败,如图2,工作流不输出翻译后的内容,始终处于提问状态。 图2 文本翻译失效 可能原因:如图3,提问器节点的Prompt指令配置有误,指令中的参数与节点配置的输出参数不对应。 图3 提问器节点配置错误示例 解决方法:按照图4,正确配置提问器节点的指令,配置正确后的试运行效果如图5。 图4 提问器节点配置正确示例
大模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古大模型效果最优 如何判断盘古大模型训练状态是否正常 如何评估微调后的盘古大模型是否正常 如何调整推理参数,使盘古大模型效果最优 为什么微调后的盘古大模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码
状态码 HTTP状态码为三位数,分成五个类别:1xx:相关信息;2xx:操作成功;3xx:重定向;4xx:客户端错误;5xx:服务器错误。 状态码如下所示。 状态码 编码 状态说明 100 Continue 继续请求。 这个临时响应用来通知客户端,它的部分请求已经被服务器接收,且仍未被拒绝。
取Token”接口。并填写请求Header参数。 接口地址为:https://iam.cn-southwest-2.myhuaweicloud.com/v3/auth/tokens 请求Header参数名为Content-Type,参数值为application/json 图2 填写获取Token接口
问题三:存在重复数据。 删除重复数据。 略 略 训练模型 自监督训练: 不涉及 有监督微调: 本场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 4 学习率(learning_rate)
在城市政务“一网统管”的场景中,往往建设有庞大复杂的城市事件类别体系,包含了繁多细碎的事项类别,如垃圾暴露、道路破损、围栏破损等,一个城市一般有几百种事件类别。同时,不同城市可能还有不同的标准,某城市关注某一些特定事件类别,另一个城市又关注另一些特定事件类别。因此,城市政务场景面临着众多碎片化AI需求场景。
实例都包括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使