检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型,但在修改部署时模型不可替换。 在“模型更新”或“修改部署”后进行升级操作时,可选择全量升级或滚动升级两种方式: 全量升级:新旧版本的服务同时运行,直至新版
发布文本类数据集 原始数据集和加工后的数据集不可以直接用于模型训练,需要独立创建一个“发布数据集”。 文本类数据集支持发布的格式为: 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。
发布图片类数据集 原始数据集和加工后的数据集不可以直接用于模型训练,需要独立创建一个“发布数据集”。 图片类数据集支持发布的格式为: 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。
盘古大模型提供了REST(Representational State Transfer)风格的API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。 调用API时,需要用户网络可以访问公网。 父主题: 使用前必读
续费 包周期服务到期后,您可以通过手动续费来延长服务的有效期。 包周期服务到期后,如果在保留期结束前未完成续费,后续则不能再对已过保留期的服务进行续费操作,需重新购买对应的服务。
Long 用于选择集合预报的Perlin加噪octave。Perlin噪音的octave指的是噪音的频率,在生成Perlin噪音时,可以将多个不同频率的噪音叠加在一起,以增加噪音的复杂度和细节。每个频率的噪音称为一个octave,而叠加的octave数越多,噪音的复杂度也就越高。 取值范围:[1
bject-Token的值即为Token。 Content-Type 是 String 发送的实体的MIME类型,参数值为“application/json”。 表2 请求Body参数 参数 是否必选 参数类型 描述 name 是 String 推理作业的名称。 input 是 TaskInputDto
请求消息头 附加请求头字段,如指定的URI和HTTP方法所要求的字段。例如定义消息体类型的请求头“Content-Type”,请求鉴权信息等。 如下公共消息头需要添加到请求中。 Content-Type:消息体的类型(格式),必选,默认取值为“application/json”。 X
进入操作空间 单击左侧“模型开发 > 模型部署”。 调用已部署的模型。单击状态为“运行中”的模型名称,在“详情”页签,可获取API的URL。 图2 获取已部署模型的调用路径 调用预置服务。在“预置服务”页签中,选择所需调用的NLP大模型,单击“调用路径”,在“调用路径”弹窗获取调用路径。
通过横向比较提示词效果和批量评估提示词效果,如果找到高质量的提示词,可以将这些提示词发布至“提示词模板”中。 在提示词“候选”页面,选择质量好的提示词,并单击“保存到模板库”。 图1 保存提示词至模板库 进入“Agent 开发 > 提示词工程 > 提示词模板”页面,查看发布的提示词。 父主题: 开发盘古大模型提示词工程
如何调整训练参数,使盘古大模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。 数据量级:
着深远的影响。它是重要的水资源,提供了大量的饮用水和灌溉水。同时,长江也是中国重要的内河航道,对于货物运输和经济发展具有重要作用。长江中的鱼类种类繁多,是中国淡水渔业的重要基地之一。长江中的典型鱼类包括:1. **中华鲟**:这是一种生活在长江中上游的大型鱼类,以其巨大的体型和古
表该组件未经解析的原始输出,与大模型组件相连的后序组件可以直接引用该输出。 类型 输出参数的类型,当前可选类型只有String。 描述 对于该输出参数的描述。 如下场景时,可以通过配置输出参数来解析大模型组件的输出: 当大模型组件的输出为json格式的数据时,可以通过配置输出参数
构建外,也可能会使用开源的数据集。数据版权功能主要用于记录和管理数据集的版权信息,确保数据的使用合法合规,并清晰地了解数据集的来源和相关的版权授权。通过填写这些信息,可以追溯数据的来源,明确数据使用的限制和许可,从而保护数据版权并避免版权纠纷。 图5 设置数据版权 单击页面右下角
Studio大模型开发平台提供了详细的质量评估报告,帮助用户全面了解数据集的质量情况。获取数据集评估报告步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据评估 > 评估任务”。 单击操作列“报告”可以查看详细的质量评估报告。
根据创建推理作业获取的作业ID获取科学计算大模型的结果数据。 URI GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作业API后,在这个API基础上去除末尾的/tasks即是域名。
温度主要用于控制模型输出的随机性和创造性。温度越高,输出的随机性和创造性越高;温度越低,输出结果越可以被预测,确定性相对也就越高。 您可根据真实的任务类型进行调整。一般来说,如果目标任务的需要生成更具创造性的内容,可以使用较高的温度,反之如果目标任务的需要生成更为确定的内容,可以使用较低的温度。
Studio大模型开发平台提供了详细的质量评估报告,帮助用户全面了解数据集的质量情况。获取数据集评估报告步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据评估 > 评估任务”。 单击操作列“报告”可以查看详细的质量评估报告。
针对调用的大模型,平台提供了统一的管理功能。 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 单击左侧导航栏“调用统计”,选择“NLP”页签。 选择当前调用的NLP大模型,可以按照不同时间跨度查看当前模型的调用总数、调用失败的次数、调用
根据创建推理作业获取的作业ID获取科学计算大模型的结果数据。 URI GET /tasks/{task_id} 调用查询推理作业详情API所需要的域名与创建推理作业API一致,可以参考创建推理作业获取。获取完整的创建推理作业API后,在这个API基础上去除末尾的/tasks即是域名。