检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平台支持多种部署模式,能够满足不同场景的需求。通过灵活的API接口,模型可以无缝集成到各类应用中。
视频裁剪 裁剪视频中字幕/Logo/水印/黑框等无用信息,生成新视频。 视频元数据过滤 基于视频元数据进行过滤,包括帧率、分辨率和视频时长。注:电影标准帧率为24或30FPS。 宽高比过滤 根据视频的宽高比进行过滤。 数据打标 视频鉴黄评分 对视频的涉黄程度进行评分,分数越高越危险。评分范围(0
户(子用户),并授权控制他们对华为云资源的访问范围。例如,您的员工中有负责软件开发的人员,您希望他们拥有接口的调用权限,但是不希望他们拥有训练模型或者访问训练数据的权限,那么您可以先创建一个IAM用户,并设置该用户在盘古平台中的角色,控制对资源的使用范围。 IAM权限 默认情况下
局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使假设变得过度严格,会导致模型产生“以偏概全”的现象,导致模型泛化效果变差。
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP大模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio大模型开发平台,进入所需操作空间。
根据授权项策略,系统会自动推荐授权范围方案。 可以选择“所有资源”,即用户组内的IAM用户可以基于设置的授权项限使用账号中所有的企业项目、区域项目、全局服务资源。 可以选择“指定区域项目资源”,如指定“西南-贵阳一”区域,即用户组内的IAM用户仅可使用该区域项目中的资源。 可以选择“全局服务资源”,即服务部署时不区分
您可以通过以下方式使用该功能: 在左侧导航栏选择“能力调测”,单击右下角“Token计算器”使用该功能。 使用API调用Token计算器,详见《API参考》“API > Token计算器”。 NLP大模型训练类型选择建议 平台针对NLP大模型提供了两种训练类型,包括预训练和微调,二者区别详见表3。
数据集的集中管理,还可帮助用户了解每个数据集的使用情况,从而简化数据资产的维护更新流程。通过这样的统一管理,用户能够更高效地组织和利用数据资源,确保数据资产的安全性和一致性。 管理数据资产 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏“空间资产
获取项目ID。在页面右上角“我的凭证”,在“API凭证”页面可获取项目ID。 图7 获取项目ID 获取Token。参考《API参考》文档“如何调用REST API认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入调用路径(API请求地址)。 参考图8填写2个请求Header参数。
产品功能 空间管理 数据工程 模型开发 Agent开发
模型能力与规格 盘古NLP大模型能力与规格 盘古科学计算大模型能力与规格
基础知识 大模型开发基本流程介绍 大模型开发基本概念
开发盘古科学计算大模型 使用数据工程构建科学计算大模型数据集 训练科学计算大模型 部署科学计算大模型 调用科学计算大模型
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
加工视频类数据集 创建视频类数据集加工任务 上线加工后的视频类数据集 父主题: 加工数据集
管理盘古大模型空间资产 盘古大模型空间资产介绍 管理盘古数据资产 管理盘古模型资产
标注文本类数据集 创建文本类数据集标注任务 审核文本类数据集标注结果 上线标注后的文本类数据集 父主题: 标注数据集
训练科学计算大模型 科学计算大模型训练流程与选择建议 创建科学计算大模型训练任务 查看科学计算大模型训练状态与指标 发布训练后的科学计算大模型 管理科学计算大模型训练任务 科学计算大模型训练常见报错与解决方案 父主题: 开发盘古科学计算大模型
加工气象类数据集 创建气象类数据集加工任务 上线加工后的气象类数据集 父主题: 加工数据集
撰写提示词 创建提示词工程 撰写所需提示词 预览提示词效果 父主题: 开发盘古大模型提示词工程