检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
哪里可以了解Atlas800训练服务器硬件相关内容 场景描述 本文提供Atlas800训练服务器硬件相关指南,包括三维视图、备件信息、HCCL常用方法以及网卡配置信息。 Atlas 800训练服务器三维视图 Atlas 800 训练服务器(型号9000)是基于华为鲲鹏920+Sn
GPU A系列裸金属服务器如何更换NVIDIA和CUDA? 场景描述 当裸金属服务器预置的NVIDIA版本和业务需求不匹配时,需要更换NVIDIA驱动和CUDA版本。本文介绍华为云A系列GPU裸金属服务器(Ubuntu20.04系统)如何从“NVIDIA 525+CUDA 12.0”更换为“NVIDIA
收藏预置微调数据集 支持将平台预置微调数据集进行收藏,收藏后可便捷地在模型微调任务中使用。 前提条件 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。 收藏预置微调数据集 在AI原生应用引擎的左侧导航栏选择“资产中心”。 在资产中心页面,选择“数据集”页签。
新建项目为屏幕分组 为了更好地管理屏幕,使用该功能新建相应的项目来划分屏幕分组,并在相应的分组来新建屏幕模板。 前提条件 需要具备AppStage指标开发者或运营管理员权限,权限申请的操作请参见权限管理。 新建项目 在AppStage首页右上区域单击“运营中心”快捷入口,进入运营中心。
Lite Server资源配置流程 在开通Lite Server资源后,需要完成相关配置才能使用,配置流程如下图所示。 图1 Lite Server资源配置流程图 表1 Server资源配置流程 配置顺序 配置任务 场景说明 1 配置Lite Server网络 Server资源开
查询微服务引擎专享版支持规格 功能介绍 查询当前支持的微服务引擎专享版的规格列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_
根据组件ID刷新组件信息 功能介绍 此API用于通过组件ID刷新组件状态和访问方式信息。 URI PUT /v3/{project_id}/cas/applications/{application_id}/components/{component_id}/refresh 表1
根据组件ID获取组件信息 功能介绍 此API用于通过组件ID获取组件信息。 调试 您可以在API Explorer中调试该接口。 URI GET /v3/{project_id}/cas/applications/{application_id}/components/{component_id}
在WiseDBA中新增和管理数据库账号 在WiseDBA中新增数据库账号 在WiseDBA中同步数据库账号 在WiseDBA中下线及还原数据库账号 在WiseDBA中永久删除数据库账号 在WiseDBA中新增数据库账号权限 在WiseDBA中复制数据库账号权限 在WiseDBA中新增数据库账号host
录入敏感配置 本文介绍如何在ACMS管理台录入敏感配置,支持手动逐条录入和批量导入两种方式。 前提条件 需要具备AppStage服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。 录入敏感配置 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“安全 >
在WiseDBA中采集数据库元数据 数据采集功能用于定期采集数据库元数据,如数据库名、表名、数据量、占用空间等,采集到的元数据保存到WiseDBA中,便于用户在实时诊断功能中查看数据库空间使用情况。 使用须知 RDS for PostgreSQL数据库不支持数据采集。 开启数据采
【下线公告】华为云ModelArts自动学习模块的文本分类功能下线公告 华为云计划于2024/12/06 00:00(北京时间)将AI开发平台ModelArts自动学习模块的文本分类功能正式下线。 下线范围 下线Region:华为云全部Region。 下线影响 ModelArts
使用纳管资源配置模式创建Kubernetes环境 同一个项目下,最多支持创建2000个环境。 在使用容器部署方式基于界面配置创建并部署组件、使用容器部署方式基于YAML配置创建并部署组件、使用导入CCE工作负载创建组件之前,您需要先创建Kubernetes类型的环境。 使用纳管资源配置模式创建Kubernetes环境
FlUX.1基于Lite Server适配PyTorch NPU推理指导(6.3.912) Flux是一种基于扩散过程的图像生成模型,应用于文生图场景,能够帮助用户生成图像。官方提供了三个版本:FLUX.1-pro、FLUX.1-dev和FLUX.1-schnell。 方案概览 本方案介绍了在ModelArts
训练网络迁移总结 确保算法在GPU训练时,持续稳定可收敛。避免在迁移过程中排查可能的算法问题,并且要有好的对比标杆。如果是NPU上全新开发的网络,请参考PyTorch迁移精度调优排查溢出和精度问题。 理解GPU和NPU的构造以及运行的差别,有助于在迁移过程中分析问题并发挥NPU的
训练迁移适配 完成环境准备之后,本节将详细介绍Dit模型训练迁移过程。 执行以下命令,下载代码。 git clone https://github.com/facebookresearch/DiT.git cd Dit 执行以下命令,安装依赖项。 pip install diffusers==0
断开PyCharm ToolKit中的Notebook实例SSH连接 步骤4:使用PyCharm提交训练作业至ModelArts ModelArts训练平台提供了海量的算力规格和训练优化,支持将本地调试好的代码以及之前保存的开发环境镜像直接在PyCharm中提交训练作业。 创建OBS桶并上传数据。
Open-Sora 1.0基于Lite Server适配PyTorch NPU训练指导(6.3.905) 本文档主要介绍如何在ModelArts Lite Server上,使用PyTorch_npu+华为自研Ascend Snt9B硬件,完成Open-Sora训练和推理。 资源规格要求
使用ModelArts VSCode插件调试训练ResNet50图像分类模型 应用场景 Notebook等线上开发工具工程化开发体验不如IDE,但是本地开发服务器等资源有限,运行和调试环境大多使用团队公共搭建的CPU或GPU服务器,并且是多人共用,这带来一定的环境搭建和维护成本。
Qwen-VL基于Standard+OBS+SFS适配PyTorch NPU训练指导(6.3.912) 场景介绍 准备工作 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: MLLM多模态模型训练推理