检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发布后,资产会处于“审核中”,审核中的资产仅资产所有者可见。 审核完成后,资产会变成“已发布”状态,并在模型列表可见。 父主题: 发布和管理AI Gallery模型
故障恢复 ModelArts全球基础设施围绕华为云区域和可用区构建。华为云区域提供多个在物理上独立且隔离的可用区,这些可用区通过延迟低、吞吐量高且冗余性高的网络连接在一起。利用可用区,您可以设计和操作在可用区之间无中断地自动实现故障转移的应用程序和数据库。与传统的单个或多个数据中
调用ModelArts API接口创建训练作业和部署服务时,如何填写资源池的参数? 调用API接口创建训练作业时,“pool_id”为“资源池ID”。 调用API接口部署在线服务时,“pool_name”为“资源池ID” 。 图1 资源池ID 父主题: API/SDK
从最新生成权重文件处继续训练。详见断点续训和故障快恢说明 CKPT_LOAD_TYPE 1 可选【0、1、2】,默认为1 0: 不加载权重 1:加载权重不加载优化器状态【增量训练】 2:加载权重且加载优化器状态【 断点续训】详见断点续训和故障快恢说明 USER_CONVERTED_CKPT_PATH
从最新生成权重文件处继续训练。详见断点续训和故障快恢说明 CKPT_LOAD_TYPE 1 可选【0、1、2】,默认为1 0: 不加载权重 1:加载权重不加载优化器状态【增量训练】 2:加载权重且加载优化器状态【 断点续训】详见断点续训和故障快恢说明 USER_CONVERTED_CKPT_PATH
在ModelArts的Notebook中JupyterLab的目录、Terminal的文件和OBS的文件之间的关系是什么? JupyterLab目录的文件与Terminal中work目录下的文件相同。即用户在Notebook中新建的,或者是从OBS目录中同步的文件。 挂载OBS存
量不是很大的情况下,Fine Tune会是一个比较好的选择。 moxing.tensorflow包含所有的接口,对TensorFlow做了优化,里面的实际接口还是TensorFlow的原生接口。 当非MoXing代码中没有Adam名称范围时,需要修改非MoXing代码,在其中增加如下内容:
扩散模型在噪音和随机数上的生成,本身就有一定的随机性,GPU和NPU(Ascend)硬件由于存在一定细小的差别,很难确保完全一致,较难达成生成图片100%匹配,建议通过盲测的方式对效果进行验证。 模型精度有问题怎么办? 首先考虑通过FP16的方式进行转换和执行,再通过精度诊断
source_job_version String 来源训练作业的版本。 source_type String 模型来源的类型。 当模型为自动学习部署过来时,取值为“auto”。 当模型是用户通过训练作业或OBS模型文件部署时,此值为空。 model_type String 模型类型
无法执行相关GPU命令,只能尝试释放D+进程。 处理方法 “nvidia-smi”是一个NVIDIA GPU监视器命令行工具,用于查看GPU的使用情况和性能指标,可以帮助用户进行GPU优化和故障排除。 但是建议在业务软件或训练算法中,避免频繁使用“nvidia-smi”命令功能获取相关信息,存在锁死的风险。出现D+进程后可以尝试如下方法:
x版本的Python版本,推荐使用3.7.x版本。 使用场景 ModelArts SDK目前仅支持在ModelArts开发环境Notebook和本地PC两种环境使用。 ModelArts SDK不支持在训练作业和在线服务中使用。 ModelArts SDK已经集成在ModelArts
Qwen2-VL-7B √ √ x 支持的数据集格式 创建模型调优任务时,支持选择MOSS、Alpaca和ShareGPT这三种数据集格式。 MOSS:用于存储和交换机器学习模型数据的数据集格式,文件类型为jsonl。 Alpaca:用于训练语言模型的数据集格式,文件类型为jsonl。
matmul、swiglu、rope等算子性能提升,支持vllm推理场景 支持random随机数算子,优化FFN算子,满足AIGC等场景 支持自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 支持CopyBlocks算子,满足vllm框架beam
代了U-Net,处理图像生成和去噪等任务。核心思想是通过Transformer的自注意力机制来捕捉序列中的依赖关系,从而提高生成图像的质量。研究表明,具有较高GFLOPs的DiT模型在图像生成任务中表现更好,尤其是在ImageNet 512×512和256×256的测试中,DiT-XL/2模型实现了2
Snt9B开展InternVL2-8B, InternVL2-26B和InternVL2-40B模型的训练过程,包括Finetune训练和LoRA训练。 约束限制 本方案目前仅适用于企业客户。 本文档适配昇腾云ModelArts 6.3.912版本,请参考获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。
matmul、swiglu、rope等算子性能提升,支持vllm推理场景 支持random随机数算子,优化FFN算子,满足AIGC等场景 支持自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 支持CopyBlocks算子,满足vllm框架beam
成且不能以数字开头。 查看环境变量的值:单击,可以查看当前环境变量的值。 新增环境变量:单击“新增”,在编辑环境变量弹窗中配置“变量名称”和“变量值”,单击“确定”完成配置。 修改环境变量:单击,在编辑环境变量弹窗中修改“变量名称”或“变量值”,单击“确定”完成配置。 删除环境变
支持管理托管的资产文件,例如在线预览、下载、删除文件。 只支持预览大小不超过10MB、格式为文本类或图片类的文件。 支持编辑资产介绍。每个资产介绍可分为基础设置和使用描述。 基础设置部分包含了该资产所有重要的结构化元数据信息。选择填入的信息将会变成该模型资产的标签,并且自动同步在模型描述部分,保存到“README
发布后,资产会处于“审核中”,审核中的资产仅资产所有者可见。 审核完成后,资产会变成“已发布”状态,并在数据集列表可见。 父主题: 发布和管理AI Gallery数据集
过来请求,即会出现该报错。 可以通过以下方式解决问题: 服务预测请求内容过大时,会因数据处理慢导致请求超时,优化预测代码,缩短预测时间。 推理速度与模型复杂度强相关,优化模型,缩短预测时间。 扩容实例数或者选择性能更好的“计算节点规格”,例如使用GPU资源代替CPU资源,提升服务处理能力。