检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
--drop-last-dir Bool 否 如果指定,在复制文件夹时不会将源文件夹最后一级目录复制至目的文件夹下,仅对文件夹复制有效。 命令示例 # 上传文件到OBS中 $ ma-cli obs-copy ./test.csv obs://${your_bucket}/test-copy/ [ OK
IGC/stable_diffusion/onnx_pipeline.py”也复制一份到该目录,名称改为“mslite_pipeline.py”,迁移后的推理代码中的pipeline需要修改为从复制的onnx pipeline文件导入: # onnx_pipeline.py from
能,是一种应用性能调优手段,在大部分场景下可以提升应用性能。但是清除缓存也可能会导致容器启动失败或系统性能暂时下降(因为系统需要重新从磁盘加载数据到内存中)。关闭表示不启用缓存清理功能。 大页内存:开启表示配置使用透明大页功能。大页内存是一种内存管理机制,可以通过增大内存页的大小
可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ
创建导入任务 支持从OBS中导入新的数据,导入方式包括目录导入和Manifest文件导入。 dataset.import_data(path=None, anntation_config=None, **kwargs) 不同类型的数据集支持的导入方式如表1所示。 表1 不同数据集支持的导入方式
0.rc3-py_3.10-hce_2.0.2406-aarch64-snt9b-20240910150953-6faa0ed 镜像发布到SWR,从SWR拉取 固件驱动:23.0.6 CANN:cann_8.0.rc3 容器镜像OS:hce_2.0 PyTorch:pytorch_2
通过重写pandas源码API的方式,将该API改造成支持OBS路径的形式。 写h5到OBS = 写h5到本地缓存 + 上传本地缓存到OBS + 删除本地缓存 从OBS读h5 = 下载h5到本地缓存 + 读取本地缓存 + 删除本地缓存 即将以下代码写在运行脚本的最前面,就能使运
ID 模型的ID。 描述 单击编辑按钮,可以添加模型的描述。 部署类型 模型支持部署的服务类型。 元模型来源 显示元模型的来源,主要有从训练中选择、从对象存储服务(OBS)中选择、从容器镜像中选择。不同来源的元模型,模型显示的参数会不同。 训练作业名称 如果元模型来源于训练作业,则
Hunyuan-DiT基于DevServer部署适配PyTorch NPU推理指导(6.3.909) 混元DiT,一个基于Diffusion transformer的文本到图像生成模型,此模型具有中英文细粒度理解能力。 方案概览 本方案介绍了在ModelArts Lite DevServer上使用昇腾计算资源Ascend
统一管理。 1、如果您是在ModelArts中训练得到的模型,可直接从训练中导入模型。 2、如果您在本地或其他平台训练得到模型,可先将模型上传至OBS,再从OBS中导入模型。 从OBS导入元模型(手动配置) 从训练中选择元模型 使用自定义镜像创建AI应用 针对ModelArts目
|──ModelLink/ # ModelLink端到端的大语言模型方案 |——megatron/ # 注意:该文件夹从Megatron-LM中复制得到 |——... 父主题:
Prometheus是一款开源监控工具,ModelArts支持Exporter功能,方便用户使用Prometheus等第三方监控系统获取ModelArts采集到的指标数据。 本章节主要介绍如何通过Prometheus查看Lite Cluster监控指标。 约束限制 需要在ModelArts Lite
|──ModelLink/ # ModelLink端到端的大语言模型方案 |——megatron/ # 注意:该文件夹从Megatron-LM中复制得到 |——... 父主题:
tar.gz rm -rf stable-diffusion-xl-model.tar.gz 也可以从HuggingFace官网下载到本地后,通过docker cp命令复制到容器中/home/ma-user目录下,如下图所示。 在线下载地址: https://huggingface
描述 total Integer 查询到当前用户名下的所有Workflow总数。 count Integer 查询到当前用户名下的所有符合查询条件的Workflow总数。 items Array of Workflow objects 查询到当前用户名下的所有符合查询条件的Workflow详情。
OBS相关权限,租户可以细化权限到具体ModelArts使用的桶。 内部资源授权 ModelArts推理当前已支持细粒度授权,租户可以根据实际的权限要求对子用户进行相应的权限配置,限制某些资源的管理,实现权限最小化。 AI应用管理 使用从训练或者从OBS中选择创建AI应用,推荐用
可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ
可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ
total Integer 查询到当前用户名下的所有算法总数。 count Integer 查询到当前用户名下的所有符合查询条件的算法总数。 limit Integer 查询到当前用户名下的所有算法限制个数。 offset Integer 查询到当前用户名下的所有算法查询偏移量。
可以在Huggingface开源社区获取AWQ量化后的模型权重;或者获取FP16/BF16的模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布的AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ