-
日志提示“ Network is unreachable” - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 外网访问限制
-
OOM导致训练作业失败 - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 硬盘限制故障
-
终止训练作业 - AI开发平台ModelArts
nfs nfs object nfs方式的挂载卷。 表55 nfs 参数 参数类型 描述 nfs_server_path String nfs服务端路径。 local_path String 挂载到训练容器中的路径。 read_only Boolean nfs挂载卷在容器中是否只读。
-
创建训练作业 - AI开发平台ModelArts
object nfs方式的挂载卷。 表41 nfs 参数 是否必选 参数类型 描述 nfs_server_path 否 String nfs服务端路径。 local_path 否 String 挂载到训练容器中的路径。 read_only 否 Boolean nfs挂载卷在容器中是否只读。
-
日志提示"No CUDA-capable device is detected" - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: GPU相关问题
-
日志提示“RuntimeError: Cannot re-initialize CUDA in forked subprocess” - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: GPU相关问题
-
下载或读取文件报错,提示超时、无剩余空间 - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 硬盘限制故障
-
查询训练作业详情 - AI开发平台ModelArts
nfs nfs object nfs方式的挂载卷。 表54 nfs 参数 参数类型 描述 nfs_server_path String nfs服务端路径。 local_path String 挂载到训练容器中的路径。 read_only Boolean nfs挂载卷在容器中是否只读。
-
Manifest文件导入规范说明 - AI开发平台ModelArts
否 如果不设置,则表示未标注对象。annotation值为一个对象列表,详细参数请参见表3。 inference-loc 否 当此文件由推理服务生成时会有该字段,表示推理输出的结果文件位置。 表2 数据来源类型 类型 示例 OBS “source”:“s3://path-to-jpg”
-
日志提示“No space left on device” - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 硬盘限制故障
-
预训练 - AI开发平台ModelArts
溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户在Notebook中创建的“子目录挂载” 图3
-
SFT全参微调训练 - AI开发平台ModelArts
溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户在Notebook中创建的“子目录挂载” 图3
-
查询训练作业列表 - AI开发平台ModelArts
nfs nfs object nfs方式的挂载卷。 表57 nfs 参数 参数类型 描述 nfs_server_path String nfs服务端路径。 local_path String 挂载到训练容器中的路径。 read_only Boolean nfs挂载卷在容器中是否只读。
-
查询作业资源规格 - AI开发平台ModelArts
gpu_num Integer 资源规格GPU的个数。 gpu_type String 资源规格GPU的类型。 spec_code String 云资源的规格类型。 max_num Integer 可以选择的最大节点数量。 unit_num Integer 计价单元个数。 storage
-
LoRA微调训练 - AI开发平台ModelArts
溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。 云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户在Notebook中创建的“子目录挂载” 图3
-
解析Pascal VOC文件 - AI开发平台ModelArts
depth Long 图片深度。 segmented String 分割。 mask_source String 图像分割得到的mask文件的云存储路径,目前只支持PNG格式。 voc_objects JSON Array 标注对象列表,详细请见表4。 表3 source参数 参数 参数类型
-
常见的磁盘空间不足的问题和解决办法 - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 硬盘限制故障
-
日志提示"Permission denied" - AI开发平台ModelArts
错误。 直接使用线上notebook环境调试请参考使用JupyterLab开发模型。 配置本地IDE(Pycharm或者VSCode)联接云上环境调试请参考使用本地IDE开发模型。 父主题: 权限问题
-
查看资源池详情 - AI开发平台ModelArts
的维度呈现。当资源池中有AI加速卡时,还会显示GPU、NPU的相关监控信息。 图4 查看资源视图 查看标签 通过给资源池添加标签,可以标识云资源,便于快速搜索资源池。 在资源池详情页,切换到“标签”页签。您可以查看、添加、修改、删除资源池的标签信息。标签详细用法请参见ModelArts如何通过标签实现资源分组管理。
-
ma-cli configure鉴权命令 - AI开发平台ModelArts
WD鉴权的一部分。 -u / --username String 否 用户名,在使用账号认证时表示账号名,IAM认证时表示IAM用户名,在云星账号场景不需要指定,属于PWD鉴权的一部分。 -p / --password String 否 密码,属于PWD鉴权的一部分。 -ak /