检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Shell界面提示如下。 图1 Cloud Shell界面 当作业处于非运行状态或权限不足时会导致无法使用Cloud Shell,请根据提示定位原因即可。 图2 报错提示 部分用户登录Cloud Shell界面时,可能会出现路径显示异常情况,此时在Cloud Shell中单击回车键即可恢复正常。 图3
无法导入模块 问题现象 ModelArts训练作业导入模块时日志报错: Traceback (most recent call last):File "project_dir/main.py", line 1, in <module>from module_dir import module_file
Turbo的VPC网段的安全组是否被限制了。 在所选专属资源池中新建一个未挂载的SFS Turbo的训练作业,当训练作业处于“运行中”时,通过Cloud Shell功能登录训练作业worker-0实例,使用curl {sfs-turbo-endpoint}:{port}命令检查port是否正常打开,SFS
在ModelArts的Notebook中如何在代码中打印GPU使用信息? 用户可通过shell命令或python命令查询GPU使用信息。 使用shell命令 执行nvidia-smi命令。 依赖CUDA nvcc watch -n 1 nvidia-smi 执行gpustat命令。
this message and exit. # 默认显示Bash Shell自动补全命令 $ ma-cli auto-completion Tips: please paste following shell command to your terminal to activate
【下线公告】华为云ModelArts自动学习模块的文本分类功能下线公告 华为云计划于2024/12/06 00:00(北京时间)将AI开发平台ModelArts自动学习模块的文本分类功能正式下线。 下线范围 下线Region:华为云全部Region。 下线影响 ModelArts
Module named XXX 原因分析 No Module named XXX,表示模型中没有导入对应依赖模块。 处理方法 依赖模块没有导入,需要您在模型推理代码中导入缺失依赖模块。 例如您的模型是Pytorch框架,部署为在线服务时出现告警:ModuleNotFoundError:
env。 # shell conda config --append envs_dirs /home/ma-user/work/envs/user_conda/ 查看现有的conda虚拟环境,此时新的虚拟环境已经能够正常显示,可以直接通过名称进行虚拟环境的切换。 # shell conda
的换行格式不同,Windows下是CRLF,而Linux下是LF。 解决方法 可以在Notebook中转换文件格式为Linux格式。 shell语言: dos2unix 文件名 父主题: 代码运行故障
gen_collect_gpu_log_shell(self): collect_gpu_log_shell = "nvidia-bug-report.sh" return collect_gpu_log_shell def collect_gpu_log(self):
is_300_iduo: return collect_npu_log_shell return collect_npu_log_shell + hccn_tool_log_shell def collect_npu_log(self):
析,并针对性地做一些调优操作。 您可以直接使用benchmark命令测试mindir模型性能,用来对比调优前后性能是否有所提升。 # shell cd /home_host/work benchmark --modelFile=diffusers/scripts/mindir_models/text_encoder
提供训练作业的事件信息(训练作业生命周期中的关键事件点)、训练日志(训练作业运行过程和异常信息)、资源监控(资源使用率数据)、Cloud Shell(登录训练容器的工具)等能力,方便用户更清楚的了解训练作业运行过程,并在遇到任务异常时更加准确的排查定位问题 父主题: Standard功能介绍
设置DEBUG日志。 设置MindSpore日志环境变量。 # shell export GLOG_v=0 # 0-DEBUG、1-INFO、2-WARNING、3-ERROR 设置CANN日志环境变量。 # shell export ASCEND_GLOBAL_LOG_LEVEL=1
ternVL/internvl_chat/shell/internvl2.0/2nd_finetune/internvl*.sh vim ${container_work_dir}/InternVL/internvl_chat/shell/internvl2.5/2nd_finetune/internvl*
在SFS中将文件设置归属为ma-user。 chown -R ma-user:ma-group YOLOX 执行以下命令,去除Shell脚本的\r字符。 cd YOLOX sed -i 's/\r//' run.sh Shell脚本在Windows系统编写时,每行结尾是\r\n,而在Linux系统中行每行结尾是\n,
warning、3-error。 # shell export ASCEND_GLOBAL_LOG_LEVEL=1 export ASCEND_SLOG_PRINT_TO_STDOUT=1 模型转换时指定AOE调优配置文件。 # shell # 模型转换时指定AOE调优配置文件并将调优日志输出到aoe_unet
查看训练作业详情 查看训练作业资源占用情况 查看模型评估结果 查看训练作业事件 查看训练作业日志 修改训练作业优先级 使用Cloud Shell调试生产训练作业 复制、停止或删除训练作业 管理训练容器环境变量 查看训练作业标签 查看训练作业监控指标 父主题: 使用ModelArts
5ad09b3eb9b2a7d9a24cca727fa58bb775/shells/* InternVL/internvl_chat/shell/internvl2.0/2nd_finetune/ 步骤六:增加适配代码 表3 添加优化代码 模型 使用方法 internVL2-40B
ma-user:ma-group Swin-Transformer 执行以下命令,去除Shell脚本的\r字符。 cd Swin-Transformer sed -i 's/\r//' run.sh Shell脚本在Windows系统编写时,每行结尾是\r\n,而在Linux系统中行每行