检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MoXing如何访问文件夹并使用get_size读取文件夹大小? 问题现象 使用MoXing无法访问文件夹。 使用MoXing的“get_size”读取文件夹大小,显示为0。 原因分析 使用MoXing访问文件夹,需添加参数:“recursive=True”,默认为False。 处理方法
授权”,搜索“IAM ReadOnlyAccess”,勾选后单击“下一步”并单击“确认”。 验证权限是否配置成功。 登录子用户账号,在创建训练作业/创建Notebook时,仅能看到配置的SFS Turbo文件夹,则表示权限配置成功。 父主题: 典型场景配置实践
要手动输入“y”确认。 请注意,使用此命令将会检查您系统中已安装的软件包并更新至最新版本。 图1 yum命令历史 查看NetworkManager配置: NetworkManager --print-config 配置内容如下: # NetworkManager configuration:
账号将其OBS桶权限授予其他华为云账号。如果您的账号是IAM用户或其他场景时,请参见《OBS权限配置指南 》> 典型场景配置案例,查找授予OBS桶权限的指导。 获得OBS桶的读写权限后,您可以在Notebook中,使用moxing接口,访问对应的OBS桶,并读取数据。举例如下: import
池过程中,如果需要开启自定义网络配置,需要配置VPC权限。 VPC FullAccess 可选 配置MaaS基础操作权限 创建用户组。 登录IAM管理控制台,单击“用户组>创建用户组”。在“创建用户组”界面,输入“用户组名称”单击“确定”。 配置用户组权限。 在用户组列表中,单击
面,完成基本配置后单击“下一步:网络配置”,进入网络配置页面,选择1中打通的VPC,完成其他参数配置,完成高级配置并确认配置,下发购买弹性云服务器的任务。等待服务器的状态变为“运行中”时,弹性云服务器创建成功。单击“名称/ID”,进入服务器详情页面,查看虚拟私有云配置信息。 图4
已拥有需要部署SNAT的弹性云服务器。 待部署SNAT的弹性云服务器操作系统为Linux操作系统。 待部署SNAT的弹性云服务器网卡已配置为单网卡。 步骤一:打通VPC 通过打通VPC,可以方便用户跨VPC使用资源,提升资源利用率。 登录ModelArts管理控制台,在左侧导航栏中选择“AI专属资源池
登录ModelArts控制台,管理控制台,在左侧导航栏中选择“权限管理”,单击“查看权限”,检查是否配置了obs的委托权限。 图1 查看权限 如果检查后已经存在委托,但是仍然无法访问,可以提工单寻求技术支持。 父主题: 服务部署
} ] } 相关案例 更多权限配置案例如下,根据实际需要参考。 给子用户配置开发环境基本使用权限 给子用户配置训练作业基本使用权限 给子用户配置部署上线基本使用权限 管理员和开发者权限分离 限制用户使用公共资源池 给子用户配置文件夹级的SFS Turbo访问权限 查看所有子账号的Notebook实例
用户结束kernelgateway进程后报错Server Connection Error,如何恢复? 问题现象 当kernelgateway进程被结束后,出现如下报错,以及选不到Kernel。 图1 报错Server Connection Error截图 图2 选不到Kernel
编辑llm_train/AscendSpeed中的Dockerfile文件,修改安装transformers库代码的位置,放置在 chown -R ma-user:ma-group 代码的上面。避免transformers安装后由于权限问题无法访问。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改
编辑llm_train/AscendSpeed中的Dockerfile文件,修改安装transformers库代码的位置,放置在 chown -R ma-user:ma-group 代码的上面。避免transformers安装后由于权限问题无法访问。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改
25端口出方向默认被封禁,申请解封请参考TCP 25端口出方向无法访问时怎么办?。 HTTP 80 使用HTTP协议访问网站。 POP3 110 使用POP3协议接收邮件。 IMAP 143 使用IMAP协议接收邮件。 HTTPS 443 使用HTTPS协议访问网站。 SQL Server 1433
编辑llm_train/AscendSpeed中的Dockerfile文件,修改安装transformers库代码的位置,放置在 chown -R ma-user:ma-group 代码的上面。避免transformers安装后由于权限问题无法访问。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改
mit_id> 执行以下命令制作训练镜像。安装过程需要连接互联网git clone,请确保ECS可以访问公网 docker build -t <镜像名称>:<版本名称> . 图1 docker镜像构建过程 如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。
mit_id> 执行以下命令制作训练镜像。安装过程需要连接互联网git clone,请确保ECS可以访问公网 docker build -t <镜像名称>:<版本名称> . 图1 docker镜像构建过程 如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。
编辑llm_train/AscendSpeed中的Dockerfile文件,修改安装transformers库代码的位置,放置在 chown -R ma-user:ma-group 代码的上面。避免transformers安装后由于权限问题无法访问。 若要对ChatCLMv3、GLMv4系列模型进行训练时,需要修改
创建模型成功后,部署服务报错,如何排查代码问题 问题现象 创建模型成功后,部署服务失败,如何定位是模型代码编写有问题。 原因分析 用户自定义镜像或者通过基础镜像导入的模型时,用户自己编写了很多自定义的业务逻辑,这些逻辑有问题将会导致服务部署或者预测失败,需要能够排查出哪里有问题。
Verification successful 安装Gallery CLI配置工具 当Gallery CLI配置工具包下载完成后,进入服务器安装工具。不管是ModelArts Lite云服务,还是本地Windows/Linux等服务器,安装操作都相同。 登录服务器,激活python虚拟环境。
0(SP10)和aarch64架构的包为例来进行讲解。 安装固件和驱动包。 固件和驱动安装时,注意安装顺序: 首次安装场景:硬件设备刚出厂时未安装驱动,或者硬件设备前期安装过驱动固件但是当前已卸载,上述场景属于首次安装场景,需按照“驱动->固件”的顺序安装驱动固件。 覆盖安装场景:硬件设备前期安装过驱动固件且未卸载,