检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
表2 创建自定义策略参数说明 参数 说明 配置示例 策略名称 自定义策略名称 policykl631g 策略配置方式 单击JSON视图。 JSON视图 策略内容 在Statement参数的[]中粘贴步骤1.a保存的权限策略。 { "Version": "1.1", "Statement":
者您需要管理用户更细一步的操作权限,比如操作OBS的操作权限,可以创建自定义策略。 目前IAM支持可视化视图创建自定义策略和JSON视图创建自定义策略,本章节将使用JSON视图方式的策略,以为ModelArts用户授予开发环境的使用权限并且配置ModelArts用户OBS相关的最
启动智能任务 功能介绍 启动智能任务,支持启动“智能标注”和“自动分组”两大类智能任务。可通过指定请求体中的“task_type”参数来启动某类任务。数据路径或工作路径位于KMS加密桶的数据集,不支持启动主动学习和自动分组任务,支持预标注任务。 “智能标注”是指基于当前标注阶段的
权限”,单击右上角的“创建自定义策略”,设置策略。 添加开发环境使用权限。 “策略名称”:设置自定义策略名称,例如:notebook。 “策略配置方式”:选择JSON视图。 “策略内容”:填入如下内容。 { "Version": "1.1", "Statement": [ {
选择“权限管理> 权限”。单击右上角“创建自定义策略”,在“策略名称”中填入“Policy1_IAM_OBS”,策略配置方式选择JSON视图,输入策略内容,单击“确定”。 自定义策略“Policy1_IAM_OBS”的具体内容如下,赋予用户IAM和OBS操作权限。可以直接复制粘贴。
由于OBS服务是全局级服务,无法指定区域项目进行授权,如果需要根据项目进行权限管理,请在选择授权方案选择“指定企业项目资源”。 成功授权后,您可在“企业项目视图”中,看到权限及对应的授权范围。 图6 子用户添加权限 父主题: 模型管理
图解ModelArts 初识ModelArts 初识Workflow
权限”,单击右上角的“创建自定义策略”,设置策略。 “策略名称”:设置自定义策略名称,例如:ma_sfs_turbo。 “策略配置方式”:JSON视图。 “策略内容”:填入如下内容。 { "Version": "1.1", "Statement": [ {
当AOM的监控模板不能满足用户诉求时,用户可以使用Grafana可视化工具来查看与分析监控指标。Grafana支持灵活而又复杂多样的监控视图和模板,为用户提供基于网页仪表面板的可视化监控效果,使用户更加直观地查看到实时资源使用情况。 将Grafana的数据源配置完成后,就可以通
权限”,单击右上角的“创建自定义策略”,设置策略。 添加部署上线使用权限。 “策略名称”:设置自定义策略名称,例如:service。 “策略配置方式”:选择JSON视图。 “策略内容”:填入如下内容。 { "Version": "1.1", "Statement": [ {
/home/ma-user/ws/model/glm4-9B 修改modeling_chatglm.py文件内容: vim modeling_chatglm.py # 注释掉以下两行内容 # if attention_mask is not None # attention_mask = ~attention_mask
enizers/glm4-9B 修改modeling_chatglm.py文件内容: vim modeling_chatglm.py # 注释掉以下两行内容 # if attention_mask is not None # attention_mask = ~attention_mask
否,默认选用Accelerate加速深度学习训练框架,注释掉deepspeed参数。 是否开启NPU FlashAttention融合算子,具体约束详见NPU_Flash_Attn融合算子约束 是,配置以下参数。 flash_attn: sdpa 否,注释掉flash_attn: sdpa参数 是否使用固定句长。
enizers/glm4-9B 修改modeling_chatglm.py文件内容: vim modeling_chatglm.py # 注释掉以下两行内容 # if attention_mask is not None # attention_mask = ~attention_mask
enizers/glm4-9B 修改modeling_chatglm.py文件内容: vim modeling_chatglm.py # 注释掉以下两行内容 # if attention_mask is not None # attention_mask = ~attention_mask
/home/ma-user/work/model-dir/Qwen-VL-Chat/tokenization_qwen.py 中的 30-35 行注释 3. 然后增加一行直接读取本地的Simsun.ttf文件,写绝对路径 # FONT_PATH = try_to_load_from_
/home/ma-user/work/model-dir/Qwen-VL-Chat/tokenization_qwen.py 中的 30-35 行注释 3. 然后增加一行直接读取本地的Simsun.ttf文件,写绝对路径 # FONT_PATH = try_to_load_from_
根因:昇腾环境暂时不支持flash_attn接口 规避措施:修改dynamic_module_utils.py文件,将180-184行代码注释掉 vim /home/ma-user/anaconda3/envs/PyTorch-2.1.0/lib/python3.9/site-p
libgoogle-glog-dev liblmdb-dev libatlas-base-dev librdmacm1 libcap2-bin libpq-dev mysql-common net-tools nginx openslide-tools openssh-client openssh-server
ModelArts资源权限项。 目前支持以下两种方式创建自定义策略: 可视化视图创建自定义策略:无需了解策略语法,按可视化视图导航栏选择云服务、操作、资源、条件等策略内容,可自动生成策略。 JSON视图创建自定义策略:可以在选择策略模板后,根据具体需求编辑策略内容;也可以直接在编辑框内编写JSON格式的策略内容。