检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
sym=True, use_exllama=False) 加载要量化的模型,并将gptq_config传递给from_pretrained()方法。 quantized_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto"
sym=True, use_exllama=False) 加载要量化的模型,并将gptq_config传递给from_pretrained()方法。 quantized_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto"
登录容器镜像服务控制台,在“我的镜像>他人共享”页签下,查看用户B共享的镜像,单击镜像名称进入镜像详情。 按照“Pull/Push指南”页签提供的操作方法,将用户B共享的镜像Pull下来,即作为自有镜像。 进入ModelArts控制台,选择Pull下来的镜像进行镜像注册,注册成功后即可在Notebook界面使用此镜像。
太小,无法满足应用部署,请增大内存规格。 运行中服务告警中出现该提示,可能代码有问题导致内存溢出或者业务使用量太大导致内存需求增多。 处理方法 在部署或升级在线服务时,选择更大内存规格的计算节点。 图3 选择计算节点规格 运行中服务出现告警时,需要分析是您的代码是否出现漏洞导致内
中获取计费资源的ID,通过这些ID信息找到具体的资源,然后将其逐个删除。具体操作如下: 对于Notebook,可使用资源ID查找资源。具体方法如下: 使用公共资源池创建的Notebook实例,通过此方式删除实例后,即可停止计算资源计费。 使用专属资源池创建的Notebook实例,
error code 0” 原因分析 出现该问题的可能原因如下: pytorch1.4引擎与之前pytorch1.3版本兼容性问题。 处理方法 在images之后添加contigous。 images = images.cuda() pred = model(images.permute(0
es/{service_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 service_id 是 String 服务ID,在创建服务时即可在返回体中获取,也可通过查询服务列表接口获取
如果netron中没有显示inputShape,可能由于使用了动态shape模型导致,请确保使用的是静态shape模型。静态shape模型文件导出方法请参考模型准备。 图1 netron中查看inputShape 精度选择。 精度选择需要在模型转换阶段进行配置,执行converter_l
/v1/{project_id}/networks 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 apiVersion 是 String API版本。可选值如下:
用户给ModelArts的委托中没有SWR相关操作权限 用户为子账号,没有主账号SWR的权限 使用的是非自己账号的镜像 使用的镜像为公开镜像 处理方法 到SWR检查下对应的镜像是否存在,对应镜像的镜像地址是否和实际地址一致,大小写,拼写等是否一致。 检查用户给ModelArts的委托中是
集群视图 https://cnnorth4-modelarts-sdk.obs.cn-north-4.myhuaweicloud.com/metrics/grafana/dashboards/ModelArts-Cluster-View.json 节点视图 https://cnnorth4-modelarts-sdk
通过查看日志发现本地vscode-scp-done.flag显示成功上传,但远端未接收到。 图1 vscode-scp-done.flag本地成功上传 解决方法 执行如下命令查看远端是否上传。 cd /home/ma-user/.vscode-server/bin/$commit_id #comm
tasks/{task_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 task_id 是 String 数据处理任务ID。 请求参数 表2 请求Body参数 参数 是否必选 参数类型
GPU,but CUDA is not enabled” 原因分析 出现该问题的可能原因如下: 新安装的包与镜像中带的CUDA版本不匹配。 处理方法 必现的问题,使用本地Pycharm远程连接Notebook调试安装。 先远程登录到所选的镜像,使用“nvcc -V”查看目前镜像自带的CUDA版本。
/v2/{project_id}/pools 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-ModelArts-User-ID 否
载后的文件如图2所示,代码所在路径为“./models/official/cv/resnet/”。 # 下载代码 git clone https://gitee.com/mindspore/models.git -b v1.5.0 图2 下载后的模型包文件 下载花卉识别数据集。
/v1/{project_id}/notebooks 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID,获取方法请参见获取项目ID和名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 description 否 String 实
return_dict: Optional[bool] = None, ...) 所有的模型都需要通过“forward”方法来实现自己的推理逻辑,这个方法会在执行“model(input_ids)”的时候进行调用 模型基类NewBertForXXX:该类承自NewBertPreTrainedModel。
"source": "https://test.obs.{ma_endpoint}.com:443/DATASETS/input/145862135_ab710de93c_n.jpg......", "preview": "https://test.obs
\ -w {output_path} --debug 参数说明如下: --datasets:评测的数据集及评测方法,其中 mmlu 是数据集,ppl 是评测方法。 --hf-type:HuggingFace模型权重类型(base,chat),默认为chat,依据实际的模型选择。