检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
steps=[job_step], storages=[storage] ) Workflow不会自动获取训练输出的指标信息,要求用户自行在算法代码中获取指标信息并且按照指定的数据格式构造出metrics.json文件,自行上传到MetricsConfig中配置的OB
推理性能,重复性能测试章节可以验证对应的收益情况。 自助性能调优三板斧分别为:通过固定shape获取更好的常量折叠、AOE性能自动调优、自动高性能算子生成工具。 通过固定shape获取更好的常量折叠 在MindIR格式转换时(即执行converter_lite命令时),通过指定具
加载优化器参数 optimizer.load_state_dict(checkpoint['optimizer']) # 获取保存的epoch,模型会在此epoch的基础上继续训练 start_epoch = checkpoint['epoch'] start
et']) # 加载优化器参数 optimizer.load_state_dict(checkpoint['optimizer']) # 获取保存的epoch,模型会在此epoch的基础上继续训练 start_epoch = checkpoint['epoch'] start =
发的AppCode进行身份认证,调用者将AppCode放到请求头中进行身份认证,确保只有授权的调用者能够调用API接口。 AppCode的获取方法:单击AI Gallery页面右上角“我的Gallery”,在左侧菜单栏选择“鉴权管理”。在“鉴权管理”中单击“创建AppCode”,
有这个微调产物,内容和预训练模型里的gallery_train文件一致。 training_logs/user_params.json 微调配置参数信息,AI Gallery会自动将微调设置的参数信息记录在此文件下。 “README.md” 模型的基础信息。内容和预训练模型里“模型文件”页签的“README
ron表达式会报错。表达式可能会包含问号,要兼容linux的cron表达式,需将“?”替换为“*”。 设置定时任务后,修改文件名称以及文件内容,已经创建好的任务不受影响。 立即运行后,在Notebook Jobs页签可以看到任务运行记录,右上角Reload刷新。 图3 查看定时任务运行记录
此处的IP地址,请填写外网IP地址。如果用户使用的访问机器和华为云ModelArts服务的网络有隔离,则访问机器的外网地址需要在主流搜索引擎中搜索“IP地址查询”获取,而不是使用ipconfig或ifconfig/ip命令在本地查询。 图4 查询外网IP地址 父主题: 管理Notebook实例
登录IAM控制台,在“权限管理>权限”页面,单击“创建自定义策略”。参数配置说明如下: “策略名称”支持自定义。 “策略配置方式”为“JSON视图”。 “策略内容”请参见ModelArts依赖的OBS权限自定义策略样例,如果您需要了解更多关于OBS的系统权限,请参见OBS权限管理。 创建ModelA
数据增量,模型算子未变更。 数据增量,模型算子变化,例如: 网络结构变化。 AI框架版本升级,使用了新版本算子。 例如:每半年对模型进行一次变更,变更的内容包含模型结构,并升级AI框架。 - 是否使用华为MDC产品 如果使用华为MDC产品,请填写MDC版本号,如果没有可以不填。 例如:使用了C83版本。
登录IAM控制台,在“权限管理>权限”页面,单击“创建自定义策略”。参数配置说明如下: “策略名称”支持自定义。 “策略配置方式”为“JSON视图”。 “策略内容”请参见ModelArts依赖的OBS权限自定义策略样例,如果您需要了解更多关于OBS的系统权限,请参见OBS权限管理。 创建ModelA
algorithm_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 algorithm_id 是 String 算法ID。 请求参数 无 响应参数 状态码: 200 表2 响应Body参数
/v2/{project_id}/processor-tasks 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 create_version 否 Boolean
* ? " < > | ' &”。 选择运行环境:CPU、GPU或ASCEND。 勾选“我已阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》”。 图2 发布AI Gallery Notebook 界面提示成功创建分享后,返回至AI
/etc/sysctl.conf sysctl -p | grep net.ipv4.ip_forward Step2 获取基础镜像 建议使用官方提供的镜像部署推理服务。镜像地址{image_url}获取请参见表1。 docker pull {image_url} Step3 上传代码包和权重文件 上
运行后在 --output_dir下生成 kv_cache_scales.json文件,里面是提取的per-tensor的scale值。内容示例如下: 图1 抽取kv-cache量化系数 注意: 抽取完成后,可能提取不到model_type信息,需要手动将model_type修改为指定模型,如"llama"。
运行后在 --output_dir下生成 kv_cache_scales.json文件,里面是提取的per-tensor的scale值。内容示例如下: 图1 抽取kv-cache量化系数 注意: 抽取完成后,可能提取不到model_type信息,需要手动将model_type修改为指定模型,如"llama"。
运行后在 --output_dir下生成 kv_cache_scales.json文件,里面是提取的per-tensor的scale值。内容示例如下: 图1 抽取kv-cache量化系数 注意: 1、抽取完成后,可能提取不到model_type信息,需要手动将model_type修改为指定模型,如"llama"。
“策略配置方式”为“JSON视图”。 “策略内容”请参见ModelArts依赖的OBS权限自定义策略样例。 图3 OBS相关的最小化权限 创建ModelArts开发环境的使用权限的自定义策略,如图4所示。参数配置说明如下: “策略名称”支持自定义。 “策略配置方式”为“JSON视图”。 “策略内容”请参见Mod
如果创建模型使用的镜像本身有问题,需要在创建模型之前,参考从0-1制作自定义镜像并创建AI应用,确保镜像可以正常启动,并可以在本地curl通返回预期内容。 镜像中配置的端口错误 模型可以正常启动,但是因为镜像中启用的端口非8080,或者镜像启用的端口与创建模型时配置的端口不一致,导致部署服