正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
认证证书 合规证书 华为云服务及平台通过了多项国内外权威机构(ISO/SOC/PCI等)的安全合规认证,用户可自行申请下载合规资质证书。 图1 合规证书下载 资源中心 华为云还提供以下资源来帮助用户满足合规性要求,具体请查看资源中心。 图2 资源中心 销售许可证&软件著作权证书 另
如何查看在哪个区域购买的套餐包? 登录ModelArts管理控制台,单击“总览”页的“我的套餐包”,进入“资源包”页面。 在“资源包”页面,您可以在“资源包列表”中查看已购买的套餐包。单击“资源包名称/ID”进入资源包详情。 在资源包详情页面,即可查看套餐包的购买区域。 图1 查看资源包区域
AI Gallery的入口在哪里 控制台入口 登录ModelArts管理控制台。 在左侧导航栏中选择“AI Gallery”跳转到AI Gallery首页。 直接网址访问 旧版AI Gallery将下线,已不再更新,建议使用新版AI Gallery。 旧版AI Gallery地址:https://developer
vcache的空间。不同模型推理支持的max-model-len长度不同,具体差异请参见附录:基于vLLM(v0.3.2)不同模型推理支持的max-model-len长度说明。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0
在推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。 模
自动学习生成的模型,存储在哪里?支持哪些其他操作? 模型统一管理 针对自动学习项目,当模型训练完成后,其生成的模型,将自动进入“AI应用管理 > AI应用”页面,如下图所示。模型名称由系统自动命名,前缀与自动学习项目的名称一致,方便辨识。 自动学习生成的模型,不支持下载使用。 图1
标注结果存储在哪里? ModelArts管理控制台,提供了数据可视化能力,您可以在控制台中查看详细数据以及标注信息。如需了解标注结果的存储路径,请参见如下说明。 背景说明 针对ModelArts中的数据集,在创建数据集时,需指定“数据集输入位置”和“数据集输出位置”。两个参数填写的均是OBS路径。
登录ModelArts控制台,单击“资产管理 > AI应用 > 创建”,开始创建AI应用。 设置创建AI应用的相应参数。此处仅介绍关键参数,设置AI应用的详细参数解释请参见从OBS中选择元模型。 根据需要自定义应用的名称和版本。 模型来源选择“从对象存储服务(OBS)中选择”,元模型选择转换后模型的存储路径,
在ModelArts控制台的AI应用模块中,将模型部署为一个AI应用。 登录ModelArts控制台,单击“资产管理 > AI应用 > 创建”,开始创建AI应用。 设置创建AI应用的相应参数。此处仅介绍关键参数,设置AI应用的详细参数解释请参见从OBS中选择元模型。 根据需要自定义应用的名称和版本。
instance xxx: 'ssh' ...”如何解决? 问题现象 或 VS Code连接Notebook一直提示选择证书,且提示信息除标题外,都是乱码。选择证书后,如上图所示仍然没有反应且无法进行连接。 原因分析 当前环境未装OpenSSH或者OpenSSH未安装在默认路径下,详情请参考VS
instance xxx: 'ssh' ...”如何解决? 问题现象 或 VS Code连接Notebook一直提示选择证书,且提示信息除标题外,都是乱码。选择证书后,如上图所示仍然没有反应且无法进行连接。 原因分析 当前环境未装OpenSSH或者OpenSSH未安装在默认路径下,详情请参考VS
服务的性能。 当从第三方推理框架迁移到使用ModelArts推理的AI应用管理和服务管理时,需要对原生第三方推理框架镜像的构建方式做一定的改造,以使用ModelArts推理平台的模型版本管理能力和动态加载模型的部署能力。本案例将指导用户完成原生第三方推理框架镜像到ModelArt
已购买的套餐包为什么不能使用? 已购买的套餐包不能使用包含以下几种情况: 购买套餐包的区域与使用区域不同。例如您在“华北-北京四”区域购买的套餐包,就只能在此区域使用。查看已购买套餐包区域可参见如何查看在哪个区域购买的套餐包?。 购买的套餐包不支持在此场景中使用。例如,您购买的套餐
搜索Ascend 会得到一个新的关于NPU的checkpoint,如下图。 图5 NPU的checkpoint 根据上面checkpoint的箭头,对新的NPU的checkpoint进行规划,如下图。 图6 规划checkpoint 在ckpt_name中选择要使用的权重文件,device
格。 管理算力预申请 在“我的算力预申请”页面可以管理已提交预申请,例如编辑预申请信息、撤回预申请等。 编辑预申请信息 当预申请的“审批状态”为“已撤回”和“已拒绝”时,单击操作列的“编辑”进入预购申请页面,修改预购信息后,重新提交申请。 撤回预申请 当预申请的“审批状态”为“待
系统默认使用https。如果您想使用http,可以采取以下两种方式: 方式一:在部署边缘服务时添加如下环境变量: MODELARTS_SSL_ENABLED = false 图1 添加环境变量 方式二:在使用自定义镜像导入模型时,创建AI应用页面中“容器调用接口”设置为“http”,再部署边缘服务。
镜像仓中的镜像名,作为模型推理使用的镜像,架构选择ARM,类型选择CPU和ASCEND。 图8 注册镜像 Step9 通过openssl创建SSL pem证书 在ECS中执行如下命令,会在当前目录生成cert.pem和key.pem,并将生成的pem证书上传至OBS。证书用于后续
镜像仓中的镜像名,作为模型推理使用的镜像,架构选择ARM,类型选择CPU和ASCEND。 图7 注册镜像 Step9 通过openssl创建SSL pem证书 在ECS中执行如下命令,会在当前目录生成cert.pem和key.pem,并将生成的pem证书上传至OBS。证书用于后续
镜像仓中的镜像名,作为模型推理使用的镜像,架构选择ARM,类型选择CPU和ASCEND。 图7 注册镜像 Step9 通过openssl创建SSL pem证书 在ECS中执行如下命令,会在当前目录生成cert.pem和key.pem,并将生成的pem证书上传至OBS。证书用于后续
搜索Ascend 会得到一个新的关于NPU的checkpoint,如下图。 图5 NPU的checkpoint 根据上面checkpoint的箭头,对新的NPU的checkpoint进行规划,如下图所示。 图6 规划checkpoint 在ckpt_name中选择要使用的权重文件,devic