检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
前提条件 已经创建虚拟私有云。 已经创建子网。 步骤一:创建网络 ModelArts网络是承载ModelArts资源池节点的网络连接,基于华为云的VPC进行封装,对用户仅提供网络名称以及CIDR网段的选择项,为了防止在打通VPC的时候有网段的冲突,因此提供了多个CIDR网段的选项
理、模型训练等场景。 应用场景 需要使用MRS Spark组件进行大量数据的计算时,可以根据已有数据使用该节点进行训练计算。 使用案例 在华为云MRS服务下查看自己账号下可用的MRS集群,如果没有,则需要创建,当前需要集群有Spark组件,安装时,注意勾选上。 您可以使用MrsS
/ : * ? " < > | ' &”。 选择运行环境:CPU、GPU或ASCEND。 勾选“我已阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》”。 图2 发布AI Gallery Notebook 界面提示成功创建分享后,返回至AI
is_synchronize_auto_labeling_data Boolean 是否同步更新智能标注数据。可选值如下: true:同步更新智能标注数据 false:不同步更新智能标注数据 is_synchronize_data Boolean 是否同步更新数据:如上传文件、同
Workflow 区别于传统的机器学习模型构建,开发者可以使用Workflow开发生产流水线。基于MLOps的概念,Workflow会提供运行记录、监控、持续运行等功能。根据角色的分工与概念,产品上将工作流的开发和持续迭代分开。 一条流水线由多个节点组成,Workflow SDK提供了流水
A系列裸金属服务器上测试RoCE性能带宽。 前提条件 GPU A系列裸金属服务器已经安装了IB驱动。(网卡设备名称可以使用ibstatus或者ibstat获取。华为云Ant8裸金属服务器使用Ubuntu20.04操作系统默认已经安装IB驱动。) 操作步骤 方法1:使用mlx硬件计数器,估算ROCE网卡收发流量
Gallery中分享的案例支持免费订阅,但在使用过程中如果消耗了硬件资源进行部署,管理控制台将根据实际使用情况收取硬件资源的费用。 前提条件 注册并登录华为云,且创建好OBS桶用于存储数据和模型。 订阅并使用AI案例 登录“AI Gallery”。 选择“案例库”,在下拉框中单击“案例库 >”
l}参考镜像版本。 docker pull {image_url} Step5 构建ModelArts Standard推理镜像 获取模型软件包,并上传到ECS的目录下(可自定义路径),获取地址参考表1。 解压AscendCloud压缩包及该目录下的推理代码AscendCloud-LLM-6
可以使用ModelArts提供的以下认证方式: token认证 AK/SK APP认证 WebSocket服务调用步骤如下(以图形界面的软件Postman进行预测,token认证为例): WebSocket连接的建立 WebSocket客户端和服务端双向传输数据 WebSocket连接的建立
# nerdctl 工具查看 nerdctl --namespace k8s.io image list Step3 制作推理镜像 获取模型软件包,并上传到机器SFS Turbo的目录下(可自定义路径),获取地址参考表1。 解压AscendCloud压缩包及该目录下的推理代码AscendCloud-LLM-6
[ascend_context] precision_mode=enforce_fp32 #使用 fp32 其他方式 需要实际分析算子层面的差异,需要联系华为工程师进行具体分析。 父主题: 模型精度调优
仅专属资源池支持使用Cloud Shell,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud Shell的权限 使用主用户账号登录华为云的管理控制台,单击右上角用户名,在下拉框中选择“统一身份认证”,进入统一身份认证(IAM)服务。 在统一身份认证服务页面的左侧导航选择“权限管理
填写“发布标题”,标题长度为3~64个字符,不能包含以下字符“\ / : * ? " < > | ' &”。 勾选“我已阅读并同意《华为云AI Gallery数字内容发布协议》和《华为云AI Gallery服务协议》”。 选择运行环境:CPU、GPU或ASCEND。 图2 发布AI Gallery
在TMS中根据资源类型查询ModelArts任务。 Step1 在TMS上创建预定义标签 登录TMS控制台,在预定义标签页面创建标签。此处创建的标签是全局标签,在华为云所有Region可见。 Step2 在ModelArts任务中添加标签 在ModelArts中创建Notebook、创建训练作业、创建推理在线服务时,对这些任务配置标签。
在TMS中根据资源类型查询ModelArts任务。 Step1 在TMS上创建预定义标签 登录TMS控制台,在预定义标签页面创建标签。此处创建的标签是全局标签,在华为云所有Region可见。 Step2 在ModelArts任务中添加标签 在ModelArts中创建Notebook、创建训练作业、创建推理在线服务时,对这些任务配置标签。
Shell登录训练容器,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud Shell的权限 使用主用户账号登录华为云的管理控制台,单击右上角用户名,在下拉框中选择“统一身份认证”,进入统一身份认证(IAM)服务。 在统一身份认证服务页面的左侧导航选择“权限管理
要的pip依赖包。 处理方法 重新构建镜像。 在构建镜像的dockerfile文件中安装pip依赖包,例如安装Flask依赖包。 # 配置华为云的源,安装 python、python3-pip 和 Flask RUN cp -a /etc/apt/sources.list /etc/apt/sources
# nerdctl 工具查看 nerdctl --namespace k8s.io image list Step3 制作推理镜像 获取模型软件包,并上传到机器SFS Turbo的目录下(可自定义路径),获取地址参考表1。 解压AscendCloud压缩包及该目录下的推理代码AscendCloud-LLM-6
ModelArts作为华为云上的AI开发平台,提供交互式云上开发环境,包含标准化昇腾算力资源和完整的迁移工具链,帮助用户完成昇腾迁移的调测过程,进一步可在平台上将迁移的模型一键部署成为在线服务向外提供推理服务,或者运行到自己的运行环境中。 MindSpore Lite 华为自研的AI推理
照如下规则为您计算变更费用: 资源升配:新配置价格高于老配置价格,此时您需要支付新老配置的差价。 资源降配:新配置价格低于老配置价格,此时华为云会将新老配置的差价退给您。 资源降配会影响ModelArts性能,通常不建议您这样操作。这里以资源升配且无任何优惠的场景为例,假设您在2