华为云用户手册

  • 访问控制 ModelArts作为一个完备的 AI开发平台 ,支持用户对其进行细粒度的权限配置,以达到精细化资源、权限管理之目的。为了支持客户对ModelArts的权限做精细化控制,提供了3个方面的能力来支撑,分别是: IAM 权限控制、委托授权和工作空间。 IAM权限控制 用户使用ModelArts的任何功能,都需要通过IAM权限体系进行正确的权限授权。例如:用户希望在ModelArts创建训练作业,则该用户必须拥有 "modelarts:trainJob:create" 的权限才可以完成操作(无论界面操作还是API调用)。 管理员新创建的用户在没有配置细粒度授权策略时,默认具有ModelArts所有权限。如果需要控制用户的详细权限,管理员可以通过IAM为用户组配置细粒度授权策略,使用户获得策略定义的权限,操作对应云服务的资源。基于策略授权时,管理员可以按ModelArts的资源类型选择授权范围。详细的资源权限项可以参见API参考中的权限策略和授权项章节。 委托授权 为了完成AI计算的各种操作,ModelArts在AI计算任务执行过程中需要访问用户的其他服务,例如训练过程中,需要访问OBS读取用户的训练数据。在这个过程中,就出现了ModelArts“代表”用户去访问其他云服务的情形。从安全角度出发,ModelArts代表用户访问任何云服务之前,均需要先获得用户的授权,而这个动作就是一个“委托”的过程。用户授权ModelArts再代表自己访问特定的云服务,以完成其在ModelArts平台上执行的AI计算任务。 ModelArts服务不会保存用户的Token认证凭据,在后台作业中操作用户的资源(如OBS桶)前,需要用户通过IAM委托向ModelArts显式授权,ModelArts在需要时使用用户的委托获取临时认证凭据用于操作用户资源,具体配置见配置访问授权章节。 工作空间 工作空间是ModelArts面向已经开通企业项目的企业客户提供的一个高阶功能,用于进一步将用户的资源划分在多个逻辑隔离的空间中,并支持以空间维度进行访问的权限限定。 在开通工作空间后,系统会默认为您创建一个“default”空间,您之前所创建的所有资源,均在该空间下。当您创建新的工作空间之后,相当于您拥有了一个新的“ModelArts分身”,您可以通过菜单栏的左上角进行工作空间的切换,不同工作空间中的工作互不影响。ModelArts的用户需要为不同的业务目标开发算法、管理和部署模型,此时可以创建多个工作空间,把不同应用开发过程的输出内容划分到不同工作空间中,便于管理和使用。
  • 资产管理 对于用户发布在AI Gallery中的资产,AI Gallery会做统一的保存管理。 对于文件类型的资产,AI Gallery会将资产保存在AI Gallery官方的OBS桶内。 对于镜像类型的资产,AI Gallery会将资产保存在AI Gallery官方的SWR仓库内。 对于用户提供的一些个人信息,AI Gallery会保存在数据库中。个人信息中的敏感信息,如手机,邮箱等,AI Gallery会在数据库中做加密处理。 AI Gallery的更多介绍请参见《AI Gallery》。
  • 责任共担 华为云秉承“将公司对网络和业务安全性保障的责任置于公司的商业利益之上”。针对层出不穷的 云安全 挑战和无孔不入的云安全威胁与攻击,华为云在遵从法律法规业界标准的基础上,以安全生态圈为护城河,依托华为独有的软硬件优势,构建面向不同区域和行业的完善云服务安全保障体系。 安全性是华为云与您的共同责任,如图1所示。 华为云:负责云服务自身的安全,提供安全的云。华为云的安全责任在于保障其所提供的IaaS、PaaS和SaaS各类各项云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这不仅包括华为云基础设施和各项云服务技术的安全功能和性能本身,也包括运维运营安全,以及更广义的安全合规遵从。 租户:负责云服务内部的安全,安全地使用云。 华为云租户的安全责任在于对使用的IaaS、PaaS和SaaS类各项云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、 虚拟主机 和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建思路与措施,包括云安全战略、责任共担模型、合规与隐私、安全组织与人员、基础设施安全、租户服务与租户安全、工程安全、运维运营安全、生态安全。 图1 华为云安全责任共担模型 父主题: 安全
  • 亮点特性4:提供在线的交互式开发调试工具JupyterLab ModelArts集成了基于开源的JupyterLab,可为您提供在线的交互式开发调试。您无需关注安装配置,在ModelArts管理控制台直接使用Notebook,编写和调测模型训练代码,然后基于该代码进行模型的训练。 JupyterLab是一个交互式的开发环境,是Jupyter Notebook的下一代产品,可以使用它编写Notebook、操作终端、编辑MarkDown文本、打开交互模式、查看csv文件及图片等功能。
  • 亮点特性1:远程开发 - 支持本地IDE远程访问Notebook Notebook提供了远程开发功能,通过开启SSH连接,用户本地IDE可以远程连接到ModelArts的Notebook开发环境中,调试和运行代码。 对于使用本地IDE的开发者,由于本地资源限制,运行和调试环境大多使用团队公共搭建的资源服务器,并且是多人共用,这带来一定的环境搭建和维护成本。 而ModelArts的Notebook的优势是即开即用,它预先装好了不同的AI引擎,并且提供了非常多的可选规格,用户可以独占一个容器环境,不受其他人的干扰。只需简单配置,用户即可通过本地IDE连接到该环境进行运行和调试。 图1 本地IDE远程访问Notebook开发环境 Notebook可以视作是本地PC的延伸,均视作本地开发环境,其读取数据、训练、保存文件等操作与常规的本地训练一致。 对于习惯使用本地IDE的开发者,使用远程开发方式,不影响用户的编码习惯,并且可以方便快捷的使用云上的Notebook开发环境。 本地IDE当前支持VS Code、PyCharm、SSH工具。还有专门的插件PyCharm Toolkit和VS Code Toolkit,方便将云上资源作为本地的一个扩展。
  • 亮点特性3:预置镜像 - 即开即用,优化配置,支持主流AI引擎 每个镜像预置的AI引擎和版本是固定的,在创建Notebook实例时明确AI引擎和版本,包括适配的芯片。 开发环境给用户提供了一组预置镜像,主要包括PyTorch、Tensorflow、MindSpore系列。用户可以直接使用预置镜像启动Notebook实例,在实例中开发完成后,直接提交到ModelArts训练作业进行训练,而不需要做适配。 开发环境提供的预置镜像版本是依据用户反馈和版本稳定性决定的。当用户的功能开发基于ModelArts提供的版本能够满足的时候,建议用户使用预置镜像,这些镜像经过充分的功能验证,并且已经预置了很多常用的安装包,用户无需花费过多的时间来配置环境即可使用。 开发环境提供的预置镜像主要包含: 常用预置包,基于标准的Conda环境,预置了常用的AI引擎,例如PyTorch、MindSpore;常用的数据分析软件包,例如Pandas、Numpy等;常用的工具软件,例如cuda、cudnn等,满足AI开发常用需求。 预置Conda环境:每个预置镜像都会创建一个相对应的Conda环境和一个基础Conda环境python(不包含任何AI引擎),如预置Mindspore所对应的Conda环境如下: 用户可以根据是否使用AI引擎参与功能调试,并选择不同的Conda环境。 Notebook:是一款Web应用,能够使用户在界面编写代码,并且将代码、数学方程和可视化内容组合到一个文档中。 JupyterLab插件:插件包括规格切换,分享案例到AI Gallery进行交流,停止实例等,提升用户体验。 支持SSH远程连接功能,通过SSH连接启动实例,在本地调试就可以操作实例,方便调试。 ModelArts开发环境提供的预置镜像支持功能开发后,直接提到ModelArts训练作业中进行训练。 为了简化操作,ModelArts的新版Notebook,同一个Notebook实例中不支持不同引擎之间的切换。 不同Region支持的AI引擎不一样,请以控制台实际界面为准。
  • 统一镜像列表 ModelArts提供了ARM+Ascend规格的统一镜像,包括MindSpore、PyTorch。适用于Standard开发环境,模型训练,服务部署,请参考下表。镜像的URL、包含的依赖项等详细信息请参考ModelArts统一镜像列表。 表1 MindSpore 预置镜像 适配芯片 适用范围 适用区域 mindspore_2.3.0-cann_8.0.rc1-py_3.9-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 mindspore_2.2.0-cann_7.0.1-py_3.9-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 mindspore_2.1.0-cann_6.3.2-py_3.7-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 mindspore_2.2.12-cann_7.0.1.1-py_3.9-euler_2.10.7-aarch64-snt3p Ascend snt3p Notebook、训练、推理部署 华北-北京四 表2 PyTorch 预置镜像 适配芯片 适用范围 适用区域 pytorch_2.1.0-cann_8.0.rc1-py_3.9-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 pytorch_1.11.0-cann_8.0.rc1-py_3.9-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 pytorch_1.11.0-cann_6.3.2-py_3.7-euler_2.10.7-aarch64-snt9b Ascend snt9b Notebook、训练、推理部署 西南-贵阳一 pytorch_2.1.0-cann_7.0.1.1-py_3.9-euler_2.10.7-aarch64-snt3p Ascend snt3p Notebook、训练、推理部署 华北-北京四
  • 开发环境Notebook 开发环境的Notebook,根据不同的工作环境,对应支持的镜像和版本有所不同。 表3 新版Notebook支持的镜像 镜像名称 镜像描述 适配芯片 支持SSH远程开发访问 支持在线JupyterLab访问 pytorch1.8-cuda10.2-cudnn7-ubuntu18.04 CPU、GPU通用算法开发和训练基础镜像,预置AI引擎PyTorch1.8 CPU/GPU 是 是 mindspore1.7.0-cuda10.1-py3.7-ubuntu18.04 CPU and GPU general algorithm development and training, preconfigured with AI engine MindSpore1.7.0 and cuda 10.1 CPU/GPU 是 是 mindspore1.7.0-py3.7-ubuntu18.04 CPU general algorithm development and training, preconfigured with AI engine MindSpore1.7.0 CPU 是 是 pytorch1.10-cuda10.2-cudnn7-ubuntu18.04 CPU and GPU general algorithm development and training, preconfigured with AI engine PyTorch1.10 and cuda10.2 CPU/GPU 是 是 tensorflow2.1-cuda10.1-cudnn7-ubuntu18.04 CPU、GPU通用算法开发和训练基础镜像,预置AI引擎TensorFlow2.1 CPU/GPU 是 是 tensorflow1.13-cuda10.0-cudnn7-ubuntu18.04 GPU通用算法开发和训练基础镜像,预置AI引擎TensorFlow1.13.1 GPU 是 是 conda3-ubuntu18.04 Clean user customized base image only include conda CPU 是 是 pytorch1.4-cuda10.1-cudnn7-ubuntu18.04 CPU、GPU通用算法开发和训练基础镜像,预置AI引擎PyTorch1.4 CPU/GPU 是 是 conda3-cuda10.2-cudnn7-ubuntu18.04 Clean user customized base image include cuda10.2, conda CPU 是 是 tensorflow1.15-mindspore1.7.0-cann5.1.0-euler2.8-aarch64 Ascend+ARM算法开发和训练基础镜像,AI引擎预置TensorFlow和MindSpore Ascend 是 是 spark2.4.5-ubuntu18.04 CPU algorithm development and training, prebuilt PySpark 2.4.5 and is able to attach to preconfigured spark cluster including MRS and DLI . CPU 否 是 mlstudio-pyspark2.3.2-ubuntu16.04 CPU算法开发和训练基础镜像,包含可以图形化机器学习算法开发和调测MLStudio工具,并预置PySpark2.3.2 CPU 否 是 mindspore_1.10.0-cann_6.0.1-py_3.7-euler_2.8.3 Ascend+ARM algorithm development and training. MindSpore is preset in the AI engine. Ascend 是 是 mindspore_1.9.0-cann_6.0.0-py_3.7-euler_2.8.3 Ascend+ARM algorithm development and training. MindSpore is preset in the AI engine. Ascend 是 是 mindspore1.7.0-cann5.1.0-py3.7-euler2.8.3 Ascend+ARM算法开发和训练基础镜像,AI引擎预置MindSpore Ascend 是 是 tensorflow1.15-cann5.1.0-py3.7-euler2.8.3 Ascend+ARM算法开发和训练基础镜像,AI引擎预置TensorFlow Ascend 是 是 mlstudio-pyspark2.4.5-ubuntu18.04 CPU算法开发和训练基础镜像,包含可以图形化机器学习算法开发和调测MLStudio工具,并预置PySpark2.4.5 CPU 否 是 mindspore1.2.0-cuda10.1-cudnn7-ubuntu18.04 GPU算法开发和训练基础镜像,预置AI引擎MindSpore-GPU GPU 是 是 rlstudio1.0.0-ray1.3.0-cuda10.1-ubuntu18.04 CPU、GPU强化学习算法开发和训练基础镜像,预置AI引擎 CPU/GPU 是 是 mindquantum0.9.0-mindspore2.0.0-cuda11.6-ubuntu20.04 MindSpore2.0.0 and MindQuantum0.9.0 CPU 是 是 mindspore1.2.0-openmpi2.1.1-ubuntu18.04 CPU算法开发和训练基础镜像,预置AI引擎MindSpore-CPU CPU 是 是 cylp0.91.4-cbcpy2.10-ortools9.0-cplex20.1.0-ubuntu18.04 CPU运筹优化求解器开发基础镜像,预置cylp,cbcpy,ortools及cplex CPU 是 是
  • 配额项说明 使用ModelArts Lite Cluster或Lite Server时,所需的E CS 实例数、内存大小、CPU核数和EVS硬盘大小等等资源会超出华为云默认提供的资源配额,因此需要申请扩大配额。具体配额项如下。 表1 ModelArts Lite涉及的资源配额 服务 资源类型 ECS资源类型 ECS实例数 CPU核心数 RAM 容量(MB) 弹性公网IP EIP资源 伸缩带宽策略 云硬盘EVS SFS资源 磁盘数 磁盘容量(GB) 快照数 弹性文件服务SFS资源 容量配额
  • Standard自动学习 ModelArts通过机器学习的方式帮助不具备算法开发能力的业务开发者实现算法的开发,基于迁移学习、自动神经网络架构搜索实现模型自动生成,通过算法实现模型训练的参数自动化选择和模型自动调优的自动学习功能,让零AI基础的业务开发者可快速完成模型的训练和部署。 ModelArts自动学习,为入门级用户提供AI零代码解决方案 支持图片分类、物体检测、预测分析、声音分类场景 自动执行模型开发、训练、调优和推理机器学习的端到端过程 根据最终部署环境和开发者需求的推理速度,自动调优并生成满足要求的模型 ModelArts自动学习,为资深级用户提供模板化开发能力 提供“自动学习白盒化”能力,开放模型参数、自动生成模型,实现模板化开发,提高开发效率 采用自动深度学习技术,通过迁移学习(只通过少量数据生成高质量的模型),多维度下的模型架构自动设计(神经网络搜索和自适应模型调优),和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于信息熵上限近似模型的树搜索最优特征变换和基于信息熵上限近似模型的贝叶斯优化自动调参,从企业关系型(结构化)数据中,自动学习数据特征和规律,智能寻优特征&ML模型及参数,准确性甚至达到专家开发者的调优水平 图1 自动学习流程 父主题: Standard功能介绍
  • Standard模型部署 ModelArts Standard提供模型、服务管理能力,支持多厂商多框架多功能的镜像和模型统一纳管。 通常AI模型部署和规模化落地非常复杂。 例如,智慧交通项目中,在获得训练好的模型后,需要部署到云、边、端多种场景。如果在端侧部署,需要一次性部署到不同规格、不同厂商的摄像机上,这是一项非常耗时、费力的巨大工程,ModelArts支持将训练好的模型一键部署到端、边、云的各种设备上和各种场景上,并且还为个人开发者、企业和设备生产厂商提供了一整套安全可靠的一站式部署方式。 图1 部署模型的流程 在线推理服务,可以实现高并发,低延时,弹性伸缩,并且支持多模型灰度发布、A/B测试。 支持各种部署场景,既能部署为云端的在线推理服务和批量推理任务,也能部署到端,边等各种设备。 一键部署,可以直接推送部署到边缘设备中,选择智能边缘节点,推送模型。 ModelArts基于Snt3高性能AI推理芯片的深度优化,具有PB级别的单日推理数据处理能力,支持发布云上推理的API百万个以上,推理网络时延毫秒。 父主题: Standard功能介绍
  • Standard模型训练 ModelArts Standard模型训练提供容器化服务和计算资源管理能力,负责建立和管理机器学习训练工作负载所需的基础设施,减轻用户的负担,为用户提供灵活、稳定、易用和极致性能的深度学习训练环境。通过ModelArts Standard模型训练,用户可以专注于开发、训练和微调模型。 ModelArts Standard模型训练支持大规模训练作业,提供高可用的训练环境 支持单机多卡、多机多卡的分布式训练,有效加速训练过程 支持训练作业的故障感知、故障诊断与故障恢复,包含硬件故障与作业卡死故障,并支持进程级恢复、容器级恢复与作业级恢复,提供容错与恢复能力,保障用户训练作业的长稳运行 提供训练作业断点续训与增量训练能力,即使训练因某些原因中断,也可以基于checkpoint接续训练,保障需要长时间训练的模型的稳定性和可靠性,避免重头训练耗费的时间与计算成本 支持训练数据使用SFS Turbo文件系统进行数据挂载,训练作业产生的中间和结果等数据可以直接高速写入到SFS Turbo缓存中,并可被下游业务环节继续读取并处理,结果数据可以异步方式导出到关联的OBS对象存储中进行长期低成本存储,从而加速训练场景下加速OBS对象存储中的数据访问 ModelArts Standard模型训练提供便捷的作业管理能力,提升用户模型训练的开发效率 提供算法资产的管理能力,支持通过算法资产、自定义算法、AI Gallery订阅算法创建训练作业,使训练作业的创建更灵活、易用 提供实验管理能力,用户通常需要调整数据集、调整超参等进行多轮作业从而选择最理想的作业,模型训练支持统一管理多个训练作业,方便用户选择最优的模型 提供训练作业的事件信息(训练作业生命周期中的关键事件点)、训练日志(训练作业运行过程和异常信息)、资源监控(资源使用率数据)、Cloud Shell(登录训练容器的工具)等能力,方便用户更清楚得了解训练作业运行过程,并在遇到任务异常时更加准确的排查定位问题 父主题: Standard功能介绍
  • Standard数据管理 ModelArts Standard数据管理提供了一套高效便捷的管理和标注数据框架。支持图片、文本、语音、视频等多种数据类型,涵盖图像分类、目标检测、音频分割、文本分类等多个标注场景,适用于计算机视觉、 自然语言处理 、音视频分析等AI项目场景。 ModelArts Standard数据管理模块重构中,当前能力不做演进,将结合大模型时代能力进行全新升级,敬请期待。 ModelArts Standard数据管理支持多维度数据管理能力 数据集管理:提供数据集创建、数据预览、数据集版本管理等能力 数据标注:提供在线标注能力,包含图像分类、目标检测、音频分割、文本三元组等标注场景;提供图片智能标注方案,提升标注效率;提供团队标注能力,支持多人协同标注与标注任务的审核验收 数据处理:提供数据清洗、数据校验、数据增强、数据选择等分析处理能力 图1 数据标注全流程 父主题: Standard功能介绍
  • 聚类 聚类是把一组数据按照相似性和差异性分为几个类别,其目的是使得属于同一类别的数据间的相似性尽可能大,不同类别中的数据间的相似性尽可能小。它可以应用到客户群体的分类、客户背景分析、客户购买趋势预测、市场的细分等。 与分类不同,聚类分析数据对象,而不考虑已知的类标号(一般训练数据中不提供类标号)。聚类可以产生这种标号。对象根据最大化类内的相似性、最小化类间的相似性的原则进行聚类或分组。对象的聚类是这样形成的,使得在一个聚类中的对象具有很高的相似性,而与其他聚类中的对象很不相似。
  • AI开发的基本流程 AI开发的基本流程通常可以归纳为几个步骤:确定目的、准备数据、训练模型、评估模型、部署模型。 图1 AI开发流程 确定目的 在开始AI开发之前,必须明确要分析什么?要解决什么问题?商业目的是什么?基于商业的理解,整理AI开发框架和思路。例如,图像分类、物体检测等等。不同的项目对数据的要求,使用的AI开发手段也是不一样的。 准备数据 数据准备主要是指收集和预处理数据的过程。 按照确定的分析目的,有目的性的收集、整合相关数据,数据准备是AI开发的一个基础。此时最重要的是保证获取数据的真实可靠性。而事实上,不能一次性将所有数据都采集全,因此,在数据标注阶段你可能会发现还缺少某一部分数据源,反复调整优化。 训练模型 俗称“建模”,指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为商业目的提供决策参考。训练模型的结果通常是一个或多个机器学习或深度学习模型,模型可以应用到新的数据中,得到预测、评价等结果。 业界主流的AI引擎有TensorFlow、PyTorch、MindSpore等,大量的开发者基于主流AI引擎,开发并训练其业务所需的模型。 评估模型 训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。经常不能一次性获得一个满意的模型,需要反复的调整算法参数、数据,不断评估训练生成的模型。 一些常用的指标,如准确率、召回率、AUC等,能帮助您有效的评估,最终获得一个满意的模型。 部署模型 模型的开发训练,是基于之前的已有数据(有可能是测试数据),而在得到一个满意的模型之后,需要将其应用到正式的实际数据或新产生数据中,进行预测、评价、或以可视化和报表的形式把数据中的高价值信息以精辟易懂的形式提供给决策人员,帮助其制定更加正确的商业策略。
  • 对象存储服务 的关系 ModelArts使用对象存储服务(Object Storage Service,简称OBS)存储数据和模型,实现安全、高可靠和低成本的存储需求。OBS的更多信息请参见《对象存储服务产品文档》。 表1 ModelArts各环节与OBS的关系 功能 子任务 ModelArts与OBS的关系 自动学习 数据标注 ModelArts标注的数据存储在OBS中。 自动训练 训练作业结束后,其生成的模型存储在OBS中。 部署上线 ModelArts将存储在OBS中的模型部署上线为在线服务。 AI全流程开发 数据管理 数据集存储在OBS中。 数据集的标注信息存储在OBS中。 支持从OBS中导入数据。 开发环境 Notebook实例中的数据或代码文件存储在OBS中。 训练模型 训练作业使用的数据集存储在OBS中。 训练作业的运行脚本存储在OBS中。 训练作业输出的模型存储在指定的OBS中。 训练作业的过程日志存储在指定的OBS中。 AI应用管理 训练作业结束后,其生成的模型存储在OBS中,创建AI应用时,从OBS中导入已有的模型文件。 部署上线 将存储在OBS中的模型部署上线。 全局配置 - 获取访问授权(使用委托或访问密钥授权),以便ModelArts可以使用OBS存储数据、创建Notebook等操作。
  • MoXing MoXing是ModelArts自研的组件,是一种轻型的分布式框架,构建于TensorFlow、PyTorch、MXNet、MindSpore等深度学习引擎之上,使得这些计算引擎分布式性能更高,同时易用性更好。MoXing包含很多组件,其中MoXing Framework模块是一个基础公共组件,可用于访问OBS服务,和具体的AI引擎解耦,在ModelArts支持的所有AI引擎(TensorFlow、MXNet、PyTorch、MindSpore等)下均可以使用。 MoXing Framework模块提供了OBS中常见的数据文件操作,如读写、列举、创建文件夹、查询、移动、复制、删除等。 在ModelArts Notebook中使用MoXing接口时,可直接调用接口,无需下载或安装SDK,使用限制比ModelArts SDK和OBS SDK少,非常便捷。
  • 在续费管理页面开通自动续费 登录管理控制台。 单击“控制台”页面上方“费用”,在下拉菜单中选择“续费管理”。 进入“续费管理”页面。 自定义查询条件。 可在“自动续费项”页签查询已经开通自动续费的资源。 可对“手动续费项”、“到期转按需项”、“到期不续费项”页签的资源开通自动续费。 为包年/包月资源开通自动续费。 单个资源开通自动续费:选择需要开通自动续费的弹性公网IP,单击操作列“开通自动续费”。 批量资源开通自动续费:选择需要开通自动续费的弹性公网IP,单击列表左上角的“开通自动续费”。 图2 多个资源开通自动续费 选择续费时长,并根据需要设置自动续费次数,单击“开通”。
  • 包年/包月到期转按需计费(按带宽计费) 进入EIP列表页面。 在弹性公网IP列表中,支持操作单个弹性公网IP或者批量操作多个弹性公网IP,请您根据需要选择以下指导,将包年/包月EIP转为按需计费(按带宽计费)EIP: 单个弹性公网IP: 单击目标弹性公网IP所在行的操作列下的“更多”,选择“到期转按需”。 多个弹性公网IP: 勾选多个弹性公网IP,在列表左上方,单击“更多”,选择“到期转按需”。 跳转至费用中心的到期转按需页面 。 确认IP信息,单击“到期转按需”。
  • 包年/包月即时转按需计费(按带宽计费) 进入EIP列表页面。 在弹性公网IP列表中,支持操作单个弹性公网IP或者批量操作多个弹性公网IP,请您根据需要选择以下指导,将包年/包月EIP转为按需计费(按带宽计费)EIP: 单个弹性公网IP: 单击目标弹性公网IP所在行的操作列下的“更多”,选择“即时转按需”。 多个弹性公网IP: 勾选多个弹性公网IP,在列表左上方,单击“更多”,选择“即时转按需”。 在确认弹窗中,确认无误后,单击“是”。 在“费用中心”的“包年/包月转按需”页面,确认费用信息无误后,单击“转按需”,完成修改。 包年/包月即时转按需会退还当前周期的剩余费用,订单完成后,按需的资费模式立即生效,具体计费规则请参见包年/包月即时转按需。
  • 包年/包月即时转按需计费(按带宽计费) 进入共享带宽列表页面。 在共享带宽列表中,支持操作单个共享带宽或者批量操作多个共享带宽,请您根据需要选择以下指导,将包年/包月的共享带宽转为按需计费(按带宽计费)的共享带宽: 单个共享带宽: 单击目标共享带宽所在行的操作列下的“更多”,选择“即时转按需”。 多个共享带宽: 勾选多个共享带宽,在列表左上方,单击“即时转按需”。 在确认弹窗中,确认无误后,单击“是”。 在“费用中心”的“包年/包月转按需”页面,确认费用信息无误后,单击“转按需”,完成修改。 包年/包月即时转按需会退还当前周期的剩余费用,订单完成后,按需的计费模式立即生效,具体计费规则请参见包年/包月即时转按需。
  • 包年/包月到期转按需计费(按带宽计费) 进入共享带宽列表页面。 在共享带宽列表中,支持操作单个共享带宽或者批量操作多个共享带宽,请您根据需要选择以下指导,将包年/包月的共享带宽转为按需计费(按带宽计费)的共享带宽: 单个共享带宽: 单击目标共享带宽所在行的操作列下的“更多”,选择“到期转按需”。 多个共享带宽: 勾选多个共享带宽,在列表左上方,单击“到期转按需”。 在确认弹窗中,确认无误后,单击“是”。 在“费用中心”的“到期转按需”页面,确认IP信息,单击“到期转按需”。
  • 在费用中心续费 登录管理控制台。 单击“控制台”页面上方“费用”,在下拉菜单中选择“续费管理”。 进入“续费管理”页面。 自定义查询条件。 可在“手动续费项”、“自动续费项”、“到期转按需项”、“到期不续费项”页签查询待续费资源,对资源进行手动续费的操作。 所有需手动续费的资源都可归置到“手动续费项”页签,具体操作请参见如何恢复为手动续费。 手动续费资源。 单个续费:在资源页面找到需要续费的资源,单击操作列的“续费”。 批量续费:在资源页面勾选需要续费的资源,单击列表左上角的“批量续费”。 选择弹性公网IP的续费时长,判断是否勾选“统一到期日”,将弹性公网IP到期时间统一到各个月的某一天(详细介绍请参见统一包年/包月资源的到期日)。确认配置费用后单击“去支付”。 进入支付页面,选择支付方式,确认付款,支付订单后即可完成续费。
  • PO机会点主要验证哪些环节? ①重复处理原则: HO以Cloud CRM创建机会点的时间点为准,PO以机会点审核通过的时间点为准,时间更早的为准。应避免PO与HO重复,或者PO与PO重复。 ②有效性处理原则:经过客户负责人与客户交流确认后,如果存在下述任何一个问题,则驳回机会点: 客户确认机会点不存在,或者已完成交易 → 驳回 客户没有预算,或没有明确的下单时间 → 驳回 客户需求与华为云无关,无法从客户侧或者伙伴侧获得华为云增量收入 → 驳回 父主题: 共享给华为(PO)
  • ECS费用归集方式变更说明 为提升客户对账体验,弹性 云服务器ECS 费用归集方式于2023年8月1日进行了更新,更新内容如下,请您关注。 示例:您购买了一套ECS产品,包含:弹性云服务器、云硬盘、镜像、虚拟私有云。 变更前:弹性云服务器ECS的下属子资源如:云主机、系统盘、数据盘、镜像会分别出账,费用分别在弹性云服务器ECS、云硬盘EVS(系统盘+数据盘)、镜像IMS下呈现,分别为¥100.00、¥50.00、¥50.00。 变更后(包年/包月计费模式):弹性云服务器ECS的下属子资源如:云主机、系统盘、数据盘、镜像*会按照弹性云服务器服务出账,费用统一归集到弹性云服务器ECS下,为¥200.00。共享盘保持不变,费用仍归属到云硬盘EVS下,单独出账,为¥40.00。 变更后(按需计费模式):弹性云服务器ECS的下属子资源如:云主机、系统盘、镜像*会按照弹性云服务器服务出账,费用统一归集到弹性云服务器ECS下,为¥170.00。数据盘和共享盘保持不变,费用仍归属到云硬盘EVS下,分别为¥30.00和¥40.00。 说明: ① *处的镜像指华为云镜像,费用归集到弹性云服务器ECS产品类型下。云商店镜像仍会单独出账,费用归集到IMS产品类型下。下文中的镜像均指华为云镜像。 ②单独购买的云硬盘、镜像等服务则不受此影响,费用仍会汇总在云硬盘EVS、镜像IMS下。 父主题: 其他
  • 机会点重复处理原则? PCE机会点重复处理原则:当多个PO或者HO出现重复时,仅允许一个PCE机会点通过。 多个PO重复:原则上以“机会点验证通过”的提交时间点为准;伙伴提交的机会点状态为“机会点验证通过”后,不再接受其他伙伴提交的重复机会点。 PO和HO重复:HO以提交时间点为准,PO以 “机会点验证通过”的提交时间点为准,按照时间点优先判定机会点来源。 BD是处理“机会点重复”的第一责任人。 父主题: 共享给华为(PO)
  • 申请提现 线上充值:对于线上充值到华为云账户的款项,当签约主体变更后申请提现,系统会原路退回到相应的支付宝、微信、个人网银、企业网银等充值账户,即变更前充值支付的,会使用华为软件的银行账户退款,变更后充值支付的,会使用 华为云计算 的银行账户退款。 线下转账汇款:对于线下转账汇款到华为云账户的款项,当签约主体变更后申请提现,系统统一使用华为云计算的银行账户退款,有可能出现收退款账户不一致问题。 举例:充值时向华为云的银行账户(华为软件)线下打款10万,消费8万,签约主体变更后,伙伴申请余额提现2万,华为云使用新的银行账户(华为云计算)退款,收退款账户不一致。
  • 开具发票 场景一:签约主体变更后账户余额在后续消费时如何开票? 签约主体变更前未开过发票的余额部分,后续消费,由华为云计算开票; 签约主体变更前已开过发票的余额部分,后续消费,不再开票。 举例:账户余额100元,其中有20元之前已开票(欠票),80元未开票。签约主体变更后新下单消费90元,账户余额为10元,可开票金额为70元,20元不开票。70元由华为云计算开票 。 场景二:签约主体变更前已消费未开票的订单,签约主体变更后如何开票? 可以开票,由华为软件开票。 举例:已下单消费100元,一直未开票,可开票金额为100元。签约主体变更后,这笔消费可以继续申请开票,开票主体为华为软件。 场景三:退订、退款部分后续消费如何开票? 退订的订单未开过发票的退款部分,后续消费,由华为云计算开票; 退订的订单有开过发票的退款部分,后续消费,不再开票。 举例1:已下单消费100元,一直未开票。签约主体变更后,退订该笔订单,退款80元。重新下单消费 50元,可开票金额为50元,开票主体为华为云计算。 举例2:已下单消费100元,已开票。签约主体变更后,退订该笔订单且未退票,退款80元(欠票为80元),重新下单消费50元(欠票为30元)。
  • 伙伴提交商机(PO)时需要注意什么? 1)PO商机必须是伙伴已经投入足够的努力,包括客户会谈、需求对齐、方案讨论等活动,从客户侧获得的确定性项目需求,不能是公开招标、道听途说、简单猜想的客户需求,且面向的客户是华为云的已有客户或者潜在客户。 2) 伙伴提交的PO应当满足:客户有采购或获取华为可提供的产品/服务/解决方案的意愿或规划,已经有初步的投资计划或预算,客户非常有可能在一年或更短的时间内进行采购,或者正处于采购计划的初期阶段,如顶层设计、需求规划、准备标书等。一旦机会点验证完成后,就可以投入销售资源,期待将此机会点转化成交易。 3)在共享商机给华为之前,需要获取客户的相关授权,避免在未经客户同意的情况下将客户敏感商业秘密提供给华为。 父主题: 共享给华为(PO)
  • 伙伴要满足哪些条件才能收到华为云共享的商机(HO)? 伙伴想要获得华为云共享的HO,在成功加入合作伙伴共拓计划后,满足如下两个条件之一,则有机会获得华为云共享的机会点HO: 1)伙伴发展路径进入“差异化”阶段; 2)伙伴发展路径进入“已认证”阶段且近12个月内有3个已经签单且完成交付的PO。。 注意:由于合作伙伴共拓计划还处于推广阶段,在HO中对伙伴Offering的类型存在一定的限制,要求伙伴有基线解决方案或白名单联营商品后,才能将HO与伙伴方案建立关联。请留意最新的Offering类型要求。 父主题: 由华为共享(HO)
共100000条