检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在企业路由器中配置VPC连接 操作场景 本章节指导用户在企业路由器中配置“虚拟私有云(VPC)”连接,即将VPC接入企业路由器中,并配置企业路由器和VPC的路由。 操作步骤 将3个VPC分别接入企业路由器中。 添加“虚拟私有云(VPC)”连接,具体方法请参见在企业路由器中添加VPC连接。
为什么在Spark Shell中不能执行更新命令? 问题 为什么在Spark Shell中不能执行更新命令? 回答 本文档中给出的语法和示例是关于Beeline的命令,而不是Spark Shell中的命令。 若要在Spark Shell中使用更新命令,可以使用以下语法。 语法1 <carbon_context>
package 上述打包命令中的{maven_setting_path}为本地Maven的settings.xml文件路径。 打包成功之后,在工程根目录的“target”子目录下获取打好的jar包,例如“MRTest-XXX.jar”,jar包名称以实际打包结果为准。 上传生成的应用包“MRTest-XXX
需要在运行样例代码的本机hosts文件中设置访问节点的主机名和IP地址映射,主机名和IP地址请保持一一对应。 操作步骤 单击IDEA右边Maven窗口的“Reimport All Maven Projects”,进行maven项目依赖import。 图1 reimport projects
、问题列表、课程学习记录的导入导出记录均可以在这里筛选查看并下载。 业务处理 条目批量提交,任务批量提交,许可管理中的业务异步处理记录均可以在这里筛选查看并下载。 场景切换 切换在“首页模板”中已设置好的平台场景,详细配置参考19.13章 退出登录 退出当前账号的登录状态 (可选)点击,可以进行问题反馈
您已经对大数据领域各组件具备一定的认识。 您已经对弹性云服务器的使用方式和MRS服务开发组件有一定的了解。 您已经对Maven构建方式具备一定的认识和使用方法有一定了解。 您已经对Java语法具备一定的认识。 MRS组件应用开发流程说明 通常MRS组件应用开发流程如下所示,各组件应用的开发编译操作可参考组件开发指南对应章节。
您已经对大数据各组件具备一定的认识。 您已经对Java语法具备一定的认识。 您已经对弹性云服务器的使用方式和MapReduce服务开发组件有一定的了解。 您已经对Maven构建方式具备一定的认识和使用方法有一定了解。 MRS应用开发流程说明 通常MRS应用开发流程如下图所示,各组件应用的开发编译操作可参考组件开发指南对应章节。
属性融合依据的是哪一步的数据来配置的 属性融合依据的是您图谱里现有的实体和您创建图谱或更新图谱时新加入的实体,如果是首次创建图谱,那就没有现有实体。 在创建知识图谱时,当您配置知识映射后,您需要配置知识融合,设置知识融合判断属性及相似度函数参数,完成新知识图谱的创建。 实体需要融
您可以对已安装UniAgent的主机执行如下相关操作: 表5 相关操作 操作 说明 搜索主机 在主机列表上方的搜索框,可以通过服务器ID,服务器名称,运行状态来搜索对应主机。 刷新主机列表 单击主机列表右上角的按钮,可刷新主机列表信息。 设置主机展示列 单击主机列表右上角的按钮,可对已接入的主机展示列进行设置。
企业管理华为云上多租户的联邦认证 场景描述 部分企业级用户在公有云上存在多账号,并且通过企业级IDP系统联邦登录至公有云对不同账号进行操作,需要提前通过API自动配置联邦认证。 本章节指导用户如何使用API调用的方式自动配置联邦认证。 前提条件 账号进行注册或导入操作需要拥有Security
上表中非云服务的数据源,例如MySQL,既可以支持用户本地数据中心自建的MySQL,也可以是用户在ECS上自建的MySQL,还可以是第三方云的MySQL服务。 整库迁移支持的数据源类型 整库迁移适用于将本地数据中心或在ECS上自建的数据库,同步到云上的数据库服务或大数据服务中,适用于数
选择“本地资源”页签,并单击“本地设备和资源”栏的“详细信息”。 图2 本地资源 勾选“驱动器”和“其他支持的即插即用(PnP)设备”,并单击“确定”,将本地主机上的所有磁盘映射到Windows云服务器。 如果只需要映射部分本地主机上的磁盘到Windows云服务器,请展开“驱动器”,勾选待映射的磁盘设备。 图3
系统盘和数据盘可支持的最大容量是多少 系统盘可以支持的最大容量为1024 GiB。 数据盘可以支持的最大容量为32768 GiB。 父主题: 云硬盘容量问题
华为云自身安全体系保护区块链稳定运行。 基于Hyperledger的安全体系通过证书管理、链式数据结构等手段实现不可篡改、隐私保护。 自主创新的同态加密、零知识证明等算法提供更进一步的安全隐私保护。 支持基于国密算法的加解密。 可信协作 基于区块链构建多方可信协作的基础设施: 基于W3C的DID标准和VC(DID可验
在迈向卓越运营的过程中,推荐使用如下问题寻找自身可以改进的点,并参考检查项/最佳实践进行改进,以下所有的检查项,也是最佳实践建议,将在下一章节进行详细描述。 问题 检查项/最佳实践 OPS01 您是否已经建立持续改进的团队文化和标准化运维体系? 1. 建立持续学习和改进的文化 2. 规划标准化的运维组织
请参见Oracle数据库迁移时支持的数据类型。 PostgreSQL 请参见PostgreSQL数据库迁移时支持的数据类型。 神通(ST) 请参见神通(ST)数据库迁移时支持的数据类型。 SAP HANA 请参见SAP HANA数据库迁移时支持的数据类型。 DWS 请参见DWS数据库迁移时支持的数据类型。
count() 返回的是dataset中的element的个数。 T first() 返回的是dataset中的第一个元素。 java.util.List<T> take(int num) 返回前n个elements。 java.util.List<T> takeSample(boolean
Streaming三个组件,其应用开发流程相同。 开发流程中各阶段的说明如图1和表1所示。 图1 Spark应用程序开发流程 表1 Spark应用开发的流程说明 阶段 说明 参考文档 了解基本概念 在开始开发应用前,需要了解Spark的基本概念,根据实际场景选择需要了解的概念,分为Spark Core基本概念、Spark
返回该RDD与其它RDD的笛卡尔积。 表2 Action API 说明 reduce(f: (T, T) => T): 对RDD中的元素调用f。 collect(): Array[T] 返回包含RDD中所有元素的一个数组。 count(): Long 返回的是dataset中的element的个数。
返回该RDD与其它RDD的笛卡尔积。 表2 Action API 说明 reduce(f: (T, T) => T): 对RDD中的元素调用f。 collect(): Array[T] 返回包含RDD中所有元素的一个数组。 count(): Long 返回的是dataset中的element的个数。