检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在“连接管理”页签,单击“新建连接”。 参考CDM服务的新建连接页面,分别添加到迁移源端集群和迁移目的端集群的两个HDFS连接。 连接类型根据实际集群来选择,如果是MRS集群,连接器类型可以选择“MRS HDFS”,如果是自建集群可以选择“Apache HDFS”。 图2 HDFS连接 步骤2:新建迁移作业
登录FusionInsight Manager页面,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“仅配置文件”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
Hudi表概述 Hudi表类型 Copy On Write 写时复制表也简称cow表,使用parquet文件存储数据,内部的更新操作需要通过重写原始parquet文件完成。 优点:读取时,只读取对应分区的一个数据文件即可,较为高效。 缺点:数据写入的时候,需要复制一个先前的副本再
表示作业的日志信息。如果作业有输出日志,则显示。 “ID” 表示作业的编号,由系统自动生成。 “Name” 表示作业的名称。 “Application Type” 表示作业的类型。 “Status” 表示作业的状态,包含“RUNNING”、“SUCCEEDED”、“FAILED”和“KILLED”。 “User” 表示启动该作业的用户。
单击“确定”保存。 在MRS Manager界面选择“系统设置>用户管理>添加用户”,为样例工程创建一个用户。填写用户名例如sparkuser,用户类型为“机机”用户,加入用户组supergroup和kafkaadmin,设置其“主组”为supergroup,并绑定角色sparkrole取得权限,单击“确定”。
Hudi表概述 Hudi表类型 Copy On Write 写时复制表也简称cow表,使用parquet文件存储数据,内部的更新操作需要通过重写原始parquet文件完成。 优点:读取时,只读取对应分区的一个数据文件即可,较为高效。 缺点:数据写入的时候,需要复制一个先前的副本再
启动SSL的相关服务。 false security.inter.broker.protocol Broker间通信协议,支持以下四种协议类型: PLAINTEXT:支持无认证的明文访问,默认端口号为9092,可通过查看参数“port”的值获取。 SASL_PLAINTEXT:支
broadcastTimeout BroadcastHashJoin中广播表的超时时间,当任务并发数较高的时候,可以调高该参数值。 -1(数值类型,实际为五分钟) 父主题: Spark SQL性能调优
选择告警级别。开启“分级告警开关”后,需在“阈值设置”参数中配置告警级别。告警级别包括: 紧急 重要 次要 提示 重要 阈值类型 选择某指标的最大值或最小值,类型为“最大值”表示指标的实际值大于设置的阈值时系统将产生告警,类型为“最小值”表示指标的实际值小于设置的阈值时系统将产生告警。 最大值 日期 设置规则生效的日期,即哪一天运行规则。取值范围为:
授权Yarn权限 ,单击“确定”保存。 单击“系统设置 > 用户管理 > 添加用户”,为样例工程创建一个用户。 填写用户名,例如hiveuser,用户类型为“机机”用户,加入用户组supergroup,设置其“主组”为supergroup,并绑定角色hiverole取得权限,单击“确定”,如图4所示。
数据连接。元数据将存储于关联的数据库中,不会随当前MRS集群的删除而删除,多个MRS集群可共享同一份元数据。 MRS集群支持的外置数据连接类型为: 安装了Hive组件的集群支持连接“RDS服务PostgreSQL数据库”,且Postgres数据库版本号为PostgreSQL14。
描述 table_name 待删除数据的表名,支持database.tablename格式 delete statement select类型的sql语句,用于找出待删除的数据 示例 从mytable表中删除primaryKey < 100 的所有数据: call clean_data(table
义Column的数量和类型。HBase中表的列非常稀疏,不同行的列的个数和类型都可以不同。此外,每个CF都有独立的生存周期(TTL)。可以只对行上锁,对行的操作始终是原始的。 Column 与传统的数据库类似,HBase的表中也有列的概念,列用于表示相同类型的数据。 RegionServer数据存储
h join或hash aggregation类型的SQL任务),Shuffle过程中的排序并非必须的。但是Shuffle却默认必须进行排序,所以需要对此处进行改进。 此特性通过对MapReduce API进行增强,能自动针对此类型任务关闭Sort过程。当Sort被关闭,获取Ma
密码字符长度为16~32位。 至少需要包含大写字母、小写字母、数字、特殊字符`~!@#$%^&*()-_=+|[{}];,<.>/?中的3种类型字符。 不可和用户名相同或用户名的倒序字符相同。 不可与当前密码相同。 勾选“我已阅读此信息并了解其影响”,单击“确定”确认修改并重启服务。
指定当前租户的名称,长度为3~50个字符,可包含数字、字母或下划线(_)。 根据业务需求规划子租户的名称,不得与当前集群中已有的角色、HDFS目录或者Yarn队列重名。 租户类型 指定租户是否是一个叶子租户: 选择“叶子租户”:当前租户为叶子租户,不支持添加子租户。 选择“非叶子租户”:当前租户为非叶子租户,支持添加子租户,但租户层级不能超过5层。
表1 模块说明 名称 说明 Source Source负责接收数据或产生数据,并将数据批量放到一个或多个Channel。Source有两种类型:数据驱动和轮询。 典型的Source样例如下: 和系统集成并接收数据的Sources:Syslog、Netcat。 自动生成事件数据的Sources:Exec、SEQ。
会有不同的资源分配顺序。 对于即席查询和批量查询,可以根据不同的SQL类型进行更合理的资源分配。 可以对不同的查询类型,比如EXPLAIN、INSERT、SELECT和DATA_DEFINITION等类型,匹配到不同的资源组,分配不同的资源来执行查询。 启用资源组 在创建计算实
[sat|scsi]+megaraid,[DID] -H --all /dev/sd[x]命令检查硬件是否支持smart。 [sat|scsi]表示磁盘类型,需要尝试以上两种类型。 [DID]表示槽位信息,需要尝试0~15。 例如依次执行: smartctl -d sat+megaraid,0 -H --all
同一集群内,不允许配置相同的路径。不同集群之间,可以配置相同的路径。 参数 - 引导操作脚本参数。 执行节点 - 选择引导操作脚本所执行的节点类型。 执行时机 组件首次启动后 选择引导操作脚本执行的时间。 组件首次启动前 组件首次启动后 说明: 为已运行的集群添加引导操作时,只能通过