检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
终止后认为driver失联,然后整个应用停止。 解决办法:在Spark客户端的“spark-defaults.conf”文件中或通过set命令行进行设置。参数配置时要保证channel过期时间(spark.rpc.io.connectionTimeout)大于或等于RPC响应超时时间(spark
inline=true时有效。 false hoodie.run.compact.only.inline 通过Sql执行run compaction命令时,是否只执行压缩操作,压缩计划不存在时直接退出。 false 父主题: Hudi常见配置参数
Manager的控制进程,负责各种管理动作的执行: Web Service将各种管理动作(安装、启停服务、修改配置等)下发到Controller。 Controller将命令分解,分解后将动作下发到每一个Node Agent。例如启动一个服务,会涉及多个角色和实例。 Controller负责监控每一个动作的执行情况。
(SplitLogManager.java:745) 节点上下电,RegionServer的wal分裂失败导致。 解决办法 停止HBase组件。 通过hdfs fsck命令检查/hbase/WALs文件的健康状态。 hdfs fsck /hbase/WALs 输出如下表示文件都正常,如果有异常则需要先处理异常的文件,再执行后面的操作。
为一个大的segment。所有指定的segment的id必须存在并且有效,否则合并将会失败。Custom合并通常在非高峰时段进行。 具体的命令操作,请参考ALTER TABLE COMPACTION。 表1 合并参数 参数 默认值 应用类型 描述 carbon.enable.auto
查看当前集群是否存在正在运行的任务。 是,等待任务运行结束。 否,检查结束。 检查主备节点磁盘空间 分别登录主备OMS节点,查看磁盘使用信息。 执行以下命令,查看“/”目录的可用空间是否大于30GB。 df -h / 否,清理磁盘空间。 是,检查结束。 检查集群是否已经支持root补丁特性 集群是否已经安装了MRS
限操作您的集群Manager界面。 授权操作:选择“高级授权”的授权类型时配置该参数。可以授权集群Manager上集群、服务、实例、主机、命令等各项操作权限。 配置完成后,勾选确认信息,并单击“确定”,并进行二次确认。 可以在页面右上角单击“运维”,选择“集群界面授权 > 查看授权信息”查看授权详细信息。
com时,则此处应填写hive/hadoop.abc.com@ABC.COM。 确保可以正常的认证连接HiveServer。 在客户端执行以下命令 source 客户端安装目录/bigdata_env kinit username 然后再使用客户端执行beeline,确保可以正常运行。
止后认为driver失联,然后整个应用停止。 解决办法: 在Spark客户端的“spark-defaults.conf”文件中或通过set命令行进行设置。参数配置时要保证channel过期时间(spark.rpc.io.connectionTimeout)大于或等于RPC响应超时时间(spark
Lifecycle > clean”,双击“clean”运行Maven的clean命令。 选择“Maven > 样例工程名称 > Lifecycle > compile”,双击“compile”运行Maven的compile命令。 编译完成,打印“Build Success”,生成target目录。
”,重试恢复任务。 以omm用户分别登录主、备管理节点。 执行以下命令,重新启动OMS。 sh ${BIGDATA_HOME}/om-server/om/sbin/restart-oms.sh 提示以下信息表示命令执行成功: start HA successfully. 执行sh
void main(String[] args) throws Exception { // 打印出执行flink run的参考命令 System.out.println("use command as: "); System.out.println("
void main(String[] args) throws Exception { // 打印出执行flink run的参考命令 System.out.println("use command as: "); System.out.println("
器能与解压目录下“hosts”文件中所列出的各主机在网络上互通。 当客户端所在主机不是集群中的节点时,配置客户端网络连接,可避免执行客户端命令时出现错误。 Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。
void main(String[] args) throws Exception { // 打印出执行flink run的参考命令 System.out.println("use command as: "); System.out.println("
选择“作业管理”的“表/文件迁移”页签,在待运行作业的“操作”列单击“运行”,即可开始Hive数据迁移。 迁移完成后,可以在目的端集群和源端集群的Hive Beeline命令行中,通过同样的查询语句,对比查询结果进行验证。 例如在目的端集群和源端集群上通过查询catalog_sales表的记录数来确认数据条数是否一致。
客户端异常断开场景,Broker内存泄露。 KAFKA-5417 并发场景下,客户端连接状态不一致。 HBase问题 HBase解决每次执行balance命令,重复计算region location的问题 补丁兼容关系 MRS 1.7.1.6补丁包中包含MRS 1.7.1.1,MRS 1.7.1
properties 输入消息内容: 3,zhangsan 4,wangwu 8,zhaosi 输入完成后按回车发送消息。 登录MySQL客户端执行以下命令查看Sink表中是否接收到数据。 Select * from customer_t1; JDBC作为Source表(以MySQL为例) 使
ThriftServer默认在安装节点上的10000端口起一个JDBC服务,可以通过Beeline或者JDBC客户端代码来连接它,从而执行SQL命令。 如果您需要了解ThriftServer的其他信息,请参见Spark官网。 Beeline 开源社区提供的Beeline连接方式,请参见:https://cwiki
user/omm/.Trash user/hive/.Trash 对应的“.Trash”文件夹若不存在需使用omm用户通过集群客户端手动创建。 例如执行以下命令: hdfs dfs -mkdir -p obs://表所在的OBS并行文件系统名称/文件夹路径 Spark user/omm/.Trash