检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
提供了限制Coordinator在指定NodeManager节点上运行的方案。 操作步骤 使用可访问HetuEngine WebUI界面的用户登录FusionInsight Manager。 配置Yarn参数指定scheduler处理PlacementConstraints。 选择“集群
法显示此网页。 解决措施: 建议用户使用FusionInsight代理去访问Spark JobHistory页面,即单击如图2中蓝框所示的Spark WebUI的链接。 图2 FusionInsight Manager的Spark2x页面 如果用户需要不通过FusionInsight
如果您持有多个到期日不同的MRS集群,或者您的MRS集群和其上挂载的云硬盘到期日不同,可以将到期日统一设置到一个日期,便于日常管理和续费。 图2展示了用户将两个不同时间到期的资源,同时续费一个月,并设置“统一到期日”后的效果对比。 图2 统一到期日 更多关于统一到期日的规则请参见如何设置统一到期日。
yarn.security.credentials.hbase.enabled=true。但不建议直接用HBase客户端的hbase-site.xml替换Spark客户端下的hbase-site.xml,两者并不是完全相同。 问题2:需要将HBase相关的包使用--jars上传。 父主题:
max.bytes进行检索。 MRS中Kafka服务端默认可以接收的消息最大为1000012 bytes =977 KB。 解决办法 与用户确认,当前Flume发送数据确实存在超过1M的消息。因此,为了确保当前这些消息能够写入Kafka,需要调整Kafka服务端相关参数。 修改message
xml”和“hdfs-site.xml”。 认证文件为准备集群认证用户信息获取的keytab认证文件“user.keytab”和“krb5.conf”。 hbase-examples/hbase-example(多集群互信场景) 将互信场景下的同名用户其中一个集群的认证凭据及其配置文件放入“../s
[5, 6, 7] | [25, 36, 49] (3 rows) 利用transform()函数将数组元素转为字符串,无法转换则转为NULL输出,避免报错产生: SELECT transform(prices, n -> TRY_CAST(n AS VARCHAR)
”。 收集异常故障日志时间长短可以咨询技术支持人员。 单击“下载”,实时转储的系统表会被保存在本地。 收集一键转储系统表日志 使用root用户后台登录任一ClickHouseServer节点,进入到sbin目录下。 cd ${BIGDATA_HOME}/FusionInsight
时间监控信息 图2 关系图 回答 Flink引入了第三方软件包RocksDB的缺陷问题导致该现象的发生。建议用户将checkpoint设置为FsStateBackend方式。 用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new
时间监控信息 图2 关系图 回答 Flink引入了第三方软件包RocksDB的缺陷问题导致该现象的发生。建议用户将checkpoint设置为FsStateBackend方式。 用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new
Manager页面加载卡顿 用户问题 MRS集群Manager页面加载卡顿。 问题现象 登录MRS集群的Manager页面,单击一个按钮需要等一分钟后才能加载到数据,部分按钮单击后卡顿无法访问。 原因分析 查看“/var/log/Bigdata/omm/oms/pms/scriptlog/pms_script
法显示此网页。 解决措施: 建议用户使用FusionInsight代理去访问Spark JobHistory页面,即单击如图2中蓝框所示的Spark WebUI的链接。 图2 FusionInsight Manager的Spark2x页面 如果用户需要不通过FusionInsight
strleft()等函数截取中文字符时,不能把中文当做1个字符长度来处理,导致报编码问题。 处理步骤 登录Impala客户端安装节点,执行以下命令。 cd 客户端安装目录 source bigdata_env 执行以下命令创建表。 impala-shell -d bigdata 执行以下命令查询表数据。
-e "" --hivevar batchid=xxxxx --hivevar kill=true 登录beeline客户端,启动断线重连机制。 登录beeline客户端后,执行“set hivevar:batchid=xxxx” 使用说明: 其中“xxxx”表示每一次通过beeli
出现上面的问题。 为了解决上面问题,需要对参数进行调整。 增大partition数,把任务切分的更小。 增大任务执行过程中的超时时间。 在客户端的“spark-defaults.conf”配置文件中配置如下参数。 表2 参数说明 参数 描述 建议值 spark.sql.shuffle
出现上面的问题。 为了解决上面问题,需要对参数进行调整。 增大partition数,把任务切分的更小。 增大任务执行过程中的超时时间。 在客户端的“spark-defaults.conf”配置文件中配置如下参数。 表2 参数说明 参数 描述 建议值 spark.sql.shuffle
导入并配置MapReduce样例工程 操作场景 MapReduce针对多个场景提供样例工程,帮助客户快速学习MapReduce工程。 以下操作步骤以导入MapReduce样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 前提条件 确保本地环境的时间与MRS集群的时间差要
时间监控信息 图2 关系图 回答 Flink引入了第三方软件包RocksDB的缺陷问题导致该现象的发生。建议用户将checkpoint设置为FsStateBackend方式。 用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new
many simultaneous queries. Maximum: 100 处理步骤 登录ClickHouse客户端节点,连接报错的服务端,具体请参考ClickHouse客户端使用实践。 执行如下命令查看正在执行的SQL任务,查看当前的并发数: select count(*) from
时间监控信息 图2 关系图 回答 Flink引入了第三方软件包RocksDB的缺陷问题导致该现象的发生。建议用户将checkpoint设置为FsStateBackend方式。 用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new