检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
xml”、“hdfs-site.xml”、“hbase-site.xml”和用于安全认证的用户凭证文件放置到“src/main/resources”的目录下。 安全登录 请根据实际情况,修改“userName”为实际用户名,例如“developuser”。 在Windows环境下和Linux环境下请使用对应的路径获取方式。
多业务量、高并发的情况可以考虑扩容实例。 观察界面告警是否清除。 是,处理完毕。 否,执行5。 检查告警阈值配置或者平滑次数配置是否合理。 登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Doris > 队列 > BE的各种定期汇报任务在FE端的队列长度
Manager页面,在告警列表中,单击此告警所在行的,查看附加信息中的描述信息。明确具体发生告警源IP地址及目标IP,并记录两个IP地址。 登录告警上报节点,在告警上报节点上使用ping命令,向目标节点手动发起ping请求,检查两个节点之间的网络状态是否正常。 是,执行6 否,执行3。
} if (connection != null) { try { // 关闭Hbase连接. connection.close(); } catch (IOException e) {
} if (connection != null) { try { // 关闭Hbase连接. connection.close(); } catch (IOException e) {
Executor注册shuffle service的超时时间是5秒,最多重试3次,该参数目前不可配。 建议适当调大task retry次数和Executor失败次数。 在客户端的“spark-defaults.conf”配置文件中配置如下参数。“spark.yarn.max.executor.failures”若不存在,则手动添加该参数项。
如果通过MRS管理控制台操作,需要已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 添加删除集群组件步骤 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,选择“组件管理 > 添加服务”。
创建MRS集群数据备份任务 Manager支持在界面上创建备份任务,运行备份任务对指定的数据进行备份。 创建数据备份任务(MRS 3.x及之后版本) 登录FusionInsight Manager。 选择“运维 > 备份恢复 > 备份管理 > 创建”。 图1 创建备份任务 设置“备份对象”为“OMS”或需要备份数据的集群。
admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 重新提交任务。 查看任务是否成功执行。 是,执行9。 否,执行5。 检查Yarn执行任务时是否出现异常。 打开FusionInsight
新增加一个自定义函数。 在“设置” ,在“设置”的“键”输入Hive的参数名,在“值”输入对应的参数值,则当前Hive会话会以用户定义的配置连接Hive。 可以单击 新增加一个参数。 父主题: 创建Hue操作任务
class); kryo.register(AggrateValue.class); } } 您可以在Spark客户端对spark.kryo.registrationRequired参数进行配置,设置是否需要Kryo注册序列化。 当参数设置为true时,如
MetaStore GC时间过长或元数据库异常(如磁盘IO使用率过高、长事务过多等)。 处理步骤 查看MetaStore GC时间是否过长。 登录FusionInsight Manager界面,选择“运维 > 告警 > 告警”,在告警列表中查看是否上报“Hive服务进程堆内存使用超出阈值”告警。
可能原因 CDL任务异常,数据停止处理;或源端数据库更新快,CDL数据处理较慢。 处理步骤 使用具有创建CDL任务的用户或者具有管理员权限的用户登录FusionInsight Manager。 选择“运维 > 告警 > 告警”,单击“告警ID”为“45617”所在行的,在“定位信息”中查看发生该告警的作业名称。
是,执行13。 否,执行10。 勾选两个Nimbus角色实例,选择“更多 > 重启实例”,查看是否重启成功。 是,执行11。 否,执行13。 重新登录FusionInsight Manager管理界面,选择“集群 > 待操作集群的名称 > 服务 > Storm > Nimbus”,查看运行状态是否为“良好”。
} if (connection != null) { try { //关闭Hbase连接. connection.close() } catch { case e: IOException
样例中的client.properties配置如下: impala-server = XX.XX.XX.XX:21050 ##指定要连接的impalad实例所在Core节点绑定的服务地址,方式二需要填写步骤1中绑定的弹性公网IP 查看结果。 查看样例代码中的Impala S
jar的方式创建function,此function在各个JDBCServer实例之间是不可见的。执行drop function时,如果该session连接的JDBCServer实例不是创建function的JDBCServer实例,则在该session中找不到该function,而且hive默认将“hive
务直接丢弃,不进行处理。 若Streaming应用中使用了state函数,则不允许开启对接Kafka可靠性功能。 配置描述 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数说明 参数 说明 默认值 spark.streaming.Kafka
worker增加并行split任务执行数,保证RegionServer worker能并行处理split work(RegionServer需要有更多的核心)。在“客户端安装路径/HBase/hbase/conf/hbase-site.xml”中添加参数: “hbase.regionserver.wal.max
streaming.StreamingExampleProducer {BrokerList} {Topic} 如果开启了kerberos认证,需要将客户端的配置文件“spark-defaults.conf”和sparkJDBC服务端中的配置项spark.yarn.security.credentials