检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户需要在FlinkServer中对指定的用户设置权限,才能够更新数据、查询数据和删除数据等。 前提条件 集群管理员已根据业务需要规划权限。 操作步骤 登录Manager。 选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 设置角色“配置资源权限”。
rver的节点的业务平面IP地址。HiveServer业务平面IP地址可登录FusionInsight Manager,选择“集群 > 服务 > Hive > 实例”查看。 执行以下命令运行Python客户端: cd python-examples python pyCLI_nosec
原因分析 BE安装节点有多个网卡IP,没有正确设置“priority_network”参数值导致BE启动时匹配了错误的IP地址。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > Doris > 配置”。 搜索“priority_network”参
如果当前组件使用了Ranger进行权限控制,须基于Ranger配置相关策略进行权限管理,具体操作可参考添加Kafka的Ranger访问权限策略。 操作步骤 登录FusionInsight Manager,选择“系统 > 权限 > 角色”。 单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。
对系统的影响 当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 可能原因 Flume实例全部故障。 处理步骤 以omm用户登录Flume实例所在节点,执行ps -ef|grep "flume.role=server"命令查看当前节点是否存在flume进程。 是,执行3。
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 新数据写入失败,任务中断。 可能原因 集群磁盘容量已满。 BE节点间数据倾斜。 处理步骤 登录FusionInsight Manager页面,选择“运维 > 告警 > 告警”,查看当前告警“定位信息”中的角色名并确认主机名所在的IP地址。
"tags": { "key": "value" } } ] 查询tsd状态信息 例如,可查询连接HBase的客户端信息。 curl -ks https://<tsd_ip>:4242/api/stats/region_clients | python
名。 hashKeyColumn 可选 String Hash格式,Hash字段对应的列名。 host 必选 String Redis集群连接IP,为Redis集群的实例IP(业务平面)。 port 必选 String 端口为对应的Redis实例的端口。 Redis实例的端口计算方式为:22400+该实例的ID-1。
对HBase进行增、删、改、查数据操作时,HBase Client首先连接ZooKeeper获得“hbase:meta”表所在的RegionServer的信息(涉及NameSpace级别修改的,比如创建表、删除表需要访问HMaster更新meta信息)。 HBase Client连接到包含对应的“hbase:meta
问题原因 作业执行过程中有临时目录,提交作业的用户对临时目录没有操作权限。 解决方法 在集群“概览”页签中,查询并记录集群所绑定的委托名称。 登录IAM服务控制台。 选择“权限 > 创建自定义策略”。 策略名称:请输入策略名称。 作用范围:请选择“全局级服务”。 策略配置方式:请选择“可视化视图”。
HetuEngine依赖Yarn服务提供的资源分配、控制等能力,需要根据实际业务和集群的服务器配置情况调整Yarn服务配置,以获得最佳的性能效果。 登录FusionInsight Manager页面。 选择“集群 > 服务 > Yarn > 配置 > 全部配置“,参考表1配置Yarn服务参数。
k失败,进而业务无法正常访问OBS。 可能原因 集群未绑定ECS委托。 ECS底层接口异常,导致请求失败。 处理步骤 确认是否绑定委托。 登录MapReduce服务管理控制台。 选择“现有集群”,单击集群名称,进入集群概览页面,在运维管理区域,查看集群是否绑定委托。 是,执行4。
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 当前BE实例不可用,无法对外提供读写数据功能。 可能原因 BE实例由于某种原因出现故障或被重启。 处理步骤 登录FusionInsight Manager,选择“运维 > 告警 > 告警”,选中“告警ID”为“50226”的告警,查看“定位信息”中的角色名并确定实例的IP地址。
造成MemArtsCC服务不可用。 可能原因 MemArtCC服务所依赖的Zookeeper服务不可用。 处理步骤 处理Zookeeper异常 登录FusionInsight Manager,选择“运维 > 告警 > 告警”,进入ZooKeeper服务概览页面,查看ZooKeeper服务是否故障。
此时,在物理计划中执行TableScan操作时,只处理分区(partCol=1)对应的数据。 操作步骤 要启动Datasource表优化,在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数介绍 参数 描述 默认值 spark.sql.hive.man
规避措施: 当出现上述问题时,用户可以通过关闭钨丝计划,关闭使用codegen的方式来生成Java代码的功能,从而确保语句的正常执行。即在客户端的“spark-defaults.conf”配置文件中将“spark.sql.codegen.wholeStage”配置为“false”。
从而产生了deleted状态的文件。 处理步骤 将Spark的executor日志输出目录修改成其他名称: 打开日志配置文件,默认在“<客户端安装目录>/Spark/spark/conf/log4j-executor.properties”。 将日志输出文件改名。 例如: log4j
此时,在物理计划中执行TableScan操作时,只处理分区(partCol=1)对应的数据。 操作步骤 要启动Datasource表优化,在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数介绍 参数 描述 默认值 spark.sql.hive.man
致。 该节点与主OMS节点NTP服务时间偏差太大。 处理步骤 检查该节点的NTP服务是否正常启动。 检查ntpd进程是否运行在告警节点上。登录告警节点,执行sudo su - root切换用户。执行以下命令,检查命令是否输出ntpd进程的信息。 ps -ef | grep ntpd
examples.MyRegistrator") val sc = new SparkContext(conf) // 建立连接hbase的配置参数,此时需要保证hbase-site.xml在classpath中 val hbConf = HBaseConfiguration