检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择配置工具 “Agent名”选择“client”,然后选择要使用的Source、Channel以及Sink,将其拖到右侧的操作界面中并将其连接。 例如采用SpoolDir Source、File Channel和Avro Sink,如图2所示。 图2 Flume配置工具示例 双击
登录FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的主机名称。 使用PuTTY工具,以root用户登录该告警的主机地址。 执行命令su - omm,切换至omm用户。 执行sh ${BIGDATA_HOME}/om-server/om/sbin/status-oms
响应,进程处于D状态。 处理步骤 查看D状态进程。 打开MRS集群详情页面,在告警列表中,单击此告警所在行,在告警详情中,查看该告警的主机地址。 登录告警节点。 执行以下命令切换用户: sudo su - root su - omm 执行如下命令查看omm用户D状态进程号。 ps
为什么多次运行Spark应用程序会引发致命JRE错误 IE浏览器访问Spark2x原生UI界面失败,无法显示此页或者页面显示错误 Spark2x如何访问外部集群组件 对同一目录创建多个外表,可能导致外表查询失败 访问Spark2x JobHistory中某个应用的原生页面时页面显示错误
图2展示了用户将两个不同时间到期的资源,同时续费一个月,并设置“统一到期日”后的效果对比。 图2 统一到期日 更多关于统一到期日的规则请参见如何设置统一到期日。 父主题: 续费
Prometheus实例信息 类别 参数 示例 调用凭证 AppSecret 0000000100000001070C6Axxx0E2EF73 服务地址 “内网”中“Remote Write Prometheus 配置代码”中的“url” https://aom-internal-access
登录FusionInsight Manager页面,选择“运维 > 告警 > 告警”,查看当前告警“定位信息”中的角色名以及确认主机名所在的IP地址。 选择“集群 > ClickHouse > 实例”,根据告警信息,选择对应实例,选择“图表 > 并发数”,即可查看实际的SQL并发数是否大于SQL并发阈值。
ce-2.7.0/sbin/”目录,执行以下命令: ./proceed_ha_ssl_cert.sh DBService安装目录 节点IP地址。 例如: cd $BIGDATA_HOME/FusionInsight_BASE_x.x.x/install/FusionInsight-dbservice-2
ClickHouse > 更多 > 同步配置”。 选择“节点管理”,单击已退服的ClickHouseServer实例节点名称。 进入“弹性云服务器”页面,选择“关机”。在弹窗中勾选“强制关机”,单击“是”。 选择“节点管理”,单击对应节点组“操作”列的“缩容”,进入缩容页面。 “
对HBase进行增、删、改、查数据操作时,HBase Client首先连接ZooKeeper获得“hbase:meta”表所在的RegionServer的信息(涉及NameSpace级别修改的,比如创建表、删除表需要访问HMaster更新meta信息)。 HBase Client连接到包含对应的“hbase:meta
部分角色(例如HiveServer、JDBCServer)在滚动重启前会暂时停止提供服务,该状态下的实例不可再接入新的客户端连接,而已经存在的连接需要等待一段时间才能完成,配置合适的超时时间参数能尽可能地保证业务不中断。 说明: 该参数仅在滚动重启Hive、Spark2x时可设置。
例如安装目录为“/opt/Flumeclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 将Master1节点上的认证服务器配置文件,复制到安装Flume客户端的节点,保存到Flume客户端中“Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf”目录下。
如图2所示,发现对应Topic状态正常。所有Partition均存在正常Leader信息。 图2 Topic状态 通过telnet命令,查看是否可以连接Kafka。 telnet Kafka业务IP Kafka业务port 如果无法telnet成功,请检查网络安全组与ACL。 通过SSH登录Kafka
是,需要详细评估紧急补丁的兼容性。 否,检查结束。 检查集群是否安装了Doris组件,且是否创建了UDF函数 咨询用户或者检查Doris是否有使用自定义函数功能。 连接Doris,执行以下命令查询是否有自定义函数: show global functions; show functions from {db};
server2.enable.doAs”为“true”时已经支持,本指导新增当“hive.server2.enable.doAs”为“false”时,如何配置Hive能插入数据到不存在的目录中。 操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive
Client主要包括三种方式:Java API、Shell、HTTP REST API。 Java API 提供Alluxio文件系统的应用接口,本开发指南主要介绍如何使用Java API进行Alluxio客户端的开发。 Shell 提供shell命令完成Alluxio文件系统的基本操作。 HTTP REST
able.optimizing.json-value-optimization”为“true”开启JSON_VALUE函数性能优化,可参考如何创建FlinkServer作业。 SQL示例: create table kafkaSource ( msgValue STRING
选择配置工具 “Agent名”选择“client”,然后选择要使用的Source、Channel以及Sink,将其拖到右侧的操作界面中并将其连接。 例如采用SpoolDir Source、File Channel和Avro Sink,如图2所示。 图2 Flume配置工具示例 双击
sslEnable 集群安全模式为true,非安全模式为false true spark.prequery.driver JDBCServer的地址ip:port,如需要预热多个Server则需填写多个Server的IP,多个IP:port用逗号隔开。 192.168.0.2:22550
登录HDFS的WebUI页面,进入DataNode的JMX页面。 在HDFS原生界面,选择Datanodes页面。 找到对应的DataNode节点,单击Http Address地址进入DataNode详情。 将url的“datanode.html”改为“jmx”就能获取到DataNode的JMX信息。 搜索“Xcei