检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
18 seconds, Fetched 1 row(s) 查看Spark应用运行结果。 通过指定文件查看运行结果数据。 结果数据的存储路径和格式由Spark应用程序指定。 通过Web页面查看运行情况。 登录Manager主页面。在服务中选择Spark2x。 进入Spark2x概览页
HA方案和设置ThriftServer连接的超时时间。 ThriftServer HA方案,当ThriftServer主节点发生故障时,备节点能够主动切换为主节点,为集群提供服务。Beeline和JDBC客户端代码两种连接方式的操作相同。 连接HA模式下的ThriftServer,连接字符串
是,处理完毕。 否,执行19。 检查主备DBServer数据库进程状态。 以root用户登录DBService浮动IP所在主机,执行su - omm命令切换至omm用户。 执行cd ${DBSERVER_HOME}命令进入DBService服务的安装目录。 执行sh sbin/status-dbserver
解决Manager跨越0点查询时,监控指标显示异常的问题。 解决Manager页面内核空间占用CPU百分比数值错误问题。 解决Manager页面主机线管监控页面切换到分布图后在切换时间段查看图标,图标的默认区间取值错误的问题。 解决主OMS的Gaussdb的进程占用内存较大的问题。 解决Manager组件自定
升级,应用程序仍然可以运行旧版本的Hadoop。 配置描述 进入HDFS客户端。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装路径 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命
distinct出现次数超过2就进行“提示”的规则。 图1 添加Spark SQL防御规则 登录安装有Spark客户端的节点,执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令,配置环境变量。 source bigdata_env source
TopologyBuilder builder = new TopologyBuilder(); // 分隔符格式,当前采用“|”代替默认的“,”对tuple中的field进行分隔 // HdfsBolt必选参数 RecordFormat
速率最大化,跨地域延迟不再成为瓶颈。 更好地计算资源利用:将数据压缩,序列化的任务下推到Worker并行计算。 高效序列化:优化数据序列化格式,同等数据量级下,更低的数据传输量。 流式传输:基于HTTP 2.0 stream, 保证HTTP协议通用性的同时,减少大量数据传输中RPC
sionInsight-Flume-1.9.0.tar.gz路径下进行Flume客户端安装。 配置host_info.cfg文件,配置文件格式如下: host_ip="",user="",password="",install_path="",flume_config_file=""
登录FusionInsight Manager。 选择“集群 > 服务 > LdapServer > 实例”,查看LDAP服务对应的节点。 切换到“配置”,查看集群LDAP端口号,即“LDAP_SERVER_PORT”参数值,默认为“21780”。 以root用户通过LDAP服务的IP地址登录LDAP节点。
9及以上操作系统)需要安装Python2版本,具体请参考Impala客户端安装Python2。 操作步骤 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env 运行Impala客户端命令,实现A业务。
CREATE TABLE 命令功能 CREATE TABLE命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name [(col_name data_type
CREATE TABLE 命令功能 CREATE TABLE命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name [(col_name data_type
9及以上操作系统)需要安装Python2版本,具体请参考Impala客户端安装Python2。 操作步骤 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env 运行Impala客户端命令,实现A业务。
9.2.3补丁安装完成之后,需要重启OMS服务。如果集群之前安装了1.9.2.2补丁,不需要做此操作。 使用root用户登录主备OMS节点,切换至omm用户,执行命令sh ${BIGDATA_HOME}/om-0.0.1/sbin/restart-oms.sh重启OMS服务。 主备OMS节点都需要重启。
a。 如果告警原因为“DataNode数据目录中多个目录使用同一磁盘”,执行5.a。 检查DataNode数据目录是否创建失败。 执行以下命令切换用户: sudo su - root su - omm 使用ls命令查看DataNode数据目录中的每个目录是否存在。 是,执行7。 否,执行3
erver”。 进入“/udf/hetuserver”,单击上传UDF函数包。 使用HDFS命令行上传。 登录HDFS服务客户端所在节点,切换到客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env
insync.replicas=2 其中192.168.1.205为ZooKeeper业务IP地址。 如果修改服务级配置需要重启Kafka,建议在变更窗口做服务级配置修改。 父主题: 使用Kafka
对磁盘健康状态进行检查,建议使用专门的磁盘检查工具。 统计存储 分批次排查集群节点磁盘数据是否均匀存储,筛选出明显数据增加或不足的硬盘,并确认硬盘是否正常。 记录变更 安排并记录对集群配置参数和文件实施的操作,为故障分析处理场景提供依据。 每月 分析日志 收集集群节点服务器的硬件日志,例如BMC系统日志,并进行分析。
查看Master1节点 使用root用户登录Master1节点,密码为购买集群时配置用于登录集群节点的“root”用户的自定义密码。 执行以下命令切换到客户端软件包所在目录,并解压客户端软件包。 cd /tmp/FusionInsight-Client/ tar -xvf FusionI