检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Sink是否是avro类型。 是,执行10。 否,执行13。 以root用户登录故障节点所在主机,执行ping Flume Sink配置的IP地址命令查看对端主机是否可以ping通,用户密码为安装前用户自定义,请咨询系统管理员。 是,执行13。 否,执行11。 联系网络管理员恢复网络。 等待一段时间后,在告警列表中,查看告警是否清除。
动前无法提供服务。 服务参数配置如果使用旧的存储目录,需要更新为新目录。 更改NodeManager的存储目录以后,需要重新下载并安装客户端。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 规划好新的目录路径,用于保存旧目录中的数据。 准备好MRS集群管理员用户admin。
com/edenhill/librdkafka/tree/v0.11.1。 ./configure make make install 使用客户端时增加如下配置项。 "security.protocol": "SASL_PLAINTEXT", "sasl.kerberos.service
Manager界面,选择“运维 > 告警 > 告警”。 在告警列表中单击该告警,从完整的告警信息中的“定位信息”处获得“主机名”。 以omm用户进入主集群HBase客户端所在节点。 如果集群采用了安全版本,要进行安全认证,然后使用hbase用户进入hbase shell界面。 cd /opt/client source
JavaExample 通过JDBC访问Spark SQL的Java/Scala示例程序。 本示例中,用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 sparksecurity-examples/SparkThriftServerScalaExample
apache.org/dist/spark/docs/3.3.1/monitoring.html#rest-api。 准备运行环境 安装客户端。在节点上安装客户端,如安装到“/opt/client”目录。 REST接口 通过以下命令可跳过REST接口过滤器获取相应的应用信息。 安全模式下,J
集群未启用Kerberos认证(普通模式) 使用admin用户连接Doris后,创建具有管理员权限的角色并绑定给用户。 已安装MySQL客户端,相关操作可参考使用MySQL客户端连接Doris。 Stream Load任务示例 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 如果集
可以通过HTTP API与TSD进行通信。所有通信都发生在同一个端口上(TSD通过查看它收到的前几个字节来确定客户端的协议)。 OpenTSDB简介 使用MRS客户端操作OpenTSDB指标数据 Presto组件 Presto是一个开源的用户交互式分析查询的SQL查询引擎,用于针
exit(job.waitForCompletion(true) ? 0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并一下map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public
址。 “源端备NameNode IP地址”:填写备集群备NameNode业务平面IP地址。 “源端NameNode RPC端口”:填写目的端集群HDFS基础配置“dfs.namenode.rpc.port”参数值。 “源端路径”:填写备集群保存备份数据的完整HDFS路径。例如,“
Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 NameNode无法及时处理来自HDFS客户端、依赖于HDFS的上层服务、DataNode等的RPC请求,表现为访问HDFS服务的业务运行缓慢,严重时会导致HDFS服务不可用。 可能原因
exit(job.waitForCompletion(true) ? 0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public
exit(job.waitForCompletion(true) ? 0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并一下map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public
NameNode出现异常时接管其服务。 Observer NameNode:与Active NameNode中的数据保持同步,处理来自客户端的读请求。 DataNode 用于存储每个文件的“数据块”数据,并且会周期性地向NameNode报告该DataNode的数据存放情况。 JournalNode
oadcastJoin 两表进行join操作的时候,当非空分区比率低于此配置时,无论其大小如何,都不会被视为自适应执行中广播哈希连接的生成端。只有当spark.sql.adaptive.enabled为true时,此配置才有效。 0.2 父主题: Spark SQL企业级能力增强
oadcastJoin 两表进行join操作的时候,当非空分区比率低于此配置时,无论其大小如何,都不会被视为自适应执行中广播哈希连接的生成端。只有当spark.sql.adaptive.enabled为true时,此配置才有效。 0.2 父主题: Spark SQL企业级能力增强
exit(job.waitForCompletion(true) ? 0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public
准备运行环境 安装集群客户端,例如客户端安装目录为“/opt/client”。 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改。 kinit hdfs kinit认证的默认时效为24小时,到期后再次运行样例,需要重新执行kinit。 在客户端目录创建文件“tes
准备运行环境 安装集群客户端,例如客户端安装目录为“/opt/client”。 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改。 kinit hdfs kinit认证的默认时效为24小时,到期后再次运行样例,需要重新执行kinit。 在客户端目录创建文件“tes
需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase.hindex.mapreduce.TableIndexer -Dtablename