检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数配置为mapreduce.jobhistory.max-age-ms,默认值为1296000000,即15天。 表1 MR日志列表 日志类型 日志文件名 描述 运行日志 jhs-daemon-start-stop.log 守护进程(Daemon)的启动日志。 hadoop-<S
log.zip”。最多保留最近的100个压缩文件,压缩文件保留个数可以在Manager界面中配置。 日志归档规则: 表1 Yarn日志列表 日志类型 日志文件名 描述 运行日志 hadoop-<SSH_USER>-<process_name>-<hostname>.log Yarn组件
232:2181,192.168.169.84:2181” 在Manager页面,选择“集群 > 服务 > HetuEngine > 实例”,获取HSBroker所有实例的业务IP;在“配置”页签,搜索“server.port”,获取HSBroker端口号。 user 访问HetuEngin
bigdata.iotdb.JDBCbyKerberosExample”类。 在Manager界面,选择“集群 > 服务 > IoTDB > 实例”,查看待连接的IoTDBServer所在的节点IP。 RPC端口可通过登录FusionInsight Manager,选择“集群 > 服务
MAP<STRING, DOUBLE>, address STRING ) -- 使用关键字PARTITIONED BY指定分区列名及数据类型 . PARTITIONED BY (entrytime STRING) STORED AS TEXTFILE; 更新表的结构
为:“<原有日志名>_<编号>.gz”。最多保留最近的20个压缩文件。 日志归档规则用户不能修改。 表1 DBService日志列表 日志类型 日志文件名 描述 DBServer运行相关日志 dbservice_serviceCheck.log 服务检查脚本运行日志 dbservice_processCheck
MAP<STRING, DOUBLE>, address STRING ) -- 使用关键字PARTITIONED BY指定分区列名及数据类型 . PARTITIONED BY (entrytime STRING) STORED AS TEXTFILE; 更新表的结构
gment合并为一个大的segment。 前提条件 已经加载了多次数据。 操作描述 有Minor合并、Major合并和Custom合并三种类型。 Minor合并: 在Minor合并中,用户可指定合并数据加载的数量。如果设置了参数“carbon.enable.auto.load.m
Flink使用IoTDBSource从IoTDB server读取数据。 要使用IoTDBSource,您需要构造一个IoTDBSource的实例,通过指定的IoTDBSourceOptions并在IoTDBSource中实现抽象方法convert(),convert()定义了您希望如何转换行数据。
educe、fold/aggregate(返回几个标量)、take(返回前几个元素)。 生成Scala集合类型,如collect(把RDD中的所有元素导入Scala集合类型)、lookup(查找对应key的所有值)。 写入存储,如与前文textFile对应的saveAsTextFile。
Hudi表概述 Hudi表类型 Copy On Write 写时复制表也简称cow表,使用parquet文件存储数据,内部的更新操作需要通过重写原始parquet文件完成。 优点:读取时,只读取对应分区的一个数据文件即可,较为高效。 缺点:数据写入的时候,需要复制一个先前的副本再
broadcastTimeout BroadcastHashJoin中广播表的超时时间,当任务并发数较高的时候,可以调高该参数值。 -1(数值类型,实际为五分钟) 父主题: Spark SQL性能调优
Hudi表概述 Hudi表类型 Copy On Write 写时复制表也简称cow表,使用parquet文件存储数据,内部的更新操作需要通过重写原始parquet文件完成。 优点:读取时,只读取对应分区的一个数据文件即可,较为高效。 缺点:数据写入的时候,需要复制一个先前的副本再
address=8000”,保存文件。 MapReduce为分布式计算框架,Map/Reduce任务启动所在的节点存在不确定性,建议将集群内NodeManager实例只保留一个运行,其他全部停止,以保证任务一定会在这个唯一运行的NodeManager节点上启动。 在客户端提交MapReduce任务,在M
'topic' = 'input2', 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'testGroup2', 'scan
address=8000”,保存文件。 MapReduce为分布式计算框架,Map/Reduce任务启动所在的节点存在不确定性,建议将集群内NodeManager实例只保留一个运行,其他全部停止,以保证任务一定会在这个唯一运行的NodeManager节点上启动。 在客户端提交MapReduce任务,在M
bytes”值,若超过此配置项值,则抛出上述异常。 解决办法 在初始化建立Kafka消费者实例时,设置此配置项“max.partition.fetch.bytes”的值。 例如,参考本例,可以将此配置项设置为“5252880”: ...... // 安全协议类型 props.put(securityProtocol
'topic' = 'input2', 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'testGroup2', 'scan
address=8000”,保存文件。 MapReduce为分布式计算框架,Map/Reduce任务启动所在的节点存在不确定性,建议将集群内NodeManager实例只保留一个运行,其他全部停止,以保证任务一定会在这个唯一运行的NodeManager节点上启动。 在客户端提交MapReduce任务,在M
S集群的节点名称,在节点的“弹性公网IP”页面绑定弹性公网IP。 具体操作请参见“虚拟私有云 > 用户指南 > 弹性公网IP > 为弹性云服务器申请和绑定弹性公网IP”。 记录公网IP和私网IP的对应关系将hosts文件中的私网IP改为对应的公网IP。 将krb5.conf文件中的IP地址修改为对应IP的主机名称。