检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Open”。 在弹出的Open File or Project会话框中选择样例工程文件夹“mapreduce-example-normal”,单击“OK”。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File>
Open”。 在弹出的Open File or Project会话框中选择样例工程文件夹“mapreduce-example-normal”,单击“OK”。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File>
Consortium )制定的一种文本标记语言,用于表示矢量几何对象、空间参照系统及空间参照系统之间的转换。 WKB(well-known binary) 是WKT的二进制表示形式,解决了WKT表达方式冗余的问题,便于传输和在数据库中存储相同的信息。 GeoJSON一种JSON格式的Featur
DELETE RECORDS参数 参数 描述 CARBON TABLE 在其中执行删除操作的CarbonData表的名称。 注意事项 删除segment将删除相应segment的所有二级索引。 如果查询的表设置了carbon.input.segments属性,则DELETE操作失败。要解决该问题,在查询前执行以下语句。
DELETE RECORDS参数 参数 描述 CARBON TABLE 在其中执行删除操作的CarbonData表的名称。 注意事项 删除segment将删除相应segment的所有二级索引。 如果查询的表设置了carbon.input.segments属性,则DELETE操作失败。要解决该问题,在查询前执行以下语句。
FO? 回答 登录Spark客户端节点,修改“{客户端安装目录}Spark/spark/conf/log4j.properties”配置文件,修改参数“Log4j.rootCategory”值为“INFO”,如下所示: 重新启动spark-sql客户端。 父主题: Spark常见问题
call(Tuple2<String, String> tuple2) { // map(_._1)是消息的key, map(_._2)是消息的value return tuple2._2(); } } );
Executor进程Crash导致Stage重试 问题 在执行大数据量的Spark任务(如100T的TPCDS测试套)过程中,有时会出现Executor丢失从而导致Stage重试的现象。查看Executor的日志,出现“Executor 532 is lost rpc with driver
复制)将数据复制到对应目的集群所在Region的OBS,然后通过Distcp工具将OBS数据复制到目的集群的HDFS上。由于执行Distcp无法为OBS上的文件设置权限、属主/组等信息,因此当前场景在进行数据导出时也需要将HDFS的元数据信息进行导出并复制,以防HDFS文件属性信息丢失。
for JDK”窗口,选择对应的JDK目录,然后单击“OK”。 完成JDK选择后,单击“Apply”。 选择“Project”,在“Project SDK”下的下拉菜单中选择在“SDKs”中添加的JDK,在“Project language level”下的下拉菜单中选择“8 - Lambdas
Executor进程Crash导致Stage重试 问题 在执行大数据量的Spark任务(如100T的TPCDS测试套)过程中,有时会出现Executor丢失从而导致Stage重试的现象。查看Executor的日志,出现“Executor 532 is lost rpc with driver
Channel:基于嵌入Database的持久化实现。 Channel支持事务,可提供较弱的顺序保证,可以和任何数量的Source和Sink工作。 Sink Sink负责将数据传输到下一跳或最终目的,成功完成后将数据从Channel移除。 典型的Sink类型如下: 存储数据到最终目的终端Sink,比如:HDFS、HBase。
Flink客户端执行命令报错“Error while parsing YAML configuration file : security.kerberos.login.principal:pippo” 问题背景与现象 客户端安装成功,执行客户端命令例如yarn-session.sh时报错,提示如下:
选择样例工程文件夹“hdfs-examples”,单击“确定”。 在“Import”窗口单击“Finish”。 设置Eclipse的文本文件编码格式,解决乱码显示问题。 在Eclipse的菜单栏中,选择“Window > Preferences”。 弹出“Preferences”窗口。 在左边导航上选择“General
于加载的是客户端的spark.driver.extraJavaOptions,在集群节点上对应路径下找不到对应的kdc.conf文件,无法获取kerberos认证所需信息,导致ApplicationMaster启动失败。 解决办法 在客户端提交任务时,在命令行中配置自定义的spark
pReduce客户端提交作业时,会将此地址随任务一起提交给ResourceManager。ResourceManager在作业完成后,将此参数作为查看作业历史信息的跳转地址保存在RMStateStore中。 JobHistoryServer服务地址变更后,需要将新的服务地址及时更
pReduce客户端提交作业时,会将此地址随任务一起提交给ResourceManager。ResourceManager在作业完成后,将此参数作为查看作业历史信息的跳转地址保存在RMStateStore中。 JobHistoryServer服务地址变更后,需要将新的服务地址及时更
在出现告警时间点发现虚拟机发生了重启,告警发生的原因是因虚拟机重启导致的。 经OS定位虚拟机发生重启的原因是节点没有可用的内存,系统发生内存溢出触发了oom-killer,当进程处于被调用的状态会使进程处于disk sleep状态,最终导致虚拟机发生重启。 查看占用的内存进程,发现占用内存都是正常的业务进程。 结论:虚拟机内存不能满足服务需求。
列出catalogName为mv中的所有物化视图以及对应的数据表。如果希望只查看某个schema中的物化视图,可以使用子句[IN/FROM schema_name] 通过可选子句“LIKE”,筛选视图名满足规则运算表达式的视图,如果不使用这个子句,会列举所有视图。匹配的视图会按字母顺序排列。
基于简化使用的角度,针对大数据量的表,可以通过采用Bucket索引来避免状态后端的复杂调优。 如果Bucket索引+分区表的模式无法平衡Bueckt桶过大的问题,还是可以继续采用Flink状态索引,按照规范去优化对应的配置参数即可。 建议 基于Flink的流式写入的表,在数据量超