检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
本章节仅适用于MRS 3.2.0至MRS 3.3.1版本及集群,MRS 3.3.1及之后的版本请参考6.5.6-创建FlinkServer作业写入数据至数据仓库服务(DWS)。 表1 FlinkSQL与GaussDB(DWS)数据类型对应关系 FlinkSQL数据类型 GaussDB(DWS)数据类型
NullPointerException: Password cannot be null if SASL is enabled异常,部分关键日志如下图所示: 回答 造成该现象的原因是NodeManager重启。使用ExternalShuffle的时候,Spark将借用NodeM
e_examples_jars/AddDoublesUDF.jar'; addDoubles是该函数的别名,用于SELECT查询中使用。 关键字TEMPORARY说明该函数只在当前这个Hive Server的会话过程中定义使用。 在Hive Server中执行以下命令使用该函数:
NullPointerException: Password cannot be null if SASL is enabled异常,部分关键日志如下图所示: 回答 造成该现象的原因是NodeManager重启。使用ExternalShuffle的时候,Spark将借用NodeM
SqlParser$.parseTableIdentifier(SqlParser.scala:485) 回答 这是因为table为Spark SQL的关键词,不能用作表名使用。 建议用户不要使用table用作表的名字。 父主题: SQL和DataFrame
ology中。一个Topology是由一组Spout组件(数据源)和Bolt组件(逻辑处理)通过Stream Groupings进行连接的有向无环图(DAG)。Topology里面的每一个Component(Spout/Bolt)节点都是并行运行的。在Topology里面, 可以
grants 将哪些权限赋给创建表的owner,建议设置为“ALL”。 ALL MetaStore服务的core-site.xml配置文件 表3 参数说明 (3) 参数 描述 默认值 hadoop.proxyuser.spark.hosts 允许Spark用户伪装成来自哪些host的用户,需设为“*”,代表所有节点。
CarbonData数据加载时,默认的组名为“ficommon”。可以根据需要修改默认的组名。 编辑“carbon.properties”文件。 根据需要修改关键字“carbon.dataload.group.name”的值。其默认值为“ficommon”。 父主题: CarbonData常见问题
Manager样例程序开发思路 通过典型场景,可以快速学习和掌握Manage REST API的开发过程,并且对关键的函数有所了解。 场景说明 假定用户需要以非界面方式实现操作FusionInsight Manager系统,要求开发基于HTTP Basic认证的应用程序实现如下功能:
Storm业务拓扑配置GC参数不生效 问题背景与现象 业务拓扑代码中配置参数topology.worker.childopts不生效,关键日志如下: [main] INFO b.s.StormSubmitter - Uploading topology jar /opt/jar/example
CarbonData数据加载时,默认的组名为“ficommon”。可以根据需要修改默认的组名。 编辑“carbon.properties”文件。 根据需要修改关键字“carbon.dataload.group.name”的值。其默认值为“ficommon”。 父主题: CarbonData常见问题
grants 将哪些权限赋给创建表的owner,建议设置为“ALL”。 ALL MetaStore服务的core-site.xml配置文件 表3 参数说明 (3) 参数 描述 默认值 hadoop.proxyuser.spark.hosts 允许Spark用户伪装成来自哪些host的用户,需设为“*”,代表所有节点。
SqlParser$.parseTableIdentifier(SqlParser.scala:485) 回答 table为Spark SQL的关键词,不能用作表名使用。 建议您在创建表时,不要使用table用作表的名字。 父主题: SQL和DataFrame
态以及每次执行时长,同时提供该作业两种操作: 脏数据:查看作业执行过程中处理失败的数据、或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 日志:查看作业在MapReduce执行的日志信息。 本章节适用于MRS 3.x及后续版本。 前提条件 获取登录“Loader
态以及每次执行时长,同时提供该作业两种操作: 脏数据:查看作业执行过程中处理失败的数据、或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 日志:查看作业在MapReduce执行的日志信息。 本章节适用于MRS 3.x及后续版本。 前提条件 获取登录“Loader
e_examples_jars/AddDoublesUDF.jar'; addDoubles是该函数的别名,用于SELECT查询中使用。 关键字TEMPORARY说明该函数只在当前这个Hive Server的会话过程中定义使用。 在Hive Server中执行以下命令使用该函数:
a客户端可以正常生产,但是无法正常消费。Consumer消费数据失败,提示GROUP_COORDINATOR_NOT_AVAILABLE,关键日志如下: 2018-05-12 10:58:42,561 | INFO | [kafka-request-handler-3] | [GroupCoordinator
LIKE pattern [ESCAPE escapeChar] ] 描述 这个表达式用于列出可用的catalogs。可选参数like被用于基于关键字来进行匹配。 示例 列出所有catalogs: SHOW CATALOGS; 列出所有名字前缀为sys的catalogs: SHOW CATALOGS
Consumer消费数据时存在重复消费现象 问题背景与现象 当数据量较大时会频繁地发生rebalance导致出现重复消费的情况,关键日志如下: 2018-05-12 10:58:42,561 | INFO | [kafka-request-handler-3] | [GroupCoordinator
解决集群替换CA证书后,管理面无法跳转租户面的问题。 解决节点使用tc命令丢包30%,集群管理页面未上报节点网络丢包相关告警的问题。 解决/etc/hosts关键配置异常新增告警的问题。 解决精细化监控指标名称过长导致监控分表机制失效的问题。 解决GaussDB健康检查异常,导致实例重启的问题。 解决磁盘监控指标计算错误的问题。