检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
联能力。 由于K-V库的数据需由另外的作业写入,与当前的Flink作业会存在一定的时差,容易导致当前Flink作业查询K-V库时不是最新的数据,且由于lookup查询不支持回撤,关联的结果存在一致性问题。 维度表要求高数据一致性采用流表作为维度表 基于Hudi作为维度source
HBase应用开发常用概念 过滤器 过滤器提供了非常强大的特性来帮助用户提高HBase处理表中数据的效率。用户不仅可以使用HBase中预定义好的过滤器,而且可以实现自定义的过滤器。 协处理器 允许用户执行region级的操作,并且可以使用与RDBMS中触发器类似的功能。 keytab文件
mapreduce.RowCounter等命令,执行结果请在日志文件“HBase客户端安装目录/HBase/hbase/logs/hbase.log”中查看。 切换到HBase客户端安装目录,执行以下命令使配置生效。 cd HBase客户端安装目录 source HBase/component_env
schemaFemaleInfo.registerTempTable("FemaleInfoTable"); // 执行SQL查询 Dataset<ROW> femaleTimeInfo = spark.sql("select * from " +
HTTPS请求的运行端口,可在FusionInsight Manager,选择“集群 > 服务 > Oozie > 配置”,在搜索框中搜索“OOZIE_HTTPS_PORT”查看。 [root@kwephispra44947 map-reduce]# oozie job -oozie https://kwephis
--hive-table 指定hive表 --table 关系型数据库表名 --columns 指定需要导入的关系型数据表字段 --query 指定查询语句,将查询结果导入 hcatalog参数 --hcatalog-database 指定hive库,使用hcatalog方式导入hive库 --hcatalog-table
路径下。 图3 查看表d的Location 进入spark-beeline: spark-beeline create table e(a int); desc formatted e; 如下图则表示表“e”的Location已经在指定的OBS路径下。 图4 查看表e的Location
ResourceManager持续主备倒换 当一个NodeManager处于unhealthy的状态10分钟时,新应用程序失败 Superior通过REST接口查看已结束或不存在的applicationID,页面提示Error Occurred Superior调度模式下,单个NodeManager故障可能导致MapReduce任务失败
式为“zookeeper/hadoop.系统域名”, 其中系统域名的值可通过登录Manager界面,选择“系统 > 权限 > 域和互信”,查看“本端域”参数获取。 父主题: 配置HBase应用安全认证
户端环境变量中存在默认的JDK版本,导致在执行解密过程中调用的解密程序执行解密异常,导致用户被锁。 解决办法 使用which java命令查看默认的JAVA命令是否是客户端的JAVA。 如果不是,请按正常的客户端执行流程。 source ${client_path}/bigdata_env
ResourceManager持续主备倒换 当一个NodeManager处于unhealthy的状态10分钟时,新应用程序失败 Superior通过REST接口查看已结束或不存在的applicationID,页面提示Error Occurred Superior调度模式下,单个NodeManager故障可能导致MapReduce任务失败
ar包并执行HDFS上更新了Oozie的share lib目录但没有生效。如果执行了更新“share lib”目录依然报找不到类,那么可以查看执行更新“share lib”的命令打印出来的路径“sharelibDirNew”是否是“ /user/oozie/share/lib”,
flatMap(_.split(" ")).groupBy("value").count() //开始运行将运行计数打印到控制台的查询。 val query = wordCounts.writeStream .outputMode("complete")
false; } } } 生成Table1和Table2,并使用Join对Table1和Table2进行联合查询,打印输出结果。 public class SqlJoinWithSocket { public static void main(String[]
Kafka 直接重启 直接重启业务会中断 直接重启耗时约5分钟。 滚动重启 需要提前查看Broker各实例数据同步正常,可以参考Kafka的监控指标“未完全同步的Partition总数”进行查看。 Kafka滚动重启过程中,建议设置客户端Producer的配置参数“acks”的值
'{replica}') PARTITION BY toYYYYMM(d)ORDER BY a; 配置“ClickHouse输出”算子,如下图: 作业执行成功后,查看testck4表中数据: 父主题: 输出算子
/jmx?qry=java.lang:type=Memory, cause: Forbidden 使用当前用户访问Yarn WebUI界面,无法查看作业信息: 使用当前用户登录Hue WebUI后,在界面左侧导航栏单击 ,选择“Workflow”后报错: 建议使用新建的具有对应组件管理
(SELECT ...) s ON t.id = s.id WHEN ...; 其中: MERGE INTO: 目标表。 USING: 源表查询语句。 ON:源表和目标表匹配的条件。 WHEN: 数据更新条件。 insert into ... select ...;语法中不支持可空字段类型的数据插入到非空字段类型。
virtualSchema)。 样例语句: DROP VIRTUAL SCHEMA hive_default; SHOW HetuEngine中的SHOW语句用来查询所有SCHEMA映射。 语法如下: SHOW VIRTUAL SCHEMAS [ FROM catalog ] [ LIKE pattern
COLUMN_NAME, PARTITION_NAME); CREATE INDEX SDS_N50 ON SDS(CD_ID); 重新查看执行计划,发现语句已经可以索引查询,且5ms执行完成(原来是700ms)。重新执行hive表字段增加,已经可以添加成功。 父主题: 使用Hive