检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。可参考Kafka Shell命令介绍。 开发一个Producer向该Topic生产数据。 开发一个Consumer消费该Topic的数据。 性能调优建议
发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。可参考Kafka Shell命令介绍。 开发一个Producer向该Topic生产数据。 开发一个Consumer消费该Topic的数据。 性能调优建议
数据。 在视图中,Hive可以通过获取当前客户端提交任务的用户的内置函数“current_user()”来进行过滤,这样被授权的用户,在访问视图时,即可被限定访问对应的数据。 在普通模式下“current_user()”函数无法区别客户端提交任务的用户,因此,当前访问控制仅对安全模式下的Hive有效。
fka集群某Topic发送一条消息,另外,还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。 开发一个Producer向该Topic生产数据。 开发一个Consumer消费该Topic的数据。 父主题: 开发Kafka应用
、Spark、WebHCat等MetaStore客户端来访问,操作元数据。 WebHCat 一个集群内可部署多个WebHCat,负荷分担。提供Rest接口,通过Rest执行Hive命令,提交MapReduce任务。 Hive客户端 包括人机交互命令行Beeline、提供给JDBC
获取集群的配置文件 参考安装MRS集群客户端,下载并解压客户端。 获取下载的HDFS客户端配置文件(下载路径/HDFS/hadoop/etc/hadoop)中的“core-site.xml”、“hdfs-site.xml”。获取Yarn客户端配置文件(下载路径/Yarn/config)中的“core-site
ate和none。只有配置fixed-delay、failure-rate,Job才可以恢复。另外,如果配置了重启策略为none,但Job设置了Checkpoint,默认会将重启策略改为fixed-delay,且重试次数是配置项“restart-strategy.fixed-delay
HetuEngine计算实例的启动依赖Python文件,需确保各节点“/usr/bin/”路径下面存在Python文件。 登录FusionInsight Manager,单击“主机”,查看并记录所有主机的业务IP。 以root用户登录1记录的节点,在所有节点都执行以下命令,在“/usr/bin/”目录下添加“python3”的软连接。
聚合表在明细表名后加上_{type}_agg后缀;物化视图添加 _{type}_mv后缀。 物化视图、聚合表保持与明细表同样的分区类型及ttl时间。 物化视图中的group by字段名称与明细表对应字段名称一致;select子句返回列名称与聚合表中列的名称保持一致。 物化视图创建时不
用规则”的值。 单击“确定”完成密码修改,使用新密码重新登录Manager页面。 通过集群节点修改admin用户密码(MRS 2.x及之后版本): 更新主管理节点客户端,具体请参考服务端配置过期后更新MRS集群客户端。 登录主管理节点。 (可选)若想要使用omm用户修改密码,请执行以下命令切换用户。
build()方法创建KuduClient对象。传入的参数KUDU_MASTERS为kudu集群的masters地址列表,如果有多个master节点,则中间用半角逗号隔开。 代码样例 如下是建立连接代码片段: // 创建Kudu连接对象 KuduClient client = new
M用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 启动停止MRS集群组件对系统影响 服务之间存在依赖关系,对某服务执
M用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 如果需要删除资源池,需满足以下要求: 集群中任何一个队列不能使用待
OBS系统生成的证书有有效期限制,到达有效期后,证书文件失效,因此产生告警。 处理步骤 查询MRS集群上的OBS证书信息。 使用root用户登录MRS集群的主OMS节点,执行以下命令查询是否存在OBS相关证书。 keytool -v -list -keystore ${JAVA_H
人员。 若是MRS侧错误,继续下一步。 排查服务和进程运行状态等基本情况。 登录Manager界面确认是否有服务故障,如果有作业相关服务故障或者底层基础服务故障,需要解决故障。 查看是否有严重告警。 登录主Master节点。 执行如下命令查看OMS状态是否正常,主OMS节点exe
被全部删除。在spark2.3版本中,增加了对未指定表达式的分区动态匹配的支持,此种语法与Hive的动态分区匹配语法行为一致。 配置参数 登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索以下参数。
afka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。 开发一个Producer向该Topic生产数据。 开发一个Consumer消费该Topic的数据。 性能调优建议 建
置存算分离集群(委托方式)。 登录主Master节点,主节点请参考如何确认MRS Manager的主备管理节点。 执行如下命令,配置环境变量。 source /opt/client/bigdata_env /opt/client为举例当前集群客户端的安装目录,请根据实际情况修改。
期间将导致服务不可用。 ZooKeeper服务端开启SSL通道加密传输,需重新下载客户端。 ZooKeeper配置开启SSL通道加密传输,不支持滚动重启。 配置ZooKeeper数据传输加密 登录FusionInsight Manager,选择“集群 > 服务 > ZooKeeper
为什么通过Spark SQL无法查询到存储类型为ORC的Hive表的新插入数据?主要有以下两种场景存在这个问题: 对于分区表和非分区表,在Hive客户端中执行插入数据的操作后,会出现Spark SQL无法查询到最新插入的数据的问题。 对于分区表,在Spark SQL中执行插入数据的操作后,如果分区信息未改变,会出现Spark