检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
重启Presto服务。 父主题: 组件配置类
过载会导致应用侧读写性能下降,HBase服务侧频繁GC,严重时会导致服务实例重启等。 当前HBase具有防过载能力,可以实现拒绝超大请求、保护内部请求、记录不合理请求等功能,减少过载场景下对HBase服务的影响,保障服务稳定性。 该章节仅适用于MRS 3.3.0及之后版本。
正则表达式模式将仅验证URI的path部分,而不验证在Fully Qualified路径情况下的schema和authority。 - dfs.client.metadata.cache.expiry.sec 缓存元数据的持续时间。缓存条目在该持续时间过期后失效。
Kafka样例程序开发思路 场景说明 Kafka是一个分布式消息系统,在此系统上用户可以做一些消息的发布和订阅操作,假定用户要开发一个Producer,让其每秒向Kafka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。
使用Sasl Kerberos认证 在安全集群环境下,各个组件之间不能够简单地相互通信,而需要在通信之前进行相互认证,以确保通信的安全性。Kafka应用开发需要进行Kafka、ZooKeeper、Kerberos的安全认证,这些安全认证只需要生成一个jaas文件并设置相关环境变量即可
Kafka样例程序开发思路 场景说明 Kafka是一个分布式消息系统,在此系统上您可以做一些消息的发布和订阅操作,假定用户要开发一个Producer,让其每秒向Kafka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。
192.168.0.1:6379,192.168.0.2:6379 认证类型 SIMPLE:表示对接的服务是非安全模式,无需认证。 KERBEROS:表示对接的服务是安全模式,安全模式的服务统一使用Kerberos认证协议进行安全认证。
shard_num,replica_num,host_name from system.clusters; 使用示例 --创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证
shard_num,replica_num,host_name from system.clusters; 使用示例 --创建数据库名为test的数据库 CREATE DATABASE test ON CLUSTER default_cluster; --创建成功后,通过查询命令验证
使用Consumer API订阅安全Topic并消费 功能介绍 用于实现使用Consumer API订阅安全Topic,并进行消息消费。 代码样例 以下为用于实现使用Consumer API订阅安全Topic,并进行消息消费的代码片段。
选择“集群 > 服务 > Hive”,进入Hive服务概览页面。 选择“更多 > 重启服务”或“更多 > 滚动重启服务”。 图12 重启服务 重启服务会造成业务中断,滚动重启可以尽量减少或者不影响业务运行。 父主题: 管理MRS集群元数据
使用Producer API向安全Topic生产消息 功能简介 用于实现Producer API向安全Topic生产消息。 代码样例 以下为用于实现Producer API向安全Topic生产消息的代码片段。
使用Producer API向安全Topic生产消息 功能简介 用于实现Producer API向安全Topic生产消息。 代码样例 以下为用于实现Producer API向安全Topic生产消息的代码片段。
使用ZooKeeper客户端 ZooKeeper是一个开源的,高可靠的,分布式一致性协调服务。ZooKeeper设计目标是用来解决那些复杂,易出错的分布式系统难以保证数据一致性的。不必开发专门的协同应用,十分适合高可用服务保持数据一致性。
当Streaming DataFrame/Dataset中有新的可用数据时,outputMode用于配置写入Streaming接收器的数据。
当Streaming DataFrame/Dataset中有新的可用数据时,outputMode用于配置写入Streaming接收器的数据。
topicHeader topic 当setTopicHeader属性设置为true,此参数用于定义存储接收的topic名称。如果与Kafka Sink的topicHeader属性结合使用,应该注意,避免将消息循环发送到同一主题。
FlinkSQL Kafka表开发规则 Kafka作为sink表时必须指定“topic”配置项 【示例】向Kafka的“test_sink”主题插入一条消息: CREATE TABLE KafkaSink( `user_id` VARCHAR, `user_name`
当Streaming DataFrame/Dataset中有新的可用数据时,outputMode用于配置写入Streaming接收器的数据。
通过调整“spark.sql.shuffle.partitions”参数值可以调整取模时的基数,改善数据分块不均匀的情况,多次验证发现配置为质数或者奇数效果比较好。 在Driver端的“spark-defaults.conf”配置文件中调整如下参数。