检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令,使用“kafka-console-consumer
IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令,使用“kafka-console-consumer
tab认证。认证有效时间默认为24小时。 密码认证:通过输入用户正确的密码完成身份认证。主要在运维管理场景中使用“人机”用户进行认证,命令为kinit 用户名。 keytab认证:keytab文件包含了用户principal和用户凭据的加密信息。使用keytab文件认证时,系统自
IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令,使用“kafka-console-consumer
IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令,使用“kafka-console-consumer
From 192.168.85.50 icmp_seq=4 Destination Host Unreachable 解决办法 设置为正确的IP,必须为本机的IP,如果端口被占用,重新配置一个空闲的端口。 配置正确的证书路径。 联系网络管理员,恢复网络。 父主题: 使用Flume
huawei.bigdata.iotdb.FlinkIoTDBSink”为执行FlinkIoTDBSink样例程序的开发程序,或“com.huawei.bigdata.iotdb.FlinkIoTDBSource”为执行FlinkIoTDBSource样例程序的开发程序。 场景二:使
名列表中的每一列,其值会设置为null。 如果没有指定列名列表,则query语句产生的列必须与将要插入的列完全匹配。 使用insert into时,会往表中追加数据,而使用insert overwrite时,如果表属性“auto.purge”被设置为“true”,直接删除原表数据,再写入新的数据。
selector.class”配置项: 开启“机架内就近消费特性”,配置为“org.apache.kafka.common.replica.RackAwareReplicaSelector”。 开启“AZ内就近消费特性”,配置为“org.apache.kafka.common.replica
firewalld(不同的操作系统查询命令不一致,此命令以CentOS为例) 如下图所示:dead表示关闭。 防火墙开则影响通信,执行如下命令关闭防火墙: service firewalld stop(不同的操作系统查询命令不一致,此命令以CentOS为例) 可能原因三:端口被占用,每一个Spark任
stream_load_default_timeout_second 表示导入任务的超时时间,默认超时时间为600秒,单位为秒。 若导入任务在设定的时间内未完成则会被系统取消,状态变为“CANCELLED”。默认超时时间为600秒,如果导入的源文件无法在规定时间内完成导入,可以在Stream Load请
创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\ .option("kafka
<tablename>:表示要操作的表名。 <inputdir>:表示要批量导入的数据目录。 -Dindexspecs.to.add=<indexspecs>:表示索引名与列的映射,例如-Dindexspecs.to.add='index_bulk=>info:[age->String]'。 其构成如下所示:
图7 进入hbase shell 添加数据,验证Ranger是否已经集成成功。 为“test1”表中“cf1:name”列添加数据。 put 'test1','001','cf1:name','tom' 为“test1”表中“cf1:age”列添加数据,该列用户无权限会添加数据失败。
创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\ .option("kafka
java”文件中的“TOPIC”变量,例如:public final static String TOPIC = "kafka-topic"。 该样例默认的时序数据模板为“设备名称,时间戳,值”,例如“sensor_1,1642215835758,1.0”,可根据实际场景在“Constant.java”文件修
配置”,单击“全部配置”,搜索以下参数。 参数 说明 默认值 spark.sql.dropPartitionsInBatch.enabled 配置为true后,使用Drop Partition命令支持使用如下过滤条件,如'<','<=','>','>=','!>','!<'。 true spark
conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.sql.legacy.correlated.scalar.query.enabled 设置为true,Spark将支持不带聚合函数的关联子查询语法。 false spark-beeline场景,配置JDBCServer自定义参数: 登录FusionInsight
生产者通过此参数值,创建与Broker之间的连接。 sasl.kerberos.service.name 服务名。 Kafka集群运行,所使用的Kerberos用户名(需配置为kafka)。 key.serializer 消息Key值序列化类。 指定消息Key值序列化方式。 value.serializer 消息序列化类。
需在本地环境变量中设置环境变量认证用户名和认证用户密码,建议密文存放,使用时解密,确保安全。其中: 认证用户名为访问IoTDB的用户名。 认证用户密码为访问IoTDB的用户密码。 /** * 安全模式下,“SSL_ENABLE”默认为“true”,需要导入truststore.jks文件。