检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<yyyy-MM-dd HH:mm:ss,SSS>|<Log Level>|<产生该日志的线程名字>| UserName=<用户名称> UserIP=<用户IP> Time=<事件时间> Operation=<操作内容> Result=<操作结果> Detail=<具体信息> | xxx 2024-05-22
erver;sasl.qop=auth-conf;auth=KERBEROS;principal=hive/hadoop.hadoop.com@HADOOP.COM;user.principal=hive/hadoop.hadoop.com;user.keytab=conf/hive
scala:96) org.apache.hadoop.hive.ql.metadata.HiveException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException):
example”样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 将代码中PORT
'topic' = 'input2', 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'testGroup2', 'scan.startup
ZKUUIDService HA启用的功能 oozie.zookeeper.connection.string ZooKeeper实例的业务IP:端口(多个地址以逗号隔开) ZooKeeper连接信息 oozie.zookeeper.namespace oozie Oozie在ZooKeeper的路径
FlinkServer节点: 登录Manager,选择“集群 > 服务 > Flink > 实例”,查看FlinkServer所在的“业务IP”。 若FlinkServer实例所在节点与包含HBase服务客户端的安装节点相同,则该节点不执行此步骤。 登录Manager,选择“集群
登录FusionInsight Manager页面,选择“运维 > 告警 > 告警”,查看当前告警“定位信息”中的角色名以及确认主机名所在的IP地址。 选择“集群 > ClickHouse > 实例”,根据告警信息,选择对应实例,选择“图表 > 并发数”,即可查看实际的SQL并发数是否大于SQL并发阈值。
只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。 在一个节点组范围内,不允许重名。 默认取值: 不涉及 description String 参数解释: 弹性伸缩规则的说明。 约束限制: 不涉及 取值范围: 长度为[0-1024]个字符。 默认取值: 不涉及
fka接收数据,对数据内容进行处理后并打印输出。 FlinkKafkaScalaExample FlinkPipelineJavaExample Flink Job Pipeline的Java/Sacla示例程序。 本样例中一个发布者Job自己每秒钟产生10000条数据,另外两个
Manager界面选择“系统设置>用户管理>添加用户”,为样例工程创建一个用户。填写用户名例如sparkuser,用户类型为“机机”用户,加入用户组supergroup和kafkaadmin,设置其“主组”为supergroup,并绑定角色sparkrole取得权限,单击“确定”。
name="vt_sftp_test" type="sftp-connector"> <connection.sftpServerIp>10.96.26.111</connection.sftpServerIp> <connection.sftpServerPort>22</connection.sftpServerPort>
和系统集成并接收数据的Sources:Syslog、Netcat。 自动生成事件数据的Sources:Exec、SEQ。 用于Agent和Agent之间通信的IPC Sources:Avro。 Source必须至少和一个Channel关联。 Channel Channel位于Source和Sink之
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
ZKUUIDService HA启用的功能 oozie.zookeeper.connection.string ZooKeeper实例的业务IP:端口(多个地址以逗号隔开) ZooKeeper连接信息 oozie.zookeeper.namespace oozie Oozie在ZooKeeper的路径
2:19888/ws/v1/history/mapreduce/jobs" 其中10.120.85.2为MapReduce的“JHS_FLOAT_IP”参数的参数值,19888为JobHistoryServer的端口号。 在Red Hat 6.x以及CentOS 6.x版本,使用curl
example”样例工程之后,运行时需修改以下参数: 将代码中HOST = "xxx"的“xxx”修改为Doris的Master FE节点IP地址,Master FE节点可通过在Manager界面,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 将代码中PORT
'topic' = 'input2', 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'testGroup2', 'scan.startup
statement: FAILED: HiveAccessControlException Permission denied: Principal [name=hive, type=USER] does not have following privileges for operation
化环境变量。 source /opt/client/bigdata_env 执行zkCli.sh -server 'ZooKeeper实例IP地址:ZooKeeper连接端口'命令登录ZooKeeper。 ZooKeeper连接端口通常为2181,可通过查看ZooKeeper服务配置参数“clientPort”获取。