检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
170:21005,10.132.190.165:21005 2h 1h req 10000000 show 5m click 5m 此命令将在kafka上创建3个topic:req、show、click,在2h内生成1千万条请求事件数据,请求事件的时间取值范围为{当前时间-1h 至 当前时间},
170:21005,10.132.190.165:21005 2h 1h req 10000000 show 5m click 5m 此命令将在kafka上创建3个topic:req、show、click,在2h内生成1千万条请求事件数据,请求事件的时间取值范围为{当前时间-1h 至 当前时间},
本实践介绍如何使用DBeaver访问Phoenix。 本地安装的DBeaver可通过Phoenix Jar包对接MRS集群HBase组件。对接成功后,可在DBeaver中创建HBase表并插入数据。 使用DBeaver访问HetuEngine 本实践介绍如何使用DBeaver访问HetuEngine。 本地安装的DBeaver可通过JDBC
获取到的keytab文件默认文件名为user.keytab,若用户需要修改,可直接修改文件名,但在提交任务时需要额外上传修改后的文件名作为参数。 Eclipse代码样例 创建Topology。 public static void main(String[] args) throws Exception
取消正在运行的planfile,同样需要使用绝对路径。 在客户端执行此命令时,用户需要具备supergroup权限。可以使用HDFS服务的系统用户hdfs。或者在集群上创建一个具有supergroup权限的用户,再在客户端中执行此命令。 表3只说明了命令接口的含义及使用方法,实际每个接口提供了更多的配置参数。具体信息可通过hdfs
e WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在浏览器地址栏的URL地址后追加“/servicehealth”重新访问,“statusCode”对
集群节点组名称。 节点类型 节点组对应的节点类型,可参考MRS集群节点类型说明。 单击节点组名称前方的,显示该节点组包含的节点,单击节点名称,使用创建集群时配置的密码或者密钥对远程登录弹性云服务器。节点参数说明请参见查看MRS集群组件监控指标。 节点数 对应节点组中包含的节点数量。 付费类型
"log.time.threshold", 120); } } 样例3:main()方法创建一个job,指定参数,提交作业到hadoop集群。 public static void main(String[] args) throws
数字超过了定义长度 不推荐使用,应该明确以上异常,进行数据预处理。 示例: 假设有以下表,字段origin_zip中包含了一些无效数据: -- 创建表 create table shipping (origin_state varchar,origin_zip varchar,packages
xx,Hive内核版本3.1.0。 Spark2x:FusionInsight_Spark2x_xxx,Hudi内核版本:0.11.0。 创建Hudi表对应的Hive外部表 Hudi表数据在入湖的时候一般会同步到Hive外部表,此时在Beeline中可以直接查询到对应的Hive外
S WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS WebUI,单击“Datanodes”页签,在“In operation”区域,打开“F
vaExample.jar)复制到Linux环境的Flink运行环境下(即Flink客户端),如“/opt/client”。然后在该目录下创建“conf”目录,将需要的配置文件复制至“conf”目录,具体操作请参考准备运行环境,运行Flink应用程序。 在Linux环境中运行Fl
请求Body参数 参数 是否必选 参数类型 描述 action 是 String 参数解释: 操作类型,支持创建和删除。 约束限制: 不涉及 取值范围: create:创建集群标签。 delete:删除集群标签。 默认取值: 不涉及 响应参数 无 请求示例 关闭集群默认标签 /v
/jobs/<jobid>/vertices/<vertexid>/subtasktimes 请求返回流图的顶点的所有子任务状态转换的时间戳。 这些可以用于在子任务之间创建时间线的比较。 /jobs/<jobid>/vertices/<vertexid>/taskmanagers 一个流图顶点的TaskManager统计信息。
Kafka。 将Kafka的Broker配置参数“allow.everyone.if.no.acl.found”的值修改为“true”。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics
/jobs/<jobid>/vertices/<vertexid>/subtasktimes 请求返回流图的顶点的所有子任务状态转换的时间戳。 这些可以用于在子任务之间创建时间线的比较。 /jobs/<jobid>/vertices/<vertexid>/taskmanagers 一个流图顶点的TaskManager统计信息。
xml、hbase-site.xml、hiveclient.properties等配置文件放置到工程的“conf”目录下。 在“conf”目录创建“jaas_mr.conf”文件并添加如下内容(test是user.keytab对应的用户名称): Client { com.sun.security
支持使用查询下推功能,提高查询速度。 Scalar UDF下推 Scalar UDF下推功能默认打开。使用该功能前需根据需求在HetuEngine中创建映射函数。 添加ClickHouse数据源约束 HetuEngine支持对接ClickHouse操作的SQL语法:SHOW CATALOG
取消正在运行的planfile,同样需要使用绝对路径。 在客户端执行此命令时,用户需要具备supergroup权限。可以使用HDFS服务的系统用户hdfs。或者在集群上创建一个具有supergroup权限的用户,再在客户端中执行此命令。 表3只说明了命令接口的含义及使用方法,实际每个接口提供了更多的配置参数。具体信息可通过hdfs
通过Kafka UI可以进行以下操作: 支持界面检查集群状态(主题,消费者,偏移量,分区,副本,节点) 支持界面执行集群内分区重新分配 支持界面选择配置创建主题 支持界面删除主题(Kafka服务设置了参数“delete.topic.enable = true”) 支持为已有主题增加分区 支持更新现有主题的配置