检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
168.81.37:22550;version=8.1.0.1;sequence=0000001243] 客户端连接JDBCServer时,需要指定Namespace,即访问ZooKeeper哪个目录下的JDBCServer实例。在连接的时候,会从Namespace下随机选择一个实例连接,详细URL参见URL连接介绍。
执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改(普通集群请跳过此步操作)。 kinit hdfs kinit一次的时效24小时。24小时后再次运行样例,需要重新执行kinit。 在客户端目录准备文件“testFile”和“testFileAppend”,文件内容分别“Hello, webhdfs
1及之后版本。 前提条件 MRS集群管理员已明确业务需求。并准备一个Kafka组件业务用户,该用户属于kafkaadmin用户组。(普通模式不需要) 已安装Kafka客户端,例如客户端安装目录为“/opt/client”。 操作步骤 以客户端安装用户,登录已安装Kafka客户端的节点。
默认取值: 不涉及 version_name 是 String 参数解释: 集群版本。例如“MRS 3.1.0”。如果请求客户端不支持自动转义,则需要将空格转义为%20,例如“MRS%203.1.0”。 约束限制: 不涉及 取值范围: 长度为[1-64]个字符。 默认取值: 不涉及 请求参数
AssignerWithPeriodicWatermarks[T]): DataStream[T] 为了能让event time窗口可以正常触发窗口计算操作,需要从记录中提取时间戳。 def assignTimestampsAndWatermarks(assigner: AssignerWithPu
在该目录下用hdfs用户进行命令行认证,用户密码请咨询集群管理员。 kinithdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit命令。 进入“/opt/client/HDFS/hadoop/hdfs-c-example”目录下,运行如下命令导入客户端环境变量。
在该目录下用hdfs用户进行命令行认证,用户密码请咨询集群管理员。 kinithdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit命令。 进入“/opt/client/HDFS/hadoop/hdfs-c-example”目录下,运行如下命令导入客户端环境变量。
AssignerWithPeriodicWatermarks[T]): DataStream[T] 为了能让event time窗口可以正常触发窗口计算操作,需要从记录中提取时间戳。 def assignTimestampsAndWatermarks(assigner: AssignerWithPu
AssignerWithPeriodicWatermarks[T]): DataStream[T] 为了能让event time窗口可以正常触发窗口计算操作,需要从记录中提取时间戳。 def assignTimestampsAndWatermarks(assigner: AssignerWithPu
AssignerWithPeriodicWatermarks[T]): DataStream[T] 为了能让event time窗口可以正常触发窗口计算操作,需要从记录中提取时间戳。 def assignTimestampsAndWatermarks(assigner: AssignerWithPu
Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。 由于webhdfs是http访问的,需要主NameNode的IP和http端口。 单击“实例”,找到“NameNode(hacluster,主)”的主机名(host)和对应的IP。
Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。 由于webhdfs是http访问的,需要主NameNode的IP和http端口。 单击“实例”,找到“NameNode(hacluster,主)”的主机名(host)和对应的IP。
1-1000 默认取值: 不涉及 offset 否 Integer 参数解释: 索引位置,从offset指定的下一条数据开始查询。查询第一页数据时,不需要传入此参数,查询后续页码数据时,将查询前一页数据时响应体中的值带入此参数。 约束限制: action为count时无此参数。如果action为filter默认为0。
不涉及 resource_pool_name String 参数解释: 资源池名称。 约束限制: 当集群版本不支持按指定资源池进行弹性伸缩时,需要填写为default资源池。 取值范围: 只能由英文字母、数字以及“_”和“-”组成。 默认取值: 不涉及 auto_scaling_policy
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
resource_pool_name 是 String 参数解释: 资源池名称。 约束限制: 当集群版本不支持按指定资源池进行弹性伸缩时,需要填写为default资源池。 取值范围: 只能由英文字母、数字以及“_”和“-”组成。 默认取值: 不涉及 auto_scaling_policy
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
自定义自动化脚本的路径。设置为OBS桶的路径或虚拟机本地的路径。 OBS桶的路径:直接手动输入脚本路径。示例:s3a://XXX/scale.sh 虚拟机本地的路径:用户需要输入正确的脚本路径。脚本所在的路径必须以‘/’开头,以.sh结尾。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 parameters