检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
密码。 执行Hive组件的客户端命令。 beeline 在beeline中直接使用OBS的目录进行访问。例如,执行如下命令创建Hive表并指定数据存储在mrs-demo01文件系统的test_demo01目录中。 create table test_demo01(name string)
只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以
托,请参考如下步骤进行创建委托(创建或修改委托需要用户具有Security Administrator权限)。如果还需对OBS文件系统中的指定路径进行更加细粒度的权限控制,可参考配置MRS集群用户的OBS的细粒度访问权限创建自定义的角色策略。 登录华为云管理控制台。 在服务列表中选择“管理与监管
创建配置冷热存储TTL策略的ReplicatedMergeTree表。 ClickHouse支持表级别的TTL表达式,允许您设置基于时间的规则,从而能够自动的在指定的磁盘或者卷之间移动数据,以实现了数据在不同的存储层之间的分层存储。 具体建表语句参考如下: CREATE TABLE example_table
只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以
ters/{cluster_id}/job-executions/{job_execution_id}/log-detail √ √ 查询指定集群的标签 GET /v1.1/{project_id}/clusters/{cluster_id}/tags mrs:tag:list √
默认值:7天。 log.clean.task.schedule.plan:自动清理计算实例日志的调度计划。值为cron表达式,此处仅允许指定一天中固定的触发时间。 log.max-size:HetuEngine计算实例单个日志文件的最大值,默认值:100MB。 log.max-
s命令来查看任务的执行进度。 存在由其他原因导致的Broker故障,且问题场景单一明确,短时间内可以恢复Broker的情况。 根据问题根因指定恢复方案,恢复故障Broker。 故障Broker恢复后,阻塞的均衡任务会继续执行,可使用--status命令来查看任务的执行进度。 存在
在以Streaming方式提交MR任务给WebHCat前,需要将“hadoop-streaming-2.7.0.jar”包上传到HDFS的指定路径下:“hdfs:///apps/templeton/hadoop-streaming-2.7.0.jar”。首先登录到安装有客户端和H
执行以下命令加载环境变量: source bigdata_env 启用多实例功能后,为其他HBase服务实例进行应用程序开发时还需执行以下命令,切换指定服务实例的客户端。 例如HBase2:source /opt/client/HBase2/component_env。 将应用开发环境中生
不涉及 min_capacity 是 Integer 参数解释: 指定该节点组的最小保留节点数。 约束限制: 不涉及 取值范围: 0-500 默认取值: 不涉及 max_capacity 是 Integer 参数解释: 指定该节点组的最大节点数。 约束限制: 不涉及 取值范围: 0-500
只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以
ClickHouseServer(角色) > 引擎”,修改如下参数,配置连接Kafka的用户名和密码。 参数 参数说明 kafka.sasl_mechanisms 指定连接Kafka使用的SASL认证机制,参数值为PLAIN。 kafka.sasl_password 连接Kafka用户的密码,新建的用户c
若未同步IAM用户,需在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步再重启Hive服务。 重启Hive服务后,Hive会在指定的数据库下创建Hive必须的数据库表(如表已经存在则不会创建)。 父主题: 管理MRS集群元数据
”。 然后执行: source bigdata_env 启用多实例功能后,为其他HBase服务实例进行应用程序开发时还需执行以下命令,切换指定服务实例的客户端。 例如HBase2:source /opt/client/HBase2/component_env。 将应用开发环境中生
Groupings进行连接的有向无环图(DAG)。Topology里面的每一个Component(Spout/Bolt)节点都是并行运行的。在Topology里面, 可以指定每个节点的并行度,Storm则会在集群里面分配相应的Task来同时计算,以增强系统的处理能力。 图2 Topology Storm有众多适
执行程序参数 可选参数,程序执行的关键参数,多个参数间使用空格隔开。 配置格式:程序类名 数据输入路径 数据输出路径 程序类名:由用户程序内的函数指定,MRS只负责参数的传入。 数据输入路径:通过单击“HDFS”或者“OBS”选择或者直接手动输入正确路径。 数据输出路径:数据处理结果输出
只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以
保HDFS/OBS数据源的输入路径目录名、输入路径的子目录名及子文件名不能包含特殊字符/\"':;,中的任意字符。 如果设置的任务需要使用指定YARN队列功能,该用户需要已授权有相关YARN队列的权限。 设置任务的用户需要获取该任务的执行权限,并获取该任务对应的连接的使用权限。 操作步骤
4f854bf4-ea54-4595-a9d9-9b9080779ffe 其中,flink/checkpoint/checkpoint表示指定的根目录。 fd5f5b3d08628d83038a30302b611表示以jobID命名的第二次目录。 chk-X中"X"为checkpoint编号,第三层目录。