检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
table dataorigin; 执行如下命令创建Kudu表,其中kudu.master_addresses地址为KuduMaster实例的IP,请根据实际集群地址填写。 create table dataorigin2 (name string,age string,pt string
/move-kafka-topic.json --broker-list "1,2,3" --generate 172.16.0.119:ZooKeeper实例的业务IP。 --broker-list "1,2,3":参数中的“1,2,3”为扩容后的所有broker_id。 执行vim ../reassignment
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看“告警ID”为“50211”的“定位信息”中的角色名并确定实例的IP地址。 选择“集群 > 服务 > Doris > 实例”,单击告警上报的FE,进入实例“图表”页面。 左侧图表分类选择“JVM”,查看FE
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,选中“告警ID”为“50229”的告警,查看“定位信息”中的角色名并确定实例的IP地址,查看“附加信息”中的CurrentValue值。 若“CurrentValue”值为“2”,表示获取的AK/SK失效,执行2。 若“
Manager首页,选择“运维 > 告警 > 告警”,弹出告警页面,选中“告警ID”为“45587”的告警,在该页面的告警详情里查看“定位信息”中的角色名并确定实例的IP地址。 选择“集群 > 待操作集群的名称 > 服务 > IoTDB > 实例”,单击告警上报的IoTDBServer,进入实例“概览”页面
是,处理完毕。 否,执行4。 收集故障信息。 以root用户登录主管理节点,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 查看不健康服务的日志信息。 HDFS的日志文件存储路径为“/var/
Manager首页,选择“运维 > 告警 > 告警”,单击告警“ZooKeeper进程垃圾回收(GC)时间超过阈值”所在行的下拉菜单。查看告警上报的实例的IP地址。 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper > 实例 >
端口仅支持不开启Kerberos模式下的端口,端口说明详见Kafka安全接口介绍 kafka.client.zookeeper.principal kafka集群访问zookeeper的认证和域名 - bootstrap.servers Broker地址列表 通过此参数值,创建与
步骤)。 kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server ZooKeeper角色实例所在节点业务IP: clientPort 执行以下命令,查看当前拓扑。 get /clickhouse/topo 如果ClickHouse安装了多服务,则执行命令get
全信息后,例如修改数据库用户密码,新密码将使用新的密钥加密。 更新集群密钥需要停止集群,集群停止时无法访问。 前提条件 已确认主备管理节点IP。 停止依赖集群运行的上层业务应用。 更新MRS集群密钥(MRS 3.x及之后版本) 登录FusionInsight Manager。 选择“集群
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,选中“告警ID”为“50228”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 单击“阈值设置”,选择“待操作的集群名称 > Doris > 租户资源 > 租户内存使用率超过阈值”,查看并记录该告警的阈值。 选择“集群
table dataorigin; 执行如下命令创建Kudu表,其中kudu.master_addresses地址为KuduMaster实例的IP,请根据实际集群地址填写。 create table dataorigin2 (name string,age string,pt string
是否使用YARN本地目录加载多个磁盘的数据。设置为true,则使用YARN本地目录加载多个磁盘的数据,以提高数据加载性能。 carbon.use.multiple.temp.dir false 是否使用多个临时目录存储临时文件以提高数据加载性能。 carbon.load.datamaps.parallel
任务示例:添加Hive自定义参数 Hive依赖于HDFS,默认情况下Hive访问HDFS时是HDFS的客户端,生效的配置参数统一由HDFS控制。 例如HDFS参数“ipc.client.rpc.timeout”影响所有客户端连接HDFS服务端的RPC超时时间,如果用户需要单独修改Hive连接HDFS的超时
haclusterX”,值为“目标集群主NameNode实例节点业务IP:RPC端口”;新增自定义参数“dfs.namenode.rpc-address.haclusterX1”,值为“目标集群备NameNode实例节点的业务IP:RPC端口”,NameNode RPC端口默认为“2500
是否使用YARN本地目录加载多个磁盘的数据。设置为true,则使用YARN本地目录加载多个磁盘的数据,以提高数据加载性能。 carbon.use.multiple.temp.dir false 是否使用多个临时目录存储临时文件以提高数据加载性能。 carbon.load.datamaps.parallel
在“Table Name”填写Hive表的名称。 支持字母、数字、下划线,首位必须为字母或数字,且长度不能超过128位。 根据需要,在“Description”填写Hive表的描述信息。 在“Input File or Location”单击,在HDFS中选择一个用于创建Hive表文件。此文件将存储Hive表的新数据。
OPTIONS('TIMESTAMPFORMAT'='timestampFormat') SKIP_EMPTY_LINE:数据加载期间,此选项将忽略CSV文件中的空行。 OPTIONS('SKIP_EMPTY_LINE'='TRUE/FALSE') 可选:SCALE_FACTOR:针对
-hDoris FE实例IP地址 执行命令后输入数据库登录用户密码。 Doris FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。 Doris FE实例IP地址可通过登录MRS集群的Manager界面,单击“集群
效率 示例: 业务经常使用主键id作为查询条件,执行点查;比如select xxx where id = idx ... 。 建表时,可以加入如下属性,提升查询效率。默认配置下属性值等于primaryKey,即主键。 hoodie.bucket.index.hash.field=id