检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 HSBroker_IP:HSBroker_Port是HSBroker的URL,多个URL以逗号隔开。例如:“192.168.81.37:2181,192.168.195.232:2181,192
listener”参数值为“true”。 说明: 安装Kafka服务时,此参数初始化配置不能设置为“true”,设置为“true”的前提条件是Broker实例和ZooKeeper必须处于正常运行状态。 advertised.broker.id.ip.map Kafka对外发布的IP地址,默认值为空。
用于初始任务分配节点时的内存需求估计。值越大表明每个TASK预估使用的内存更大,但会导致集群并发能力变小,可根据实际业务情况动态调整。 添加完成后将“立即启动”置为“是”,单击“确定”。 启用TASK容错模式后,会产生中间数据并缓存到文件系统中,过大的查询并发会对文件系统产生较大的磁盘压力。当前HetuEn
在用户集群的ECS机器被删除、关机、修改规格、重启、更新OS的行为,会导致大数据集群异常,当检测到用户的虚拟机出现以上状态的时候,发送通知给对应用户。 创建主题 主题是消息发布或客户端订阅通知的特定事件类型。它作为发送消息和订阅通知的信道,为发布者和订阅者提供一个可以相互交流的通道。 登录管理控制台。 单击“服务列表”选择“管理与监管
num of 'COUNT(DISTINCT)'(6) reaches the hint threshold(2) 若SQL防御规则中设置的动作是“拦截”,系统回显信息如下: Error in query: static_0001 Occurrence num of 'COUNT(DISTINCT)'(6)
eToKillInSeconds="${tgt.timeToKillInSeconds:1200}"中的1200为对应的超时时长,值的单位是秒。 在主Master节点重启tomcat服务。 在主master节点上用omm用户执行netstat -anp |grep 28443 |grep
<path/for/newData>:指的是新集群保存源数据的路径。例如,/user/hbase/t1。 其中,ActiveNameNodeIP是新集群中主NameNode节点的IP地址。 例如,hadoop distcp /user/hbase/t1 hdfs://192.168.40
> HBase > HBase Scope > global”,勾选命名空间“default”的“创建”,单击“确定”保存。 本例中建表是保存在Hive的“default”数据库中,默认具有“default”数据库的“建表”权限。如果Hive的数据库不是“default”,则还需要执行以下步骤:
url Loader服务的浮动IP地址和端口(21351)。 为了兼容性,此处支持配置多个IP地址和端口,并以“,”进行分隔。其中第一个必须是Loader服务的浮动IP地址和端口(21351),其余的可根据业务需求配置。 10.0.0.1:21351,10.0.0.2:12000 authentication
maxbuffer=0x400000。 表1 配置参数 参数 描述 默认值 jute.maxbuffer 指定可以存储在znode中的数据的最大长度。单位是Byte。默认值为0xfffff,即低于1MB。 说明: 如果更改此选项,则必须在所有服务器和客户端上设置该系统属性,否则将出现问题。 0xfffff
ClickHouse利用ZooKeeper,通过ReplicatedMergeTree引擎(Replicated 系列引擎)实现了副本机制。副本机制是多主架构,可以将INSERT语句发送给任意一个副本,分片内其余副本会进行数据的异步复制。 下图中的Node1和Node2对应为集群配置中的host1和host2主机节点。
topic中每个partition数据的副本数。 {Topic} Topic名称。 示例:在Kafka的客户端路径下执行命令,此处以ZooKeeper集群的IP:port是10.96.101.32:2181,10.96.101.251:2181,10.96.101.177:2181,10.91.8.160:21
> HBase > HBase Scope > global”,勾选命名空间“default”的“创建”,单击“确定”保存。 本例中建表是保存在Hive的“default”数据库中,默认具有“default”数据库的“建表”权限。如果Hive的数据库不是“default”,则还需要执行以下步骤:
maxbuffer=0x400000。 表1 配置参数 参数 描述 默认值 jute.maxbuffer 指定可以存储在znode中的数据的最大长度。单位是Byte。默认值为0xfffff,即低于1MB。 说明: 如果更改此选项,则必须在所有服务器和客户端上设置该系统属性,否则将出现问题。 0xfffff
副本同时写入,同一时间每个副本写入的数据保持均衡。 慎用分布式表批量插入 写分布式表,数据会分发到集群的所有本地表,每个本地表插入的数据量是总插入量的1/N,batch size可能比较小,导致data part过多,merge压力变大,甚至出现异常影响数据插入; 数据的一致性问
启HDFS服务。 “HTTP_ONLY”默认是勾选的。 操作步骤 登录FusionInsight Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。 由于webhdfs是http访问的,需要主NameNode的IP和http端口。
委托名称:填写委托名称,例如:agency-MRS-to-OBS。 委托类型:选择“普通账号”。 委托的账号:填写本用户的云账号,即使用手机号开通的账号,不能是联邦用户或者IAM用户。 持续时间:选择“永久”。 在弹出授权页面的搜索框内,搜索3新建的自定义策略,并勾选该策略,例如“doris-policy”。
要作用:对于数据导入到集群的场景来说,就是从外部数据源读取数据;对于数据从集群导出去的场景来说,就是将数据写入到外部数据源。上述示例配置的是一个SFTP数据源连接器。配置SFTP和FTP的数据源连接器需要设置密码并进行加密。密码加密方法如下: 执行以下命令,进入到loader-tools-1
参数carbondata,定义和创建CarbonData table。 TBLPROPERTIES CarbonData table属性列表。 注意事项 以下是表格属性的使用。 Block大小 单个表的数据文件block大小可以通过TBLPROPERTIES进行定义,系统会选择数据文件实际大小和设置
参数carbondata,定义和创建CarbonData table。 TBLPROPERTIES CarbonData table属性列表。 注意事项 以下是表格属性的使用。 Block大小 单个表的数据文件block大小可以通过TBLPROPERTIES进行定义,系统会选择数据文件实际大小和设置