检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
值确保集群可正常使用。 对系统的影响 重启期间集群将无法提供服务。因此,在重启前,请确定集群中没有正在运行的任务,并且所有数据都已经保存。 如果集群正在处理业务数据,如导入数据、查询数据,一旦重启集群,有可能会导致文件损坏或重启失败。因此,建议停止所有集群任务后,再重启集群。 如
hive元数据uri,可在hive-site.xml配置文件查看。 hive.metastore.sasl.enabled 可在hive-site.xml配置文件查看。 dfs.nameservices 可在hdfs-site.xml配置文件查看。 dfs.ha.namenodes.hacluster
的待导入文件就需要通过调整Broker load的导入参数来实现大文件的导入。 根据当前BE的个数和原始文件的大小修改单个BE的最大扫描量和最大并发数。 修改fe配置项。 max_broker_concurrency=BE个数。 当前导入任务单个BE处理的数据量=原始文件大小/m
连接参数配置 单击“保存”。 在CDM集群中,在“表/文件迁移”页面,新建一个作业。 有关新建“表/文件迁移”作业的详细操作,请参见《云数据迁移用户指南》的新建表/文件迁移作业章节。 在新建“表/文件迁移”类型的作业时,如果待迁移的源端的表/文件在目的端CloudTable集群中不存在相应
principal 可在hive-site.xml配置文件查看。 hive.metastore.kerberos.principal 可在hive-site.xml配置文件查看。 dfs.nameservices 可在hdfs-site.xml配置文件查看。 dfs.ha.namenodes.hacluster
key,获取方式请参见对象存储服务的获取访问密钥(AK/SK)章节。 AWS_SECRET_KEY secret key,获取方式请参见对象存储服务的获取访问密钥(AK/SK)章节。 AWS_ENDPOINT obs地址,获取方式见请参见对象存储服务的获取终端节点章节。 AWS_REGION
达到自我保护的目的。请参见磁盘空间管理。 影响 太迟钝,会造成磁盘间数据量差异较大,影响并发性能。 太频繁,会产生大量垃圾文件,占用磁盘,需同步调整垃圾文件超时时间。 父主题: 通用类
在显示的“Select File or Directory to Import”对话框中,选择“clickhouse-examples”文件夹中的“pom.xml”文件,单击“OK”。 确认后续配置,单击“Next”,如无特殊需求,使用默认值即可。 选择推荐的JDK版本,单击“Finish”完成导入。
值确保集群可正常使用。 对系统的影响 重启期间集群将无法提供服务。因此,在重启前,请确定集群中没有正在运行的任务,并且所有数据都已经保存。 如果集群正在处理业务数据,如导入数据、查询数据,一旦重启集群,有可能会导致文件损坏或重启失败。因此,建议停止所有集群任务后,再重启集群。 如
Doris集群支持的监控指标 功能说明 监控是保持CloudTable服务可靠性、可用性和性能的重要部分,通过监控,用户可以观察CloudTable服务器的运行状态。本章节定义了表格存储服务上报云监控服务的监控指标的命名空间、监控指标列表和维度定义。 命名空间 SYS.CloudTable/Service
配置参数 执行样例代码前,必须在hbase-site.xml配置文件中,配置正确的ZooKeeper集群的地址。 配置项如下: <property> <name>hbase.zookeeper.quorum</name> <value>xxx-zk1.cloudtable.com
配置参数 执行样例代码前,必须在hbase-site.xml配置文件中,配置正确的ZooKeeper集群的地址。 配置项如下: <property> <name>hbase.zookeeper.quorum</name> <value>xxx-zk1.cloudtable.com
配置参数 执行样例代码前,必须在hbase-site.xml配置文件中,配置正确的ZooKeeper集群的地址。配置项如下: <property> <name>hbase.zookeeper.quorum</name> <value>xxx-zk1.cloudtable.com,xxx-zk2
【建议】慎用delete、update操作。 标准SQL的更新、删除操作是同步的,即客户端等服务端返回执行结果在执行。而Clickhouse的update、delete是通过异步方式实现的,当执行update语句时,服务端立即响应,实际上此时数据还没变,而是排队等待,可能会出现操作覆盖的情况,也
在Linux客户端下执行Jar包的时候,先将应用开发环境中生成的Jar包拷贝上传至客户端安装目录的“lib”目录中,并确保Jar包的文件权限与其它文件相同。 用安装用户切换到客户端目录的“bin”目录下,然后运行如下命令使Jar包执行: [Ruby@cloudtable-08261700-hmaster-1-1
命周期。 准备开发用户 准备用于应用开发的ClickHouse集群用户并授予相应权限。 7-zip 用于解压“*.zip”和“*.rar”文件,支持7-Zip 16.04版本。 父主题: 开发程序
在其他连接上进行重试。 前提条件:集群必须开启HTTPS。 下载证书请在集群详情页面下载。 在已安装mysql客户端的ecs服务器上先执行以下命令,导入服务器证书。 your_certificate_path:自定义证书存放路径。 your_truststore_name:自定义truststore名称。
日志级别默认为INFO,可以通过调整日志打印级别(DEBUG,INFO,WARN,ERROR,FATAL)来显示更详细的信息。可以通过修改log4j.properties文件来实现,如: hbase.root.logger=INFO,console log4j.logger.org.apache.zookeeper=INFO
单击“Finish”,完成导出Jar包。 准备依赖的Jar包和配置文件。 在Linux环境新建目录,例如“/opt/test”,并创建子目录“lib”和“conf”。将样例工程中“lib”的Jar包,以及1导出的Jar包,上传到Linux的“lib”目录。将样例工程中“conf”的配置文件上传到Linux中“conf”目录。
per_broker_scanner, 或者调整导入并发数。具体计算逻辑如下: 本次导入并发数=Math.min(源文件大小/最小处理量,最大并发数,当前BE节点个数) 本次导入单个BE的处理量=源文件大小/本次导入的并发数 其中:最小处理量 min_bytes_per_broker scanner默认为64M