检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
hadoop/hdfs-site.xml 打开hdfs-site.xml配置文件,查找相关参数。 vim hdfs-site.xml Hive组件查看。 /opt/Bigdata/client/Hive/config/hive-site.xml 打开hive-site.xml配置文件,查找相关参数。
encoding”区域,选中“Other”,并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图5所示。 图5 设置Eclipse的编码格式 打开样例工程中的“conf/hbase-site.xml”文件,修改“hbase.zookeeper.quorum”的值为正确的Zookeeper地址。
baidu.com”。 用户网络防火墙策略是否限制了访问。 修改防火墙策略,或者暂时关闭防火墙。 用户网络是否需要通过代理才能访问互联网。 打开代理。 如果无法确定原因并解决问题,请提交工单反馈问题。您可以登录管理控制台,在右上方单击“工单 > 新建工单”填写并提交工单。 父主题:
erV2 cluster 删除角色 deleteRole cluster 关闭集群日志 disableLTSAccess cluster 打开集群日志 enableLTSAccessc cluster Doris获取Catalogs getCatalogs cluster 获取集群信息
HBase目标集群中目标表已经存在。如果目标表不存在,请先创建目标表。 创建表的具体步骤,请参考HBase Shell命令简介。 在客户端主机,打开命令行终端窗口,进入客户端工具安装目录的hbase目录下,然后执行CopyTable命令导入数据到CloudTable集群。 命令示例如下
作的执行(如副本均衡等)。而如果高于危险水位,则会禁止某些操作的执行(如导入)。 同时,在BE上也设置了 危险水位(Flood Stage)。考虑到FE并不能完全及时的监测到BE上的磁盘使用情况,以及无法控制某些BE自身运行的操作(如Compaction)。因此BE上的危险水位用
了解更多OBS的相关信息,请参见对象存储服务。 云数据迁移CDM CloudTable使用云数据迁移(Cloud Data Migration,简称CDM),可以将云上云下或第三方云上的多种数据源的数据迁移到CloudTable集群的HBase表中。 了解更多CDM的相关信息,请参见云数据迁移服务。 云搜索服务CSS
版,默认禁止Administrator用户,Internet Explorer在安装时自动选择其他用户如System用户安装,从而导致Internet Explorer无法打开登录页面。请使用管理员身份重新安装Internet Explorer 9.0或更高版本(建议),或尝试使用管理员身份运行Internet
停止计费 以下分别为您介绍按需计费模式、包年/包月计费模式如何停止计费。 包年/包月资源 对于包年/包月计费模式的资源,例如包年/包月的CloudTable集群,用户在购买时会一次性付费,服务将在到期后自动停止使用。 如果在计费周期内不再使用包年/包月资源,您可以执行退订操作,系
安全TCP端口:9440。 计费模式 显示集群的计费模式。 按需计费。 包年包月。 创建时间 显示集群创建的时间。 企业项目 企业项目管理帮助您将相关的资源(如具有相同使用用途的资源)集中在一起,按企业项目的方式来管理云资源。 说明: 当企业业务发生变化,原用户不再拥有企业项目的使用权限时,可将这些用户与该企业项目的关联关系删除。
计费模式 显示集群的计费模式。 创建时间 显示集群创建的时间。 数据库引擎 用于存储、处理和保护数据的核心服务。 是否开启Broker进程 是否打开Broker进程,用于给客户做数据导入场景。 是否开启https “是”表示已经开启安全通道,可以下载证书。 是否开启冷热分离 “是”表示
取值范围 监控周期(原始指标) 命名空间 doris_fe_image_clean_failed 清理历史元数据镜像文件失败的次数 不应失败,如失败,需人工介入 ≥0 60s SYS.CloudTable doris_fe_image_clean_success 清理历史元数据镜像文件成功的次数
户端校验文件”,下载客户端安装包和客户端校验文件。 安装客户端并校验客户端。 使用文件传输工具(如WinSCP工具)将客户端安装包上传到Linux弹性云服务器。 使用SSH登录工具(如PuTTY)通过“弹性IP”远程登录到Linux弹性云服务器。 具体登录操作步骤请参见《弹性云服
有tablet放入垃圾回收站,并不会物理删除原有tablet,因此产生垃圾文件。 Delete/drop/truncate等操作只是在逻辑上删除了数据,并没有进行物理删除,也会产生垃圾文件。 数据文件合并完成后,并没有物理删除旧的数据,产生垃圾文件。 垃圾文件影响 过多垃圾文件,
创建完成。 步骤四:安装客户端并校验客户端 安装客户端有一键部署客户端、手动安装部署两种方法,此处使用手动安装部署。 使用SSH登录工具(如PuTTY)通过“弹性IP”远程登录到Linux弹性云服务器。 具体登录操作步骤请参见《弹性云服务器用户指南》中的“登录Linux弹性云服务器
database_name 数据库的名称,默认为当前选择的数据库。 table_name 本地表名。 ON CLUSTERClickHouse集群名 在每一个节点上都创建一个本地表,固定为ON CLUSTER ClickHouse集群名。 name1,name2 列名。 ENGINE = engine_name()
我们以最基本的count(*)查询为例: SELECT COUNT(*) FROM table; 在其他数据库中,这类查询都会很快返回结果。因为在实现上,我们可以通过如导入时对行进行计数,保存count的统计信息,或者在查询时仅扫描某一列数据,获得count值的方式,只需很小的开销,即可获得查询结果
创建Distributed表时需加上on cluster cluster_name,这样建表语句在某一个ClickHouse实例上执行一次即可分发到集群中所有实例上执行。 分布式表通常以本地表加“_all”命名。它与本地表形成一对多的映射关系,之后可以通过分布式表代理操作多张本地表。
本文为您介绍Broker Load导入的基本原理、基本操作、系统配置以及最佳实践。 适用场景 源数据在Broker可以访问的存储系统中,如HDFS、OBS。 数据量在几十到百GB级别。 基本原理 用户在提交导入任务后,FE会生成对应的Plan并根据目前BE的个数和文件的大小,将