检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Loader作业流程 用户通过Loader界面进行数据导入导出作业,操作流程如图1所示。 图1 导入流程示意 用户也可以通过shell脚本来更新与运行Loader作业,该方式需要对已安装的Loader客户端进行配置。 父主题: 使用Loader
存在,需提前手动创建: user/<用户名>/.Trash user/omm/.Trash 文件过期删除天数 策略配置范围内的对象最后一次更新后时间达到指定的天数后,对象将过期并自动被OBS删除。 30天 单击“确定”,完成生命周期规则配置。 若您需修改生命周期的内容,请单击该生
加入、退出Cgroup时,agent进程不受影响。若agent进程未启动,加入、退出Cgroup仍然可以成功执行,待下一次agent启动时生效。 客户端卸载完成后,安装时期创建的Cgroup会自动删除。 父主题: 安装Flume客户端
') 如果GLOBAL_SORT_PARTITIONS和SCALE_FACTOR同时使用,只有GLOBAL_SORT_PARTITIONS生效。 RANGE_COLUMN合并默认使用LOCAL_SORT。 使用场景 可使用下列语句从CSV文件加载CarbonData table。
在“Plugins”页面,单击“Apply”安装Scala插件。 在弹出的“Platform and Plugin Updates”页面,单击“Restart”,使配置生效。 图11 Platform and Plugin Updates 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick
当用于查询的列是组合索引的全部或部分列并且与组合索引具有相同的顺序时,使用索引会提高查询性能。 例如,为C1,C2和C3创建组合索引。 该索引在以下情况下生效: Filter_Condition(IndexCol1)AND Filter_Condition(IndexCol2)AND Filte
alNode同步元数据信息。 通常配置奇数个(2N+1个)JournalNode,且最少要运行3个JournalNode。这样,一条元数据更新消息只要有N+1个JournalNode写入成功就认为数据写入成功,此时最多容忍N个JournalNode写入失败。比如,3个Journa
对于规则类型为运行熔断的SQL防御规则,系统支持“熔断”操作。 规则添加成功后,可以在“SQL防御”界面查看已添加的防御规则。防御规则动态生效。 如需对当前规则进行调整,可单击对应规则所在“操作”列的“修改”,验证用户密码后可修改规则相关参数。 图1 查看SQL防御规则 MRS SQL防御规则
对于每个组使用strategyParams实例化适当的策略类(例如:sortColumns),然后应用该策略重写数据。 创建一个REPLACE提交,并更新HoodieReplaceCommitMetadata中的元数据。 如何执行Clustering 同步执行Clustering配置。 在写入时加上配置参数:
HQL相关信息,请参考HQL 语言手册。 图3为Hive的结构简图。 Metastore:对表,列和Partition等的元数据进行读写及更新操作,其下层为关系型数据库。 Driver:管理HQL执行的生命周期并贯穿Hive任务整个执行期间。 Compiler:编译HQL并将其转
carbon.tablestatus.multi.version.file.coun 3 仅在开启tablestatus文件多版本管理后生效,默认保留最近的tablestatus文件数,超出该参数限制的tablestatus文件会被删除。 表2 carbon.properties中的性能配置
用户在集群中创建数据库或者表时需使用ON CLUSTER语句,保证各个ClickHouse节点上数据库、表的元信息相同。 ClickHouse赋权成功后,权限生效时间大约为1分钟。 添加ClickHouse角色 登录Manager,选择“系统 > 权限 > 角色”,在“角色”界面单击“添加角色”按钮,进入添加角色页面。
在“Plugins”页面,单击“Apply”安装Scala插件。 在弹出的“Plugins Changed”页面,单击“Restart”,使配置生效。 图10 Plugins Changed 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick Start”页面选择“Import
Hudi是数据湖的文件组织层,对Parquet格式文件进行管理提供数据湖能力,支持多种计算引擎,提供IUD接口,在 HDFS的数据集上提供了插入更新和增量拉取的流原语。 商用 Hudi基本原理 Hudi快速入门 2 ClickHouse组件版本升级到21.3.4.25,支持数据重分布
test.hosts * hadoop.proxyuser.test.groups * 重启HDFS、Yarn、Spark、Hive服务,并更新客户端HDFS、Yarn、Spark、Hive配置文件。 登录Spark客户端节点,执行如下命令: cd 客户端安装目录 source bigdata_env
Spark on Hudi场景的Java/Scala/Python示例程序。 本工程应用程序使用Spark操作Hudi执行插入数据、查询数据、更新数据、增量查询、特定时间点查询、删除数据等操作。 SparkOnHudiPythonExample SparkOnHudiScalaExample
') 如果GLOBAL_SORT_PARTITIONS和SCALE_FACTOR同时使用,只有GLOBAL_SORT_PARTITIONS生效。 RANGE_COLUMN合并默认使用LOCAL_SORT。 LOCAL_SORT与分区表的DDL操作存在冲突,不能同时使用,且对分区表
在“Plugins”页面,单击“Apply”安装Scala插件。 在弹出的“Platform and Plugin Updates”页面,单击“Restart”,使配置生效。 图11 Platform and Plugin Updates 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick
支持界面选择配置创建主题 支持界面删除主题(Kafka服务设置了参数“delete.topic.enable = true”) 支持为已有主题增加分区 支持更新现有主题的配置 可以为分区级别和主题级别度量标准启用JMX查询 父主题: Kafka
Spark on Hudi场景的Java/Scala/Python示例程序。 本工程应用程序使用Spark操作Hudi执行插入数据、查询数据、更新数据、增量查询、特定时间点查询、删除数据等操作。 SparkOnHudiPythonExample SparkOnHudiScalaExample