检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击“确定”开始生成客户端文件。 文件生成后默认保存在主管理节点“/tmp/FusionInsight-Client”。 客户端软件包名称格式为:“FusionInsight_Cluster_集群ID_Services_Client.tar”。本章节仅以集群ID为1进行介绍,请以实际集群ID为准。
当指定多个tag进行查询时,标签之间是与的关系。 约束限制: 不涉及 取值范围: tags参数的格式为tags=k1*v1,k2*v2,k3*v3 当标签的value为空时,格式为tags=k1,k2,k3*v3 默认取值: 不涉及 pageSize 否 String 参数解释:
String 参数解释: 资源计划的起始时间,格式为“hour:minute”,表示时间在0:00-23:59之间。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 end_time 是 String 参数解释: 资源计划的结束时间,格式与“start_time”相同。 约束限制:
序为例进行介绍,需先准备wordcount样例程序运行所需的数据文件。 以root用户登录Master1节点。 准备数据文件。 数据文件无格式要求,例如文件名为“wordcount1.txt”和“wordcount2.txt”,内容如下所示: vi /opt/wordcount1
maxLatitude:Double类型,最大纬度 SPATIAL_INDEX.xxx.conversionRatio:Int类型,将经纬度小数值转换为整型值 用户可以按照上述格式为处理程序添加自己的表属性,并在自定义实现类中访问它们。originLatitude,gridSize及conversionRatio是必
maxLatitude:Double类型,最大纬度 SPATIAL_INDEX.xxx.conversionRatio:Int类型,将经纬度小数值转换为整型值 用户可以按照上述格式为处理程序添加自己的表属性,并在自定义实现类中访问它们。originLatitude,gridSize及conversionRatio是必
确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper {zkQuorum}/kafka
审计日志。 单击手动刷新当前页面,也可在修改审计表格显示的列。 单击“导出全部”,可一次性导出所有审计信息,可导出“TXT”或者“CSV”格式。 查看审计日志(MRS 3.x之前版本) 在MRS Manager,单击“审计管理”,可直接查看默认的审计日志。 若审计日志的审计内容长
-AFTER MATCH [可选]:指定从何处开始对下一个模式匹配进行匹配成功后的处理。 -PATTERN: 将匹配模式定义为正则表达式格式。PATTERN子句中可使用以下运算符: 连接运算符,量词运算符(*,+,?,{n},{n,}, {n,m}, {,m}),分支运算符(使用竖线‘|’),以及异运算符(‘{-
支持Hive查询语言(HQL)中大多数的SQL-92功能,包括SELECT,JOIN和聚合函数。 HDFS,HBase和对象存储服务(OBS)存储,包括: HDFS文件格式:基于分隔符的Text file,Parquet,Avro,SequenceFile和RCFile。 压缩编解码器:Snappy,GZIP,Deflate,BZIP。
单击“确定”开始生成客户端文件。 文件生成后默认保存在主管理节点“/tmp/FusionInsight-Client”。 客户端软件包名称格式为:“FusionInsight_Cluster_集群ID_Services_Client.tar”。本章节仅以集群ID为1进行介绍,请以实际集群ID为准。
固定值:s3 storage_configuration.disks.disk_s3.endpoint 创建的OBS并行文件系统的访问路径,具体格式如下: https://并行文件系统名.并行文件Endpoint/文件夹名称/ 并行文件系统名:创建OBS并行文件系统中创建的OBS并行文件名。
xxx select xxx from xxx语句插入数据后,分区值插入到了其他字段。 无法获取包含genericUDF执行计划的json格式。 Insert overwrite table a select * from a, metastore故障后,数据丢失。 创建bloc
丢失的问题。 解决spark show tables不支持Ranger鉴权的问题。 解决无法获取包含genericUDF执行计划的json格式的问题。 Show Tables增加Ranger鉴权的开关。 解决Spark作业Driver经常Full GC报OOM异常的问题。 解决创
CREATE TABLE 命令功能 CREATE TABLE命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name [(col_name data_type
CREATE TABLE 命令功能 CREATE TABLE命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name [(col_name data_type
IoTDB”,“驱动”默认为“iotdb”。 配置“IoTDB配置”的以下参数: JDBC URL:连接IoTDB的JDBC URL地址,格式为“jdbc:iotdb://IoTDBServer业务IP1,IoTDBServer业务IP2:端口号”。 IoTDBServer业务I
everyone.if.no.acl.found”的值修改为“true”。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper {zkQuorum}/kafka
obs://wordcount/program/test.jar 执行程序参数 可选参数,程序执行的关键参数,多个参数间使用空格隔开。 配置格式:程序类名 数据输入路径 数据输出路径 程序类名:由用户程序内的函数指定,MRS只负责参数的传入。 数据输入路径:通过单击“HDFS”或者
解决HetuEngine对Hudi的bucket索引mor表和mor_rt表查询失败问题。 解决HetuEngine查询Hive的LZ4压缩格式数据失败问题。 解决HetuEngine查询Hudi的OBS表失败问题。 解决HetuEngine多hashkey时,查询条件包含单个hashkey时,无法查出结果的问题。