检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
UDF,大于5个入参的Hive UDF将无法被注册。 如果Hive UDF入参为null,系统调用Hive UDF将直接返回null,不会解析null作为入参的Hive UDF逻辑,这可能导致处理null值的Hive UDF执行结果与Hive执行结果不一致。 需要在maven工程中添加hive-exec-3
Doris采用MySQL协议,高度兼容MySQL语法,支持标准SQL,用户可以通过各类客户端工具来访问Doris,并支持与BI工具无缝对接。 FE 主要负责用户请求的接入、查询解析规划、元数据的管理、节点管理相关工作。 BE 主要负责存储数据、执行查询计划、副本负载均衡。 Leader Leader为Follower组中选举出来的一种角色。
表中所有二级索引表的表名+列名的累积长度*(单位:字符) 3800** * Hive允许的上限值或可用资源的上限值。 ** 二级索引表使用hive注册,并以json格式的值存储在HiveSERDEPROPERTIES中。由hive支持的SERDEPROPERTIES的最大字符数为4000个字符,无法更改。
根据业务需要,修改作业配置参数。 单击“保存”。 左侧导航栏支持作业的基本操作,包含“运行”、“复制”、“删除”、“激活”、“历史记录”和“显示作业JSON定义”。 删除作业 访问Loader页面。 在指定作业所在行,单击。 您还可以勾选一个或多个作业,单击作业列表右上方的“删除作业”。 在
getExecutionEnvironment(); // 设置并发度 env.setParallelism(1); // 解析运行参数 ParameterTool paraTool = ParameterTool.fromArgs(args);
getExecutionEnvironment(); // 设置并发度 env.setParallelism(1); // 解析运行参数 ParameterTool paraTool = ParameterTool.fromArgs(args);
SYN_RECV状态数量 TIME_WAITING状态数量 FIN_WAIT2状态数量 FIN_WAIT1状态数量 CLOSE_WAIT状态数量 DNS解析时长 TCP临时端口使用率 主机网络数据包帧错误数 网络读信息 主机网络读包数 主机网络读包丢包数 主机网络读包错误数 主机网络接收速率 磁盘
HDFS连接中的“hdfs_link”。 源目录或文件:待迁移数据的目录或单个文件路径。 文件格式:传输数据时所用的文件格式,这里选择“二进制格式”。不解析文件内容直接传输,不要求文件格式必须为二进制。适用于文件到文件的原样复制。 其他可选参数一般情况下保持默认即可,详细说明请参见配置HDFS源端参数。
在新建策略界面配置以下参数并单击“下一步”: 策略名称:自定义策略名称,例如“guardian-policy”。 策略配置方式:选择“JSON视图”。 策略内容配置如下: { "Version": "1.1", "Statement": [ {
内容说明请参考表1,条目较多时,单击搜索框可根据关键字字段进行筛选。 表1 Audit信息 页签 内容描述 Access 当前MRS不支持在线查看组件资源的审计日志信息,可登录组件安装节点,进入“/var/log/Bigdata/audit”目录下查看各组件的审计日志。 Admin
HetuEngine支持配置IoTDB数据源。 Hudi 升级到0.11.0版本。 IoTDB 新增组件,一体化收集、存储、管理与分析物联网时序数据的服务。 集群管理 支持补丁在线推送及更新。 组件版本信息 表1 MRS组件版本信息 组件 版本 CarbonData 2.2.0 ClickHouse 22.3.2.2
'%Y/%m/%d');-- 2020/07/22 date_parse(string, format) → timestamp 按format格式解析日期字面量。 select date_parse('2020/07/20', '%Y/%m/%d');-- 2020-07-20 00:00:00
景,为了保障与数据表的一致性,索引表TTL将自动继承数据表索引列和覆盖列的TTL,不支持手动指定。 索引在线变更 支持索引在线创建、删除和修改状态,不影响数据表读写。 索引在线修复 当查询命中的索引数据无效时,可以触发索引修复,保障最终查询结果正确。 索引工具 支持索引一致性检查
灵活的数据存储格式,支持JSON、CSV、TEXTFILE、RCFILE、SEQUENCEFILE、ORC等存储格式。 Hive作为一个基于HDFS和MapReduce架构的数据仓库,其主要能力是通过对HQL(Hive Query Language)编译和解析,生成并执行相应的MapReduce任务或者HDFS操作。
解决DataSource表动态分区插入行为要与Hive保持一致的问题。 解决DGC API方式连接Spark SQL查询遇到特殊字符(比如换行),标准的解析会自动换行的问题。 解决Spark任务报错ArrayIndexOutOfBoundsException的问题。 解决API模式提交Spark
将“WordCount.jar”上传至“mrs-demo-data/program”目录下。 步骤3:创建并运行Flink作业 方式1:在控制台界面在线提交作业。 登录MRS管理控制台,单击MRS集群名称,进入集群详情页面。 在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。
create job -x 连接器ID -t import --trans job-config目录的绝对路径/oracle-hbase.json 例如,连接器ID为3,则执行如下命令: create job -x 3 -t import --trans /opt/hadoopcl
create job -x 连接器ID -t import --trans job-config目录的绝对路径/oracle-hbase.json 例如,连接器ID为3,则执行如下命令: create job -x 3 -t import --trans /opt/hadoopcl
VARCHAR TEXT(CLOB) VARCHAR DATE TIMESTAMP TIMESTAMP TIMESTAMP UUID UUID JSON JSON 添加GAUSSDB数据源约束 不支持如下语法:GRANT、REVOKE、SHOW GRANTS、SHOW ROLES、SHOW ROLE
ow、CSV、XML等。 kafka_row_delimiter 否 每个消息体(记录)之间的分隔符。 kafka_schema 否 如果解析格式需要一个schema时,此参数必填。 kafka_num_consumers 否 单个表的消费者数量。默认值是:1,如果一个消费者的吞