检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kafka的元数据。 LocalDir LocalHDFS RemoteHDFS NFS CIFS OBS NameNode 备份HDFS元数据。添加多个NameService后,支持不同NameService的备份恢复功能且备份恢复操作与默认实例“hacluster”一致。 LocalDir
t1 left join t2 on t1.id = t2.id; 多表join场景且join key是联合主键时select字段要显示添加联合主键所有字段 如果不显示select联合主键所有字段,join算子会丢弃部分主键,导致join spec为NoUniqueKey。 优化前SQL:
spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
U, R)) -> array(R) 描述:使用函数将两个给定的数组逐个元素合并到单个数组中。如果一个数组较短,则在应用函数之前,将在末尾添加空值以匹配较长数组的长度。 SELECT zip_with(ARRAY[1, 3, 5], ARRAY['a', 'b', 'c'], (x
一般情况下,某用户提交的客户端会连接到该用户默认所属租户的JDBCServer上,若需要连接客户端到指定租户的JDBCServer上,可以通过添加--hiveconf mapreduce.job.queuename进行指定。 通过Beeline连接的命令示例如下(aaa为租户名称):
例如“host2tags”配置值为10.1.120.[1-9] = label-1,而当前集群只有10.1.120.1到10.1.120.3三个数据节点。进行扩容后,又添加了10.1.120.4这个数据节点,则该数据节点会被设置成label-1的标签;如果10.1.120.3这个数据节点被删除或者退出服务后,数据块不会再被分配到该节点上。
新、查询、删除、启动和停止等操作,其成功与否需要在Loader WebUI确认或通过查询server端日志确认。 参数选项方式: 通过直接添加具体配置项的参数调用脚本。 作业模板方式: 修改作业模板中所有配置项的参数值,调用脚本时引用修改后的作业模板文件。 Loader客户端安装
新、查询、删除、启动和停止等操作,其成功与否需要在Loader WebUI确认或通过查询server端日志确认。 参数选项方式: 通过直接添加具体配置项的参数调用脚本。 作业模板方式: 修改作业模板中所有配置项的参数值,调用脚本时引用修改后的作业模板文件。 Loader客户端安装
线程监控阈值,更新时间大于阈值时会重新启动该Source,单位:秒。 spoolDir - 监控目录。 fileSuffix .COMPLETED 文件传输完成后添加的后缀。 deletePolicy never 文件传输完成后源文件删除策略,支持“never”或“immediate”。分别是从不删除和立即删除。
线程监控阈值,更新时间大于阈值时会重新启动该Source,单位:秒。 spoolDir - 监控目录。 fileSuffix .COMPLETED 文件传输完成后添加的后缀。 deletePolicy never 文件传输完成后源文件删除策略,支持“never”或“immediate”。分别是从不删除和立即删除。
ttpPutRequest、sendHttpDeleteRequest方法,发送POST、GET、PUT、DELETE请求,执行登录认证、添加用户、查找用户、修改用户、删除用户的操作。 运行“ExportUsers”类,运行成功会有如下日志信息: 2020-10-19 14:25:02
SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据源,主要实现方法为SourceFunction的run。 function指的是用户自定义的SourceFunction函数。
0 | 1 d2 | user4 | 4000.0 | 2 Aggregate Functions 所有的聚合函数都能通过添加over子句来当做窗口函数使用。聚合函数将在当前窗口框架下的每行记录进行运算。 下面的查询生成每个职员按天计算的订单价格的滚动总和。 select
SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据源,主要实现方法为SourceFunction的run。 function指的是用户自定义的SourceFunction函数。
SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据源,主要实现方法为SourceFunction的run。 function指的是用户自定义的SourceFunction函数。
SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据源,主要实现方法为SourceFunction的run。 function指的是用户自定义的SourceFunction函数。
配置 > 全部配置 > JDBCServer(角色) > 自定义”,在参数“spark.carbon.customized.configs”中添加CarbonData相关参数配置。 客户端:登录客户端节点,在“{客户端安装目录}/Spark/spark/conf/carbon.properties”文件中配置相关参数。
配置 > 全部配置 > JDBCServer(角色) > 自定义”,在参数“spark.carbon.customized.configs”中添加CarbonData相关参数配置。 客户端:登录客户端节点,在“{客户端安装目录}/Spark/spark/conf/carbon.properties”文件中配置相关参数。
行4。 与HTTP服务访问相比,以HTTPS方式访问HDFS时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下: 登录FusionInsight Manager页面,选择“集群
行4。 与HTTP服务访问相比,以HTTPS方式访问HDFS时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下: 登录FusionInsight Manager页面,选择“集群