检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
customized.properties”,添加用户自定义配置名称为“hetuserver.engine.jobsystem.inner.principal”,值为如下内容,添加完成后单击“保存”,根据界面提示保存配置。 对端集群已安装HetuEngine服务:值为“hetuserver”。
conf)。user.keytab和krb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目
orc_row_index_stride = 10000, orc_stripe_size = 67108864 )
select map_values(map(array['num1','num2'],array[11,12]));-- [11, 12] map_zip_with(map(K, V1), map(K, V2), function(K, V1, V2, V3)) 描述:通过将函数应用于具有相
'obs://OBS并行文件系统名称/user/hive/warehouse/数据库名/表名' 如果表已有业务数据,需要同步迁移原数据文件至修改后的Location地址。 父主题: MRS集群服务对接OBS示例
kafka topic name"); System.out.println("<bootstrap.servers> is the ip:port list of brokers"); System.out.println("********************
业。 图4 wordcount作业 作业类型选择“MapReduce”。 作业名称为“mr_01”。 执行程序路径配置为OBS上存放程序的地址。例如:obs://wordcount01/program/hadoop-mapreduce-examples-x.x.x.jar。 执行
StandardTypes; import jdk.jfr.Description; public class MyFunction { private MyFunction() { } @Description("Add two") @ScalarFunction("add_two")
业。 图4 wordcount作业 作业类型选择“MapReduce”。 作业名称为“mr_01”。 执行程序路径配置为OBS上存放程序的地址。例如:obs://wordcount01/program/hadoop-mapreduce-examples-x.x.x.jar。 执行
<name>hbase.rpc.controllerfactory.class</name> <value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value> 如果当前的应用开发工程配置项中包含该配置项
Geospatial函数 HyperLogLog函数 UUID函数 Color函数 Session信息 Teradata函数 Data masking函数 IP Address函数 Quantile digest函数 T-Digest函数 Set Digest函数 父主题: HetuEngine常见SQL语法说明
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
Yarn常用配置参数 队列资源分配 Yarn服务提供队列给用户使用,用户分配对应的系统资源给各队列使用。完成配置后,您可以单击“刷新队列”按钮或者重启Yarn服务使配置生效。 参数入口: MRS 3.x之前的版本集群执行以下操作: 用户在MRS控制台上,选择“租户管理 > 资源分布策略”。
set hoodie.write.lock.zookeeper.url=<zookeeper_url>; --设置使用ZooKeeper地址。 set hoodie.write.lock.zookeeper.port=<zookeeper_port>; --设置使用ZooKeeper端口。
ar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认Storm已经安装,并正常运行。 将storm-examples导入到Eclipse开发环境,请参见导入并配置Storm样例工程。 下载并安装HDFS客户端,参见准备HDFS应用运行环境。 获取相关配置文件。获取方法如下。
kafka topic name"); System.out.println("<bootstrap.servers> is the ip:port list of brokers"); System.out.println("********************
式。 'hive_sync.partition_extractor_class' = 'org.apache.hudi.hive.MultiPartKeysValueExtractor' --同步hive表的extractor类。 ); Spark strea
执行如下命令,生成HFile文件。 hbase com.huawei.hadoop.hbase.tools.bulkload.ImportData -Dimport.skip.bad.lines=true-Dimport.separator=<separator>-Dimport.bad.lines.outpu
全信息后,例如修改数据库用户密码,新密码将使用新的密钥加密。 更新集群密钥需要停止集群,集群停止时无法访问。 前提条件 已确认主备管理节点IP。 停止依赖集群运行的上层业务应用。 更新MRS集群密钥(MRS 3.x及之后版本) 登录FusionInsight Manager。 选择“集群
OPTIONS('TIMESTAMPFORMAT'='timestampFormat') SKIP_EMPTY_LINE:数据加载期间,此选项将忽略CSV文件中的空行。 OPTIONS('SKIP_EMPTY_LINE'='TRUE/FALSE') 可选:SCALE_FACTOR:针对