检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
BulkLoad支持的数据源格式为带分隔符的文本文件。 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 若批量导入数据时创建二级索引,还需注意: 当将列的类型设置为string时,不能设置其长度。例如“<column index="1" type="string"
r页面,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置 > ClickHouseServer(角色) > 引擎”,修改如下参数: 参数 参数说明 kafka_auth_mode ClickHouse连接Kafka的认证方式,参数值选择NoAuth。 选择“集群
Aggregate、Unique模型:这两种聚合类型的表,Key列是兼顾排序列和唯一标识列,是真正意义上的Key列。 数据模型的选择建议 因为数据模型在建表时就已经确定,且无法修改。所以,选择一个合适的数据模型非常重要。 Aggregate模型可以通过预聚合,极大地降低聚合查询时所需扫描的数据量和查询的计算量,适合有
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。
keytab”文件与“krb5.conf”文件。Keytab文件用于在样例工程中进行安全认证,具体使用请参考各服务的开发指南指导。 如果用户类型是人机,需要先修改初始密码后再下载认证凭据文件,否则在使用时会提示“Password has expired - change password to reset”,导致安全认证失败。
(可选)在开发环境中(例如IntelliJ IDEA中),运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码。设置环境变量方法具体如下: 选中需要运行的样例程序HdfsExample.java或者ColocationExample.java,右键工程,选择“Run
而在建表语句中指定的DUPLICATE KEY,只是用来指明底层数据按照哪些列进行排序。 数据模型的选择建议 因为数据模型在建表时就已经确定,且无法修改。所以,选择一个合适的数据模型非常重要。 Aggregate模型可以通过预聚合,极大地降低聚合查询时所需扫描的数据量和查询的计算量,非常适
出,将1生成的Jar包,以及3生成的Jar包,上传到Linux的“lib”目录。 在“/opt/test”根目录新建脚本“run.sh”,修改内容如下并保存: #!/bin/sh BASEDIR=`cd $(dirname $0);pwd` cd ${BASEDIR} for file
创建MRS集群时由用户指定。 已安装集群客户端,例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。更新客户端,具体请参见更新客户端(3.x之前版本)。 使用客户端 如果当前集群已启用Kerberos认证,登录MRS Manager页面
BulkLoad支持的数据源格式为带分隔符的文本文件。 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 若批量导入数据时创建二级索引,还需注意: 当将列的类型设置为string时,不能设置其长度。例如“<column index="1" type="string"
出ntpd进程的信息。 ps -ef | grep ntpd | grep -v grep 是,执行2.a。 否,执行1.b。 执行service ntp start启动NTP服务。 10分钟后,检查该告警是否恢复。 是,处理完毕。 否,执行2.a。 检查该节点与主OMS节点NTP服务是否正常同步时间。
"security.protocol" -> "SASL_PLAINTEXT", "sasl.kerberos.service.name" -> "kafka", "kerberos.domain.name" -> "hadoop.<系统域名>"
建议使用spark-sql或者在beeline/thriftserver模式下使用spark用户来执行INSERT...SELECT操作,避免执行更改文件owner的操作,从而减少执行INSERT...SELECT语句的时间。 在beeline/thriftserver模式下,execu
FS时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下: 登录FusionInsight Manager页面,选择“集群 > 待操作集群的名称 > 服务 >
设置以下属性以优化性能(建议在集群级别进行更改) 设置hive.auto.convert.sortmerge.join = true 设置hive.optimize.bucketmapjoin = true 设置hive.optimize.bucketmapjoin.sortedmerge = true 更改以下内容以调整Tez的资源。
/ 4 AS quarter FROM orders; --更改已存在表的定义。 --数据准备 create table users (id int,name varchar); --将表名从users 修改为 people: ALTER TABLE users RENAME
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。
集群缩容过程说明如下: 缩容中:集群正在缩容时集群状态为“缩容中”。已提交的作业会继续执行,也可以提交新的作业,但不允许继续缩容和删除集群,也不建议重启集群和修改集群配置。 缩容成功:集群缩容成功后集群状态为“运行中”,计费按照缩容后所使用的资源计算。 缩容失败:集群缩容失败时集群状态为“运行中”。
将样例工程中“conf”的配置文件及认证文件上传到Linux中“conf”目录。 在“/opt/test”根目录新建脚本“run.sh”,修改内容如下并保存: #!/bin/sh BASEDIR=`cd $(dirname $0);pwd` cd ${BASEDIR} for file
DWS集群已创建,已获取到相关表所在的数据库用户名和密码。 已安装MRS客户端,例如安装目录为“/opt/client”。以下操作的客户端目录只是举例,请根据实际安装目录修改。在使用客户端前,需要先下载并更新客户端配置文件,确认Manager的主管理节点后才能使用客户端。 DWS服务数据导入到ClickHouse