检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设置了数据连接器后,单击“自动识别”,系统将自动读取数据库中的字段,可根据需要选择添加,然后根据业务场景手动进行完善或者修正即可,无需逐一手动添加。 此操作会覆盖表格内已有数据。 通过“表输出”算子,将A、B和C输出到“test_1”表中: select * from test_1; 父主题: 输入算子
置、HiveServer在ZooKeeper中节点名称、客户端对服务端的发现模式、以及服务端进程认证的principal。这些配置样例代码会自动从“hiveclient.properties中”读取。 //zkQuorum获取后的格式为"xxx.xxx.xxx.xxx:2181,xxx
直接重启耗时约10分钟。 滚动重启 不支持滚动重启。 - JobGateway 直接重启 重启过程中通过管理控制台提交作业会失败。 直接重启耗时约5分钟。 滚动重启 重启过程中通过管理控制台提交作业可能会失败。 滚动重启3个节点耗时约10分钟。 Kudu 直接重启 重启期间无法访问Kudu表,影响作业。
在执行以上命令之前,<outputPath>目录必须不存在,否则会报错。 在MapReduce任务运行过程中禁止重启HDFS服务,否则可能会导致任务失败。 对于MapReduce访问多组件样例程序,操作步骤如下。 获取“user.keytab”、“krb5.conf”、“hbase-site
Manager界面上重启Spark的JDBCServer2x实例。 回退客户端补丁 如果有使用自主安装的客户端(集群内、外新下载客户端),需要执行客户端升级或者回退的操作。 登录客户端所在节点并执行以下命令: cd /opt/{MRS补丁版本号}/client sh upgrade_client
wait-timeout 在启动JDBC查询之前,HetuEngine将等待从连接的构建端收集动态过滤器的最大持续时间。使用较大的超时可能会导致更详细的动态过滤器。但是也会增加某些查询的延迟,默认值:20s。 20s unsupported-type-handling 当连接器不支持此数据类型时
nb.capacity 25000 edits最大数目,这是另一个触发Hlog edits到备集群的条件。当主集群同步数据到备集群中时,主集群会从HLog中读取数据,此时会根据本参数配置的个数读取并发送。与“replication.source.size.capacity”一起配置使用。
用户表必须存在。 indexspecs.to.add中指定的索引不能已存在于表中。 indexnames.to.build中指定的索引名称必须已经存在于表中,或者应该是indexspecs.to.add的一部分。 在执行前面的命令之后,indexspecs.to.add中指定的所有索
MrsObsCredentialsProvider:通过MRS云服务委托获取凭证。 com.obs.services.EcsObsCredentialsProvider:通过ECS云服务获取AK/SK信息。 com.obs.services.BasicObsCredentialsProvi
root@客户端节点IP地址:/opt/hadoopclient/conf 参考以上命令依次上传表1中的所有配置文件。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下
在执行以上命令之前,<outputPath>目录必须不存在,否则会报错。 在MapReduce任务运行过程中禁止重启HDFS服务,否则可能会导致任务失败。 对于MapReduce访问多组件样例程序,操作步骤如下。 在“/opt/client/conf”文件夹中创建文件“jaas_mr
正式编写脚本前,您需要将所需安装包、配置包的所有相关文件都上传到同Region的OBS文件系统中。 因为不同Region间有网络隔离,MRS虚拟机无法下载其他Region上的OBS文件。 脚本中如何从OBS文件系统下载文件。 您可以在脚本中指定从OBS下载需要的文件。如果将文件上传到私有文件系统,需要用hadoop
MrsObsCredentialsProvider:通过MRS云服务委托获取凭证。 com.obs.services.EcsObsCredentialsProvider:通过ECS云服务获取AK/SK信息。 com.obs.services.BasicObsCredentialsProvi
将每行数据按照指定的分隔符,分隔成多个字段,供之后的转换算子使用。 当字段的值与实际的类型不匹配时,该行数据会成为脏数据。 输入字段列数不等于原始数据实际包含字段列数,该行数据会保存为脏数据。 样例 源文件如下图: 配置“CSV文件输入”算子,分隔符为“,”,生成两个字段A、B。 将A、B输出,结果如下: 父主题: Loader输入类算子
wait-timeout 在启动 JDBC 查询之前,HetuEngine将等待从连接的构建端收集动态过滤器的最大持续时间。使用较大的超时可能会导致更详细的动态过滤器。但是也会增加某些查询的延迟,默认值:20s。 20s unsupported-type-handling 当连接器不支持此数据类型时
Hive客户端连接相关配置参数。 core-site.xml Hadoop客户端相关配置参数。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下
将每行数据按照指定的分隔符,分隔成多个字段,供之后的转换算子使用。 当字段的值与实际的类型不匹配时,该行数据会成为脏数据。 输入字段列数不等于原始数据实际包含字段列数,该行数据会保存为脏数据。 样例 源文件如下图: 配置“CSV文件输入”算子,分隔符为“,”,生成两个字段A、B。 将A、B输出,结果如下: 父主题: 输入算子
-Dindexspecs.to.add=<indexspecs> -Dtablename.to.index=<tableName>:指的是表名。例如,-Dtablename.to.index=t1。 -Dindexspecs.to.add=<indexspecs>:指的是索引名与列的映射,例如-Dindexspecs
${TableName},drop table ${TableName}时失败。 原因分析 删除文件操作是单线程串行执行的,Hive分区数过多导致在元数据数据库会保存大量元数据信息,在执行删表语句时删除元数据就要用很长时间,最终在超时时间内删除不完,就会导致操作失败。 超时时间可通过登录FusionInsight
获取MRS应用开发样例工程 MRS样例工程构建流程 MRS样例工程构建流程包括三个主要步骤: 下载样例工程的Maven工程源码和配置文件,请参见获取MRS样例工程。 配置华为镜像站中SDK的Maven镜像仓库,请参见配置华为开源镜像仓。 根据用户自身需求,构建完整的Maven工程并进行编译开发。