检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
)] INTO num_buckets BUCKETS; 限制 EXCHANGE PARTITION: 被迁移的单个或多个分区,迁移前必须都是已存在的分区,并归属于来源表,且在目标表中不包含这些分区; 该操作涉及的表需要有相同的列定义,并且有相同的分区键; 如果表中包含索引,该操作会失败;
user.name=test&op=OPEN" 运行结果: Hello, webhdfs user! 创建请求追加文件的命令,获取集群为已存在“/huawei/testHdfs”文件分配的可写入DataNode节点地址信息Location。 执行如下命令访问HTTP: linux1:/opt/client
Direct API简单地给出每个batch区间需要读取的偏移量位置。然后,每个batch的Job被运行,而对应偏移量的数据在Kafka中已准备好。这些偏移量信息也被可靠地存储在checkpoint文件中,应用失败重启时可以直接读取偏移量信息。 图1 Direct Kafka接口数据传输
使用约束: 如果需要使用CDL, Kafka服务的配置参数“log.cleanup.policy”参数值必须为“delete”。 MRS集群中已安装CDL服务。 CDL仅支持抓取非系统表下的增量数据,MySQL、PostgreSQL等数据库的内置数据库不支持抓取增量数据。 从Hudi
user.name=test&op=OPEN" 运行结果: Hello, webhdfs user! 创建请求追加文件的命令,获取集群为已存在“/huawei/testHdfs”文件分配的可写入DataNode节点地址信息Location。 执行如下命令访问HTTP: linux1:/opt/client
Cookie”开关,即查看配置“flink-conf.yaml”文件中的“security.enable: true”,查看“security cookie”是否已配置成功,例如: security.cookie: ae70acc9-9795-4c48-ad35-8b5adc8071744f605d1d
和spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
与HTTP服务访问相比,以HTTPS方式访问Spark2x的JobHistory时,由于使用了SSL安全加密,需要确保curl命令所支持的SSL协议在集群中已添加支持。若不支持,可采用如下两种方案解决: 修改集群中配置的SSL协议。例如,若curl仅支持TLSv1协议(TLSv1协议存在安全漏洞,请谨慎使用),修改方法如下:
springboot应用程序也支持在Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致,并设置好Java环境变量。 编译并运行程序 在IDEA中
springboot应用程序也支持在Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致,并设置好Java环境变量。 编译并运行程序 在IDEA中
和spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
目录,安装方法可参考《MapReduce服务用户指南》的“客户端管理”章节。 确认服务端HDFS组件已经安装,并正常运行。 客户端运行环境已安装1.7或1.8版本的JDK。 获取并解压缩安装“MRS_HDFS_Client.tar”包。执行如下命令解压。 tar -xvf MRS_HDFS_Client
10-5-211-9:/opt/hadoopclient/Loader/loader-tools-1.99.3/sqoop-shell# history命令 该命令用于查看已执行的命令,仅在交互模式支持。 示例: sqoop:000> history 0 show connector 1 create
10-5-211-9:/opt/hadoopclient/Loader/loader-tools-1.99.3/sqoop-shell# history命令 该命令用于查看已执行的命令,仅在交互模式支持。 示例: sqoop:000> history 0 show connector 1 create
创建并行文件系统”,配置以下参数后,单击“立即创建”。 区域:选择MRS集群所在区域。 文件系统名称:自定义名称,例如“mrs-ck-obs”。 单击已创建的并行文件系统名称,在“概览”页签中查看并记录“Endpoint”参数的值,即为OBS的Endpoint。 获取iam的Endpoint。
的“屏蔽”或“取消屏蔽”。 常见问题 如何查看当前集群未清除告警? 登录MRS管理控制台。 单击待操作的集群名称,选择“告警管理”页签。 单击“高级搜索”,将“告警状态”设置为“未清除”,单击“搜索”。 界面将显示当前集群未清除的告警。 集群发生告警后如何清除? 集群发生告警后,
Integer 参数解释: 作业最终状态码。 约束限制: 不涉及 取值范围: 0:未完成 1:执行错误,终止执行 2:执行完成并且成功 3:已取消 默认取值: 不涉及 hive_script_path String 参数解释: sql程序路径。 约束限制: 仅Spark Script和Hive
认证、导出用户、下载用户。 通过在“conf\log4j.properties”文件中配置日志打印信息,便于查看程序运行过程和结果。 默认已配置,具体填写示例如下: ##set log4j DEBUG < INFO < WARN < ERROR < FATAL log4j.logger
Settings > HTTP Proxy”,选择“No proxy”,单击“OK”保存配置。 开源镜像配置方式如下所示: 使用前请确保您已安装JDK 1.8及以上版本和Maven 3.0及以上版本。 单击此处,下载华为开源镜像站提供的“settings.xml”文件,覆盖至“<
Settings > HTTP Proxy”,选择“No proxy”,单击“OK”保存配置。 开源镜像配置方式如下所示: 使用前请确保您已安装JDK 1.8及以上版本和Maven 3.0及以上版本。 单击此处,下载华为开源镜像站提供的“settings.xml”文件,覆盖至“<