检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HDFS HTTP REST API接口介绍 功能简介 REST应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请参考官网上的描述以了解其使用: http://hadoop.apache.org/docs/r3.1.1/hadoo
ALM-45654 Flink HA证书文件即将过期 本章节适用于MRS 3.3.0及以后版本。 告警解释 Flink首次或者每天01:00:00开始健康检查时,检查当前系统中的HA证书文件是否即将过期。如果剩余有效期小于或等于30天,产生该告警。剩余有效期大于30天,告警恢复。
ALM-45655 Flink HA证书文件已过期 本章节适用于MRS 3.3.0及以后版本。 告警解释 Flink首次或者每天01:00:00开始健康检查时,检查当前系统中的HA证书文件是否已过期。如果HA证书已过期,产生该告警。证书恢复到有效期内,告警恢复。 告警属性 告警ID
客户端软件包名称格式为:“FusionInsight_Cluster_集群ID_Services_Client.tar”。本章节仅以集群ID为1进行介绍,请以实际集群ID为准。 以客户端安装用户登录将要安装客户端的服务器。 进入安装包所在目录,执行如下命令解压软件包。 cd /
客户端软件包名称格式为:“FusionInsight_Cluster_集群ID_Services_Client.tar”。本章节仅以集群ID为1进行介绍,请以实际集群ID为准。 以客户端安装用户登录将要安装客户端的服务器。 进入安装包所在目录,执行如下命令解压软件包。 cd /
执行yarn-session.sh之前,应预先将Flink应用程序的运行依赖包复制到客户端目录{client_install_home}/Flink/flink/lib下,应用程序运行依赖包请参考样例工程运行依赖包参考信息。 不同的样例工程使用的依赖包可能会有冲突,在运行新的样例工程时需删除旧的样例工程
配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行
session命令启动flink集群。 执行yarn-session.sh之前,应预先将Flink应用程序的运行依赖包复制到客户端目录“#{客户端安装目录}/Flink/flink/lib”下,应用程序运行依赖包请参考样例工程运行依赖包参考信息。 在Flink任务运行过程中禁止重启HDFS服务或者重启所有DataN
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
Flink Kafka样例程序开发思路 场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafk
包括通信端口,内存管理,连接重试等。 Blob服务端: JobManager节点上的Blob服务端是用于接收用户在客户端上传的Jar包,或将Jar包发送给TaskManager,传输log文件等,配置项包括端口,SSL,重试次数,并发等。 Distributed Coordination
签发Flink证书样例 将该样例代码生成generate_keystore.sh脚本,放置在Flink客户端的bin目录下。 #!/bin/bash KEYTOOL=${JAVA_HOME}/bin/keytool KEYSTOREPATH="$FLINK_HOME/conf/"
最后单击“OK”完成配置。 生成Jar包。 在IDEA主页面,选择“Build > Build Artifacts...”。 在弹出的菜单中,选择“FlinkStreamJavaExample > Build”开始生成Jar包。 图5 Build Jar包编译成功后,可以从1.c中配置的路径下获取到“flink-demo
Pipeline增强 通常情况下,开发者会将与某一方面业务相关的逻辑代码放在一个比较大的Jar包中,这种Jar包称为Fat Jar。 Fat Jar具有以下缺点: 随着业务逻辑越来越复杂,Jar包的大小也不断增加。 协调难度增大,所有的业务开发人员都在同一套业务逻辑上开发,虽然可以将整
wnload/ 将补丁安装包复制到客户端机器/opt/目录下: scp patch.tar.gz {客户端机器IP}:/opt/ 如:scp patch.tar.gz 127.0.0.1:/opt/ 登录客户端所在节点。 执行命令创建补丁目录并解压补丁包: mkdir /opt/{MRS补丁版本号}
0-SNAPSHOT.jar”包到Linux环境“/opt/hetuclient”目录下。 参考准备运行环境下载并解压客户端文件“FusionInsight_Cluster_集群ID_ HetuEngine_Client.tar”获取jdbc驱动包,并上传到Linux环境“/opt/hetuclient”目录下。
表中。 查询child表中的数据。 删除child表。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/”
t_Cluster_集群ID_ HetuEngine_Client.tar”获取jdbc驱动包,并上传到Linux环境“/opt/client”目录下。 jdbc驱动包可在集群客户端软件包解压路径“FusionInsight_Cluster_1_Services_ClientCo
x/spark/jars”) jar包 Oozie的share HDFS的“/user/oozie/share/lib/spark2x/”目录 将待使用样例工程的项目打包成jar包,比如OoizeSparkHBase-1.0.jar jar包 HDFS的“/user/develo
使用多级agent串联从本地采集静态日志保存到HBase 操作场景 该任务指导用户使用Flume客户端从本地采集静态日志保存到HBase表:flume_test。该场景介绍的是多级agent串联操作。 本章节适用于MRS 3.x及之后版本。 本配置默认集群网络环境是安全的,数据传