检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
topic中的角色称为Producer。 Consumer 从Kafka Topic中获取消息的角色称为Consumer。 Broker Kafka集群中的每一个节点服务器称为Broker。 父主题: Kafka开发指南(普通模式)
在本地Windows中调测HDFS程序 (可选)在开发环境中(例如IntelliJ IDEA中),运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码。设置环境变量方法具体如下: 选中需要运行的样例程序HdfsExample.java或者ColocationExample
或多个实例。 服务:服务对外表现为集群提供的组件业务能力,集群中的每个组件对应一个服务名,提供一种服务。 角色:角色是服务的组成要素,每个服务由一个或多个角色组成,服务通过角色安装到节点(即服务器)上,保证服务正常运行。 实例:当一个服务的角色安装到节点上,即形成一个实例。每个服务有各自对应的角色实例。
default_transaction_read_only; 其中password为DBService数据库的omm用户密码(omm用户初始密码可在用户账号一览表章节查看),用户可以执行\q退出数据库界面。 结果如下所示,查看“default_transaction_read_only”的值是否为“on”。
默认为“root/admin”,root用于远程登录ECS机器,admin用于登录集群管理页面。 root/admin 密码 设置root用户和admin用户密码。 设置密码登录集群管理页面及ECS节点用户的密码,例如:Test!@12345。 确认密码 - 再次输入设置用户密码 通信安全授权 MRS
在“Scala SDK files”页面选择scala sdk目录,单击“OK”。 图21 Scala SDK files 设置成功,单击“OK”保存设置。 图22 设置成功 设置IDEA的文本文件编码格式,解决乱码显示问题。 在IDEA首页,选择“File > Settings...”。 图23
enewable和forwardable开关并且设置票据刷新周期,开启成功后重启kerberos及相关组件。 获取的用户需要属于storm组。 Kerberos服务的renewable、forwardable开关和票据刷新周期的设置在Kerberos服务的配置页面的“系统”标签下
各主机在网络上互通。 在本实践中,需要确保本地环境与MRS集群所在网络平面互通,通常可以通过绑定EIP的方式访问MRS集群,具体操作请参考配置Windows通过EIP访问集群Hive。 Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。
数据比对关联的数据同步任务中的数据库用户需要对当前Schema具有create function权限。 操作步骤 使用已创建的用户或admin用户(未开启Kerberos认证的集群)登录CDLService WebUI界面,请参考登录CDLService WebUI界面。 选择“作业管理
本章节适用于MRS 3.3.0及之后的版本。 作业健康状态说明 当集群运行大量Flink作业时,为方便用户对每个作业进行健康状态评估,FlinkServer WebUI提供Flink作业健康度管理功能,用户可直接在页面查看当前作业的健康情况,并可一键导出所有作业的健康度信息。作业状态分如下情况:
node-cache-short-circuit.enable”的不同配置控制是否允许访问ECS元数据接口,从而控制是否允许触发ECS流控。 MRS集群支持通过委托获取临时AKSK访问OBS。临时AKSK通过ECS元数据接口获取。ECS元数据接口有单机器5分钟140次的流控阈值,触发流控后机器被加入黑
修改MRS集群Manager用户密码 出于MRS集群安全的考虑,“人机”类型系统用户密码必须定期修改。该任务指导用户通过Manager完成修改自身密码工作。 如果用户具备使用Manager的权限时,可以通过Manager完成修改自身密码工作。 如果用户不具备使用Manager的权
业务2的数据通过socket接收消息记录,可使用netcat命令用户输入模拟数据源。 使用Linux命令netcat -l -p <port>,启动一个简易的文本服务器。 启动应用程序连接netcat监测的port成功后,向netcat终端输入数据信息。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。
业务2的数据通过socket接收消息记录,可使用netcat命令用户输入模拟数据源。 使用Linux命令netcat -l -p <port>,启动一个简易的文本服务器。 启动应用程序连接netcat监测的port成功后,向netcat终端输入数据信息。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。
FangBo 数据规划 Spark Streaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 本地新建文件“input_data1.txt”,将“log1.t
jar flux-wrappers-<version>.jar 获取业务相关其他jar包,如访问HDFS时需要获取的jar包请参见6,其他场景类似。 Flux配置文件样例 下面是一个完整的访问Kafka业务的yaml文件样例: name: "simple_kafka" components:
修改副本节点AZ 以客户端安装用户,登录安装客户端的节点。执行以下命令,切换到客户端安装目录。 cd {客户端安装路径} 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证(普通模式跳过此步骤)。 kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli
null); admin.modifyTable(tableName, descriptor); 为已经存在的表设置冷热分离功能,或者修改冷热分离分界线。 COLD_BOUNDARY用于设置冷热分离时间分界点,单位为秒, 示例表示1天之前的数据归档为冷数据。 HTableDescriptor
deserializer.maxBatchLine 1 按行解析最多行数,如果行数设置为多行,“maxLineLength”也应该设置为相应的倍数。例如maxBatchLine设置为2,“maxLineLength”相应的设置为2048*2为4096。 selector.type replicating
jar flux-wrappers-<version>.jar 获取业务相关其他jar包,如访问HDFS时需要获取的jar包请参见5,其他场景类似。 Flux配置文件样例 下面是一个完整的访问Kafka业务的yaml文件样例: name: "simple_kafka" components: