正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
续的安全登录,开启Kerberos服务的renewable和forwardable开关并且设置票据刷新周期,开启成功后重启kerberos及相关组件。 默认情况下,用户的密码有效期是90天,所以获取的keytab文件的有效期是90天。 Kerberos服务的renewable、f
20 设置数据转换 单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 HBase输入 文件输出 图3 算子操作方法示意 设置数据保存信息并运行作业 单击
在创建迁移任务界面,填写迁移任务的相关参数,具体参考如下表1。 表1 迁移任务参数说明 参数名 参数取值说明 任务名称 填写具体的任务名称。可由字母、数组及下划线组成,长度为1~50位,且不能与已有的迁移任务相同。 任务类型 定时任务:选择定时任务时,可以设置“开始时间”参数,设定任务在当前时间以后的某个时间点执行。
否,执行4。 检查与NTP服务器认证是否失败。 以root用户登录主OMS节点,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 执行以下命令查看主备节点的资源状态。 su - omm sh
-f proc_zookeeper。 是否正常获取pid。 是,执行4。 否,执行15。 获取所有与当前ZooKeeper实例连接的IP及连接数量,取连接数最多的前十个进行检查。根据获取到的pid值,执行命令lsof -i|grep $pid | awk '{print $9}'
"hbase-site.xml"), false); return conf; } 前提条件 已获取样例工程运行所需的配置文件及认证文件,详细操作请参见准备连接HBase集群配置文件。 配置安全登录 请根据实际情况,在hbase-example样例工程的“com.huawei
配置文件。 nettyconnector.registerserver.topic.storage:设置NettySink的IP、端口及并发度信息在第三方注册服务器上的路径(必填),例如: nettyconnector.registerserver.topic.storage:
Manager页面,具体请参见访问集群Manager。 MRS 3.3.0之前版本:选择“集群 > 概览 > 更多 > 下载客户端”。 MRS 3.3.0及之后版本:在主页右上方单击“下载客户端”。 下载集群客户端。 “选择客户端类型”选择“仅配置文件”,选择平台类型,单击“确定”开始生成客户端
场景,例如:Spooldir Source+Memory Channel+Kafka Sink。 前提条件 已成功安装集群,包含Kafka及Flume服务。 确保集群网络环境安全。 MRS集群管理员已明确业务需求,并准备一个Kafka管理员用户flume_kafka。 操作步骤 配置Flume的参数。
用户需要在HBase中对指定的数据库或表设置权限,才能够创建表、查询数据、删除数据、插入数据、更新数据以及授权他人访问HBase表。 本章节适用于MRS 3.x及之后版本。 仅开启了Kerberos认证的集群(安全模式)支持创建HBase角色。 如果当前组件使用了Ranger进行权限控制,须基于Ran
Description 策略描述信息。 Audit Logging 是否审计此策略。 Allow Conditions 策略允许条件,配置本策略内允许的权限及例外。 在“Select Role”、“Select Group”、“Select User”列选择已创建好的需要授予权限的Role、用户组或用户,单击“Add
型。 配置文件 nettyconnector.registerserver.topic.storage:设置NettySink的IP、端口及并发度信息在第三方注册服务器上的路径(必填),例如: nettyconnector.registerserver.topic.storage:
92:29860/hive/default?serviceDiscoveryMode=hsbroker 获取HSFabric、HSBroker节点IP及端口号: 登录FusionInsight Manager。 选择“集群 > 服务 > HetuEngine > 实例”,获取HSFabric
永久函数,可以在多个会话中使用,不需要每次创建。 下面以编写一个AddDoublesUDF为例,说明UDF的编写和使用方法。 功能介绍 AddDoublesUDF主要用来对两个及多个浮点数进行相加。在该样例中可以掌握如何编写和使用UDF。 一个普通UDF必须继承自“org.apache.hadoop.hive.ql.exec
在创建迁移任务界面,填写迁移任务的相关参数,具体参考如下表1。 表1 迁移任务参数说明 参数名 参数取值说明 任务名称 填写具体的任务名称。可由字母、数组及下划线组成,长度为1~50位,且不能与已有的迁移任务相同。 任务类型 定时任务:选择定时任务时,可以设置“开始时间”参数,设定任务在当前时间以后的某个时间点执行。
以root用户登录到任一管理节点,执行ping命令检查SFTP服务器和集群之间的网络连接是否正常,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 是,执行5。 否,执行3。 修复网络连接,然后重新配置SFTP
单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。 请联系运维人员,发送已收集的故障日志信息及“ port_result.txt”和“ ps_result.txt”文件,并删除环境中残留的两个临时文件。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
点检测功能不可用,上报该告警。 HBase MetricController主实例功能恢复时,告警清除。 该告警仅适用于MRS 3.3.0及之后版本。 告警属性 告警ID 告警级别 是否可自动清除 19022 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名
目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端(MRS 3.x及之后版本) 安装客户端。 以在集群内节点安装客户端为例: 登录Manager,在“集群”下拉列表中单击需要操作的集群名称,选择“更多 > 下
聚合表在明细表名后加上_{type}_agg后缀;物化视图添加 _{type}_mv后缀。 物化视图、聚合表保持与明细表同样的分区类型及ttl时间。 物化视图中的group by字段名称与明细表对应字段名称一致;select子句返回列名称与聚合表中列的名称保持一致。 物化视图