检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
kadmin/admin的默认密码为“KAdmin@123”,首次登录后会提示该密码过期,请按照提示修改密码并妥善保存。 执行以下命令,重置组件运行用户密码。此操作对所有服务器生效。 cpw 组件运行用户名 例如:cpw oms/manager 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要
rk2x、Kafka、Storm。 通过Ranger配置用户权限策略 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在Ranger首页的“Service Manager”区域内,单击组件名称下的权限插件
权,否则使用组件自身鉴权机制。 图1 启用Ranger鉴权 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“STORM”区域的“Storm”。 单击“Add New Policy”,添加Storm权限控制策略。
可能原因 告警阈值配置不合理。 HetuEngine QAS数据的磁盘配置无法满足业务需求,磁盘使用率达到上限。 处理步骤 检查阈值设置是否合理 登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置”,在服务列表下面,选择“HetuEngine > 磁盘 >
调测Kafka Producer样例程序 前提条件 如需在Windows调测程序,需要配置Windows通过EIP访问集群Kafka,详情请参见配置Windows通过EIP访问普通模式集群Kafka。 如需在Linux调测程序,需要确保当前用户对“src/main/resourc
reduce-client-hs/HistoryServerRest.html。 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env kinit
已安装KafkaManager服务的集群。 获取用户“admin”账号密码。“admin”密码在创建MRS集群时由用户指定。 访问KafkaManager的WebUI 登录集群详情页面,选择“组件管理 > KafkaManager”。 若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的
-3将jstack信息打印到.out日志文件里,从而导致.out日志文件过大。 处理步骤 在每个HBase实例的节点上部署定期清理.out日志文件的定时任务。后台登录HBase的实例节点,在crontab -e中添加每天0点清理.out日志的定时任务。 crontab -e 00 00 * * * for
修改集群服务配置参数 用户可通过MRS管理控制台的集群组件配置页面修改各组件的配置参数。 登录MRS控制台,在左侧导航栏选择“现有集群”,单击集群名称。 选择“组件管理 > 服务名称 > 服务配置”。 下拉列表默认显示“基础配置”,如果需要修改更多参数,请选择“全部配置”,界面上
修改OMS数据库管理员密码 建议管理员定期修改OMS数据库管理员的密码,以提升系统运维安全性。 使用root用户登录主管理节点。 ommdba用户密码不支持在备管理节点修改,否则集群无法正常工作。只需在主管理节点执行修改操作,无需在备管理节点操作。 执行以下命令,切换用户。 sudo
存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力。MRS可以直接处理OBS中的数据,客户可以基于OBS服务Web界面和OBS客户端对数据进行浏览、管理和使用,同时可以通过REST API接口方式单独或集成到业务程序进行管理和访问数据。 数据存储在OBS:数据存储和计算
全部配置”,可以通过参数“query_log.ttl”和“trace_log.ttl”配置数据清理周期,默认为90天。 MRS 3.3.0之前版本,在ClickHouse客户端给TTL的系统表执行如下语句: alter table system.表名 modify TTL event_date + INTERVAL
lback savepoint -> delete savepoint -> rollback下一个savepoint。 系统响应 可在客户端中查看查询结果。 父主题: Hudi CALL COMMAND语法说明
op => 'run', timestamp => 'xxx'); 注意事项 compaction操作仅支持MOR表。 系统响应 可在客户端中查看查询结果。 父主题: Hudi CALL COMMAND语法说明
调测Kafka Producer样例程序 前提条件 如需在Windows调测程序,需要配置Windows通过EIP访问集群Kafka,详情请参见配置Windows通过EIP访问集群Kafka。 如需在Linux调测程序,需要确保当前用户对“src/main/resources”目
编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on
1/hadoop-yarn/hadoop-yarn-site/WebServicesIntro.html 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env kinit
告警”。记录该告警定位信息中的“主机名”的IP地址为IP1(若出现多个告警,则分别记录其中的IP地址为IP1、IP2、IP3等)。 联系运维人员,登录IP1节点,在这个节点上使用ping命令检查该节点与主OMS节点的管理平面IP是否可达。 是,执行4。 否,执行3。 联系网络管理员恢复网
服务:选择“Hive”。 根据业务实际需求开启“提示”或“拦截”按钮。 图1 创建Hive SQL防御规则 登录安装有Hive客户端的节点,执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执
log”),确认HMaster日志中没有频繁打印“system pause”或“jvm”等GC相关信息。 然后可以通过下列三种方式确认原因为HDFS性能慢造成告警产生。 使用客户端验证,通过hbase shell进入hbase命令行后,执行list验证需要运行多久。 开启HDFS的debug日志,然后查看下层目录很多的路径(hadoop