检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
待连接的IoTDBServer所在的节点IP地址,可通过登录FusionInsight Manager界面,选择“集群 > 服务 > IoTDB > 实例”查看。 RPC端口可通过登录FusionInsight Manager,选择“集群 > 服务 > IoTDB > 配置 > 全部配置”,搜索参
> 服务 > Oozie > 实例”查看。 “21003”为Oozie HTTPS请求的运行端口,可在FusionInsight Manager,选择“集群 > 服务 > Oozie > 配置”,搜索“OOZIE_HTTPS_PORT”查看。 查看检查结果。包括以下几种情况: Share
在ResourceManager(主)的WebUI界面中,单击提交的MapReduce任务,在打开的页面中查看诊断信息,根据诊断信息再采取相应的措施。 或者也可以通过查看MapReduce日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: MapReduce应用开发常见问题
选择“作业管理”的“表/文件迁移”页签,在待运行作业的“操作”列单击“运行”,即可开始HDFS文件数据迁移,并等待作业运行完成。 步骤3:检查迁移后的文件信息 登录迁移目的端集群主管理节点。 在集群客户端内执行hdfs dfs -ls -h /user/命令查看迁移目的端集群中已迁移的文件。
Manager最大支持1000个用户。 创建用户(MRS 3.x及之后版本) 登录FusionInsight Manager。 选择“系统 > 权限 > 用户”。 在用户列表上方,单击“添加用户”。 填写“用户名”。用户名由数字、字母、下划线、中划线(-)或空格组成,不区分大小写,不能与系统或操作系统中已有的用户名相同。
登录FusionInsight Manager,具体请参见访问集群Manager。然后选择“集群 > 服务 > ZooKeeper > 实例”。 查看ZooKeeper角色实例的IP地址。 记录ZooKeeper角色实例其中任意一个的IP地址即可。 根据业务情况,准备好客户端,参考使用MRS客户端章节,登录安装客户端的节点。
在ResourceManager(主)的WebUI界面中,单击提交的MapReduce任务,在打开的页面中查看诊断信息,根据诊断信息再采取相应的措施。 或者也可以通过查看MapReduce日志了解应用运行情况,并根据日志信息调整应用程序。 父主题: MapReduce应用开发常见问题
客户端安装目录/Kafka/kafka/config/server.properties |grep '^zookeeper.connect ='命令,查看ZooKeeper地址的变量信息。 重新运行Kafka获取Topic,其中从2中获取的变量不要添加任何字符。 父主题: 使用Kafka
Zone”。单击“Save”保存。如需添加多条策略有效期,可单击按钮添加。如需删除策略有效期,可单击按钮删除。 单击“Add”,在策略列表可查看策略的基本信息。等待策略生效后,验证相关权限是否正常。 如需禁用某条策略,可单击按钮编辑策略,设置策略开关为“Disabled”。 如果不再使用策略,可单击按钮删除策略。
Manager,具体请参见访问FusionInsight Manager(MRS 3.x及之后版本)。然后选择“集群 > 服务 > ZooKeeper > 实例”。 查看ZooKeeper角色实例的IP地址。 记录ZooKeeper角色实例其中任意一个的IP地址即可。 根据业务情况,准备好客户端,登录安装客户端的节点。
failed”的错误。 图2 log4j报错 查看log4j发现用户将“log4j.properties”文件改成了“log4g-cli.properties”(“log4j.properties”的名字是固定的不可随意修改)导致报错。 图3 查看log4j 修改后可以正常提交作业。 图4
Spark运维管理 快速配置参数 常用参数 Spark2x日志介绍 调整Spark日志级别 配置WebUI上查看Container日志 获取运行中Spark应用的Container日志 配置Spark Eventlog日志回滚 配置WebUI上显示的Lost Executor信息的个数
登录成功后,执行chmod 666 /dev/null命令,修改“/dev/null”的权限值为“666”。 执行ls -al /dev/null命令,查看修改的“/dev/null”权限值是否为“666”,如果不是,需要修改为“666”。 修改成功后,重新启动HDFS和Yarn组件。 父主题:
客户端安装目录/Spark/spark1-1.0-SNAPSHOT.jar;,排查是否引入了非法字符。 如果是,修改非法字符,重新执行命令。 重新执行命令后,发生其他错误,查看该jar包的属主属组信息,发现全为root。 修改jar包的属主属组为omm:wheel,重新执行成功。 父主题: 使用Spark
快速配置Spark参数 Spark常用配置参数 Spark日志介绍 获取运行中Spark应用的Container日志 调整Spark日志级别 配置WebUI上查看Container日志 配置WebUI上显示的Lost Executor信息的个数 配置JobHistory本地磁盘缓存 配置Spark Eventlog日志回滚
xml”配置文件中进行如表3所示的配置。 表1 参数说明 参数 描述 默认值 yarn.log-aggregation-enable 设置是否打开Container日志聚合功能。 设置为“true”,表示打开该功能,日志会被收集到HDFS目录中。 设置为“false”,表示关闭该功能,表示日志不会收集到HDFS中。
huawei.clickhouse.examples.Demo 查看调测结果 ClickHouse应用程序运行完成后,可通过以下方式查看程序运行情况: 通过运行结果查看程序运行情况。 通过ClickHouse日志获取应用运行情况。 即查看当前jar文件所在目录的“logs/clickhouse-example
Manager,选择“系统 > 权限 > 角色”。 单击“添加角色”,在“配置资源权限”中单击集群名称,确认可配置资源权限的组件。 选择“集群 > 服务”,查看可配置资源权限的组件的运行状态是否都为“良好”。 如果不为“良好”,请启动或者修复组件,直至状态为“良好”。 再次执行删除租户操作。 父主题:
单击“保存”,配置保存完成后。在Kafka实例页签勾选所有“KafkaUI”实例,选择“更多 > 重启实例”。 使用omm用户登录任意KafkaUI实例节点,查看进程: ps -ef | grep KafkaUI 如果包含参数“-Dfastjson.parser.safeMode=true”,说明漏洞问题已经规避,如下所示:
在“备份对象”选择待操作的集群。 在“备份类型”选择备份任务的运行类型,“周期备份”表示按周期自动执行备份,“手动备份”表示由手工执行备份。 创建周期备份任务,还需要填写以下参数: “开始时间”:表示任务第一次启动的时间。 “周期”:表示任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。