检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如下图所示: realJob的日志,可以通过MRS Manager中Yarn服务提供的ResourceManager Web UI查看。 登录集群Master节点,可获取1作业的日志文件 ,具体hdfs路径为“/tmp/logs/{submit_user}/logs/{application_id}”。
free(buffer); 断开HDFS文件系统连接。 hdfsDisconnect(fs); 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 Linux中编译并运行程序 进入Linux客户端目录,运行如下命令导入公共环境变量: cd/opt/client
在Hive执行MapReduce任务长时间卡住的情况下想手动停止任务,需要如何操作? 回答 登录FusionInsight Manager。 选择“集群 > 服务 > Yarn”。 单击左侧页面的“ResourceManager(主机名称,主)”按钮,登录Yarn界面。 单击对应任务ID的按钮进入任务页面,单击界面左上角的“Kill
ALTER TABLE修改表数据 建议慎用delete、update的mutation操作 标准SQL的更新、删除操作是同步的,即客户端要等服务端返回执行结果(通常是int值);而ClickHouse的update、delete是通过异步方式实现的,当执行update语句时,服务
ALTER TABLE修改表数据 建议慎用delete、update的mutation操作 标准SQL的更新、删除操作是同步的,即客户端要等服务端返回执行结果(通常是int值);而ClickHouse的update、delete是通过异步方式实现的,当执行update语句时,服务
用户同步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 通过管理控制台启停节点角色 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。
String 参数解释: 真实作业编号。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 properties String 参数解释: 配置参数,用于传-d参数。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 app_id String 参数解释: 实际作业编号。
的情况下想手动停止任务,需要如何操作? 回答 登录FusionInsight Manager。 选择“集群 > 待操作的集群名称 > 服务 > Yarn”。 单击左侧页面的“ResourceManager(主机名称,主)”按钮,登录Yarn界面。 单击对应任务ID的按钮进入任务页面,单击界面左上角的“Kill
查看Broker信息 查看Topic信息 查看Consumers信息 通过KafkaManager修改Topic的partition 查看Broker信息 登录KafkaManager的WebUI界面。 在集群列表页面单击对应集群名称进入集群Summary页面。 图1 集群Summary页面 单击
hdfsFileFreeReadStatistics(stats); 断开HDFS文件系统连接。 hdfsDisconnect(fs); 准备运行环境 在节点上安装客户端,例如安装到“/tmp/client”目录。 Linux中编译并运行程序 进入Linux客户端目录,运行如下命令导入公共环境变量: cd/opt/client
hdfsFileFreeReadStatistics(stats); 断开HDFS文件系统连接。 hdfsDisconnect(fs); 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 Linux中编译并运行程序 进入Linux客户端目录,运行如下命令导入公共环境变量: cd/opt/client
当前用户没有消费Kafka数据的权限。 处理步骤 登录FusionInsight Manager,选择“系统 > 权限 > 用户”,单击提交CDL任务用户所在行的“修改”,添加“kafkaadmin”用户组,单击“确定”。 使用该用户登录FusionInsight Manager界面,选择“集群
在Linux环境中查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。 结果数
ommdba用户或密码过期,OMS数据库无法管理,数据不能访问。 可能原因 系统ommdba用户或密码即将过期。 处理步骤 检查系统中ommdba用户和密码是否正常。 登录故障节点。 执行以下命令来查看当前ommdba用户密码设置信息: chage -l ommdba 检查系统提示信息,是否用户已过期。 查找“Password
当Flume服务不可用时,Flume不能正常工作,数据传输业务中断。 可能原因 HDFS服务不可用。 LdapServer服务不可用。 处理步骤 检查HDFS的服务状态。 登录MRS集群详情页面,选择“告警管理”。 查看是否有“ALM-14000 HDFS服务不可用”告警产生。 是,参考ALM-14000 HDFS服务不可用(2
afka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。 开发一个Producer向该Topic生产数据。 开发一个Consumer消费该Topic的数据。 性能调优建议 建
为什么通过Spark SQL无法查询到存储类型为Parquet的Hive表的新插入数据?主要有以下两种场景存在这个问题: 对于分区表和非分区表,在Hive客户端中执行插入数据的操作后,会出现Spark SQL无法查询到最新插入的数据的问题。 对于分区表,在Spark SQL中执行插入数据的操作后,如果分区信息未改变,会出现Spark
在MRS管理控制台,单击集群名称,进入MRS集群详情页面失败。 原因分析 用户MRS集群选的是企业项目A(包含MRS FULLACCESS和ECS FULLACCESS权限)。 VPC选的是企业项目B。 安全组选的是企业项目A。 IAM这边加入的组没有任何权限设置。 经过分析用户的VPC企业项目B里缺少vpc
32354 1575428400000,120.165421,30.314834 导入数据 GeoHash默认实现类扩展自定义索引抽象类。如果没有配置handler属性为自定义的实现类,则使用默认的实现类。用户可以通过扩展默认实现类来挂载geohash的自定义实现类。自定义索引抽象类方法包括:
务的详细信息,包括每个SQL的执行情况。 查看HetuEngine实例监控步骤 使用可访问HetuEngine WebUI界面的管理员用户登录FusionInsight Manager,选择“集群 > 服务 > HetuEngine”,进入HetuEngine服务页面。 在概览页