检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
修改参数值后,需重启Yarn服务使其生效。 说明: 在修改值为false并生效后,生效前的日志无法在UI中获取。您可以在“yarn.nodemanager.remote-app-log-dir-suffix”参数指定的路径中获取到生效前的日志。 如果需要在UI上查看之前产生的日志,建议将此参数设置为true。
机的网络连接是否正常。(依赖组件包括ZooKeeper、DBService、HDFS、Mapreduce和Yarn等,获取依赖组件所在主机的IP地址的方式和获取Sqoop实例的IP地址的方式相同。) 是,执行7。 否,执行6.g。 联系网络管理员恢复网络。 在告警列表中,查看“ALM-23001
记录“概要信息”下的IP地址。 通过6.e获取的IP地址登录HiveServer所在的主机。 执行ping命令,查看HiveServer所在主机与ZooKeeper、HDFS、Yarn和DBService服务所在主机的网络连接是否正常。(获取ZooKeeper、HDFS、Yarn和
修改Manager用户 功能简介 通过访问Manager接口完成修改用户。 代码样例 以下代码片段是修改用户的示例,在“rest”包的“UserManager”类的main方法中。 //访问Manager接口完成修改用户 operationName
检查任务参数是否没有正确设置。 打开FusionInsight Manager页面,选择“运维 > 告警 > 告警”在告警列表中,打开告警下拉页面,获取告警原因。 如果告警原因是“提交任务失败”,则查看“附加信息”中的错误细节信息,同时到Loader界面查看该任务的历史执行记录。 admi
xml将发生变化,需要下载最新的core-site.xml并放入到打包hive二次开发样例代码进程的classpath路径下面。 解决办法 下载集群Hive最新的客户端,获取最新的“core-site.xml”。 将core-site.xml放入到打包Hive二次开发样例代码进程的classpath路径下面。 父主题:
客户端安装目录/IoTDB/iotdb/conf 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建IoTDB表的权限,可参考IoTDB用户权限管理。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 例如: kinit iotdbuser
comparator,filterIfMissing,latestVersionOnly)"} hbase shell下面做复杂的查询请使用API进行处理。 参数说明: family:需要查询的列所在的列族,例如info; qualifier:需要查询的列,例如name; compareOp:比较符,例如=、>等;
comparator,filterIfMissing,latestVersionOnly)"} hbase shell下面做复杂的查询请使用API进行处理。 参数说明: family:需要查询的列所在的列族,例如info; qualifier:需要查询的列,例如name; compareOp:比较符,例如=、>等;
comparator,filterIfMissing,latestVersionOnly)"} hbase shell下面做复杂的查询请使用API进行处理。 参数说明: family:需要查询的列所在的列族,例如info; qualifier:需要查询的列,例如name; compareOp:比较符,例如=、>等;
test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命令均在“$SPARK_HOME”目录执行,Java接口对应的类名前有Java字样,请参考具体样例代码进行书写。 yarn-client模式: java/scala版本(类名等请与实际代码保持一致,此处仅为示例)
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,在告警列表中单击此告警。 通过“定位信息”的“主机名”,获取告警产生的DataNode节点的主机名。 删除DataNode数据目录中与磁盘规划不符的目录。 选择“集群 > 待操作集群的名称 > 服务
配置并导入Manager样例工程 操作步骤 参考获取MRS应用开发样例工程,获取样例代码解压目录中“src”目录下的样例工程文件夹“manager-examples”到本地。 在应用开发环境中,导入样例工程到IntelliJ IDEA开发环境。 打开IntelliJ IDEA,选择“File
在弹性云服务器管理控制台,单击“开机”,将已更换磁盘的节点开机。 执行fdisk -l命令,查看新增磁盘。 使用cat /etc/fstab获取盘符。 图2 获取盘符 使用对应的盘符对新磁盘进行格式化。 例如:mkfs.ext4 /dev/sdh 执行如下命令挂载新磁盘。 mount 新磁盘
通过Segment ID删除 每个Segment都有与其关联的唯一Segment ID。使用这个Segment ID可以删除该Segment。 运行如下命令获取Segment ID。 命令: SHOW SEGMENTS FOR Table dbname.tablename LIMIT number_of_loads;
以omm用户通过21获取的IP地址登录主LoaderServer所在的主机。 执行ping命令,查看主LoaderServer所在主机和依赖组件所在主机的网络连接是否正常。(依赖组件包括ZooKeeper、DBService、HDFS、Mapreduce和Yarn等,获取依赖组件所在主
myhuaweicloud.com/mrs-demon-samples/demon/detail-records.zip获取Spark样例数据到本地。 将下载的“detail-records.zip”解压,获取图3所示的样例数据。 图3 样例数据 进入“input”文件夹,单击“上传文件”,选择本地存放的Spark样例数据。
在MRS集群详情页面,单击“告警管理”,在告警列表中单击此告警。 在“告警详情”区域,查看“告警原因”,可知产生该告警的原因。 通过“定位信息”的“HostName”,获取告警产生的DataNode节点的主机名。 删除DataNode数据目录中与磁盘规划不符的目录。 单击“组件管理 > HDFS > 实例”,
TABLE_NAME VALUES(XXX); 关键字 参数 描述 TABLE_NAME 所关联的OpenTSDB表名。 SRC_TABLE 获取数据的表名,普通表即可。 注意事项 插入的数据不能为null;插入的数据相同,会覆盖原数据;插入的数据只有value值不同,也会覆盖原数据。
中的HBaseSource文件: # -*- coding:utf-8 -*- """ 【说明】 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现 """ from py4j.java_gateway import java_import