检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的行删除。 联系硬件工程师插入全新磁盘,具体操作请参考对应型号的硬件产品文档,如果原来故障的磁盘是RAID,那么请按照对应RAID卡的配置方法配置RAID。 等待20~30分钟后执行mount命令(具体时间依赖磁盘的大小),检查磁盘是否已经挂载在目录“挂载目录名”上。 是,针对MRS
如果您使用的是普通模式,准备业务应用代码及其相关配置即可。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。 将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。 Spar
下面代码片段在com.huawei.bigdata.kafka.example.WordCountDemo类的createWordCountStream方法中。 static void createWordCountStream(final StreamsBuilder builder) {
小。 在“GC_OPTS”中查看 “-Xmx”配置的大小,并判断节点内存是否够用。 节点内存是否够用可根据实际环境进行判断,例如可使用以下方法: 以root用户登录告警上报的实例的IP地址,执行free -g命令,查看“free”列的“Mem”值即为节点可用内存,如下示例中节点可用内存为4G。
告警”查看是否存在告警“ALM-14003 丢失的HDFS块数量超过阈值”。 是,执行2。 否,执行3。 按照“ALM-14003 丢失的HDFS块数量超过阈值”的处理方法处理,然后等待5分钟,检查告警是否清除。 是,结束。 否,执行3。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询MRS集群管理员。执行如下命令:
何处理。 说明: 文件类型选择“TEXT_FILE”或“SEQUENCE_FILE”导入时,Loader会自动根据文件的后缀选择对应的解压方法,对文件进行解压。 TEXT_FILE 文件分割方式 选择按文件或大小分割源文件,作为数据导出的MapReduce任务中各个map的输入文件。
everyone.if.no.acl.found”参数值设置为true; 若不设置此参数,操作会报错。 Kafka集群broker实例IP获取方法如下: MRS 3.x及后续版本,登录FusionInsight Manager,然后选择“集群 > 待操作的集群名称 > 服务 > Ka
何处理。 说明: 文件类型选择“TEXT_FILE”或“SEQUENCE_FILE”导入时,Loader会自动根据文件的后缀选择对应的解压方法,对文件进行解压。 TEXT_FILE 文件分割方式 选择按文件或大小分割源文件,作为数据导出的MapReduce任务中各个map的输入文件。
下面代码片段在com.huawei.bigdata.kafka.example.WordCountDemo类的createWordCountStream方法中。 static void createWordCountStream(final StreamsBuilder builder) {
container.log.dir}设置了输出目录,因此在yarn-cluster模式执行任务不会报FileNotFoundException异常。 处理方法: 注:下面所说的$SPAKR_HOME默认是/opt/client/Spark/spark 解决方案1:手动切换日志配置文件。修改文件$
从日志信息中可以看到:执行UserManager类中的main方法时,依次调用loginAndAccess、sendHttpPostRequest、sendHttpGetRequest、sendHttpPutRequest、sendHttpDeleteRequest方法,发送POST、GET、PUT、DE
载geohash的自定义实现类。自定义索引抽象类方法包括: Init方法,用来提取、验证和存储handler属性。在失败时发生异常,并显示错误信息。 Generate方法,用来生成索引。它为每行数据生成一个索引数据。 Query方法,用来对给定输入生成索引值范围列表。 导入命令同普通Carbon表:
删除弹性伸缩策略。 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/autoscaling-policy/{cluster_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 参数解释: 项目编号。获取方法,请参见获取项目ID。
是否使用keytab文件。 true -au <arg> 登录认证的用户名。 bar -ap <arg> 登录认证的密码,需要填写密文。 密码加密方法: sh Loader客户端安装目录/Loader/loader-tools-1.99.3/encrypt_tool 用户非加密密码 说明:
是否使用keytab文件。 true -au <arg> 登录认证的用户名。 bar -ap <arg> 登录认证的密码,需要填写密文。 密码加密方法: sh Loader客户端安装目录/Loader/loader-tools-1.99.3/encrypt_tool 用户非加密密码 说明:
Integer.parseInt(elems[2])); } // UserRecord数据结构的定义,并重写了toString打印方法 public static class UserRecord { private String name;
场景的示例请参考开发Spark应用。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。 将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。生成Jar
算子的选择和参数设置具体请参考算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 HBase输入 文件输出 图3 算子操作方法示意 设置数据保存信息并运行作业 单击“下一步”,进入“输出设置”界面,设置数据保存方式。 表3 输出设置参数 参数名 解释说明 示例 输出路径
参数设置具体请参考Loader算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 HBase输入 文件输出 图3 算子操作方法示意 设置数据保存信息并运行作业 单击“下一步”,进入“输出设置”界面,设置数据保存方式。 表3 输出设置参数 参数名 解释说明 示例 输出路径
reimport projects 编译运行程序。 修改代码匹配的IoTDBServer节点IP、端口、登录用户名和密码。 编译方式有以下两种。 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”,双击“clean”运行maven的clean命令。 选择“Maven