检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ase相关配置文件,用于导入到HBase样例工程的配置文件目录中(通常为“conf”文件夹)。 准备MRS应用开发用户时获取的keytab认证文件也放置于该目录下。 在应用开发过程中,如需在本地Windows系统中调测应用程序,需要复制解压目录下的“hosts”文件中的内容到客户
时也会监控这个文件,导致此文件被两个进程同时监控。当其中一个进程按照配置滚动的时候,删除了最早的日志文件,但是另一个进程依旧占用此文件句柄,从而产生了deleted状态的文件。 处理步骤 将Spark的executor日志输出目录修改成其他名称: 打开日志配置文件,默认在“<客户
ThriftServer连接样例程序 通过ThriftServer实例操作HBase表 通过ThriftServer实例向HBase表中写入数据 通过ThriftServer实例读HBase表数据 父主题: 开发HBase应用
le的时候,Spark将借用NodeManager传输Shuffle数据,因此NodeManager的内存将成为瓶颈。 在当前版本的FusionInsight中,NodeManager的默认内存只有1G,在数据量比较大(1T以上)的Spark任务下,内存严重不足,消息响应缓慢,导
成。 table_name Database中的表名,由字母、数字和下划线(_)组成。 STORED AS 使用CarbonData数据格式存储数据。 TBLPROPERTIES CarbonData table属性列表。详细信息,见注意事项。 注意事项 NA 示例 CREATE
参数描述 表1 SHOW SECONDARY INDEXES参数 参数 描述 db_name 数据库的名称。数据库名称应由字母数字字符和下划线(_)特殊字符组成 table_name 数据库中的表名称。表名称应由字母数字字符和下划线(_)特殊字符组成。 注意事项 db_name为可选项。
ps/sqoop/ 该目录下需关注文件如表1所示。 表1 文件说明 文件名称 描述 job.properties 工作流的参数变量定义文件。 workflow.xml 工作流的规则定制文件。 执行以下命令,编辑“job.properties”文件。 vi job.properties
ps/sqoop/ 该目录下需关注文件如表1所示。 表1 文件说明 文件名称 描述 job.properties 工作流的参数变量定义文件。 workflow.xml 工作流的规则定制文件。 执行以下命令,编辑“job.properties”文件。 vi job.properties
HBase运维管理 HBase日志介绍 HBase常用参数配置 配置Region Transition恢复线程 启用集群间拷贝功能备份集群数据 配置HBase主备集群数据自动备份 HBase集群容灾高可用 父主题: 使用HBase
ht_Cluster_1_Services_ClientConfig\Storm\config”,获取相关配置文件。 主要配置文件说明如表2所示。 表2 配置文件 文件名称 作用 storm.yaml 配置Storm集群信息。 user.keytab 对于Kerberos安全认证提供用户信息。
ntConfig/”。 进入解压文件夹,执行如下命令安装客户端。 sh install.sh {client_install_home} 进入客户端安装目录,执行如下命令初始化环境变量。 source bigdata_env 从服务端拷贝如下文件至jar包(样例代码导出的jar包
如果使用keytab登录方式,按3获取keytab文件;如果使用票据方式,则无需获取额外的配置文件。 获取到的keytab文件默认文件名为user.keytab,若用户需要修改,可直接修改文件名,但在提交任务时需要额外上传修改后的文件名作为参数。 获取相关jar包。获取方法如下:
开发HDFS应用 HDFS样例程序开发思路 初始化HDFS 创建HDFS目录 创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation)
开发HDFS应用 HDFS样例程序开发思路 初始化HDFS 创建HDFS目录 创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation)
开发HDFS应用 HDFS样例程序开发思路 初始化HDFS 创建HDFS目录 创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation)
通过指定SpoutConfig中的“ignoreZkOffsets”和“startOffsetTime”来强制消费最新的数据。 在实际使用中推荐使用场景1中的方式,因为场景2中并非从上次commit成功的位置开始,因此可能会存在部分数据遗漏。 父主题: Storm应用开发常见问题
单击“Debug”,在弹出窗口输入流数据采样消息的数值,单位为百分比,表示从开始采样到停止采样这段时间内所有数据的采集比例。例如输入“10”,则采集比例为10%。 如果需要停止采样,则单击“Stop Debug”。 只有在提交拓扑时启用采样功能,才支持此功能。查看采样处理数据,请参见查看Storm拓扑日志。
xml”。 确认mapred-site.xml文件是否有异常,该案例中该配置文件内容为空导致解析失败。 修复mapred-site.xml文件,将Master1节点上对应目录下的配置文件用scp命令拷贝到Master2节点对应目录替换原文件。 执行chown omm:wheel mapred-site
出当前进程。如果当前进程中存在其他常驻的线程(类似spark-shell需要不断检测命令输入,Spark Streaming不断在从数据源读取数据),SparkContext被停止并不会终止整个进程。 如果需要退出Driver进程,建议使用kill -9 pid命令手动退出当前Driver。
conf”文件需要在Linux环境上创建文件夹保存这些配置文件,例如“/opt/conf”。并在linux环境上,在客户端路径下(/opt/client/HDFS/hadoop/etc/hadoop/)获得core-site.xml、hdfs-site.xml文件放入上述文件夹里。