检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参考获取MRS应用开发样例工程,获取样例代码解压目录中“src\hetu-examples”目录下的样例工程文件夹“python3-examples”。 进入“python3-examples”文件夹。 normal文件夹:普通模式下对接HetuEngine的python3样例代码 security文件夹:安全模
申请一台Windows的ECS访问MRS集群操作Presto。申请ECS访问MRS集群的步骤如下: 在“现有集群”列表中,单击已创建的集群名称。 记录集群的“可用分区”、“虚拟私有云”,以及Master节点的“默认安全组”。 在弹性云服务管理控制台,创建一个新的弹性云服务器。 弹性云服务器的“可用
park2x\config”,手动将配置文件导入到Spark样例工程的配置文件目录中(通常为“resources”文件夹)。 准备MRS应用开发用户时获取的keytab文件也放置于该目录下,主要配置文件说明如表2所示。 表2 配置文件 文件名称 作用 carbon.properties
追加信息到HDFS指定文件 功能简介 追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 使用FileSystem实例的append方法获取追加写入的输出流。 使用该输出流将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com
单击“立即创建”。 在OBS控制台并行文件系统列表中,单击文件系统名称进入详情页面。 在左侧导航栏选择“文件”,新建program、input文件夹。 program:请上传程序包到该文件夹。 input:请上传输入数据到该文件夹。 步骤四:Hive访问OBS文件系统 用root用户登录集群
HDFS写文件失败,报错“item limit of xxx is exceeded” 问题背景与现象 客户端或者上层组件日志报往HDFS的某目录写文件失败,报错为: The directory item limit of /tmp is exceeded: limit=5 items=5。
move 将文件从源目录移动到目标目录的标签 chmod 修改文件或目录权限的标签 path 当前文件路径 source 源文件路径 target 目标文件路径 permissions 权限字符串 “${变量名}”表示:该值来自“job.properties”所定义。 例如:${nam
move 将文件从源目录移动到目标目录的标签 chmod 修改文件或目录权限的标签 path 当前文件路径 source 源文件路径 target 目标文件路径 permissions 权限字符串 “${变量名}”表示:该值来自job.properties所定义。 例如:${nameN
num-committed-allowed 关闭文件时,允许待关闭文件中处于COMMITTED状态的Block的数量。 默认为:0,即关闭该特性。如果开启该特性,一般建议值为1~2,不建议太大。 例如:如果该参数值为1,则表示无需等待最后一个Block状态变成COMPLETED即可关闭文件。 参数修改后保存配置。
</composite> 指定字段数据类型 HBase BulkLoad支持读取原生态数据文件,把数据文件的每个字段映射为HBase定义的字段,并对该字段的数据类型做定义。 您可以在“configuration.xml”文件中定义多个方式来批量导入数据。 列的名称不能包含特殊字符,只能由字母、数字和下划线组成。
执行如下命令查看用户自定义配置文件所在父目录的权限。 ll <文件所在路径的父目录路径> 进入NFS盘待访问文件所在目录,修改用户自定义配置文件所在父目录的权限为755。 chmod 755 -R /<文件所在路径的父目录路径> 确认Core或者Task节点是否可以访问到该配置文件。 以root用户登录Core/Task节点。
用户”界面,选择clickhouseuser用户,选择“更多 > 下载认证凭据”。 首次认证,需要先修改初始密码后再下载认证凭据文件,否则会导致安全认证失败。 解压下载认证凭据,并将“user.keytab”文件改名为“clickhouse_to_hdfs.keytab”。 登录ClickHouse集群FusionInsight
配置HDFS文件回收站机制 配置场景 在HDFS中,如果删除HDFS的文件,删除的文件将被移动到回收站(trash)中,不会被立即清除,以便在误操作的情况下恢复被删除的数据。被删除的文件在超过老化时间后将变为老化文件,会基于系统机制清除或用户手动清除。 您可以设置文件保留在回收站
如下通过一个Mapreduce工作流的示例演示如何配置,并通过Shell命令调用。 场景说明 假设存在这样的业务需求: 每天需要对网站的日志文件进行离线分析,统计出网站各模块的访问频率(日志文件存放在HDFS中)。 通过客户端中模板与配置文件提交任务。 父主题: 开发Oozie配置文件
如下通过一个Mapreduce工作流的示例演示如何配置文件,并通过Shell命令调用。 场景说明 假设存在这样的业务需求: 每天需要对网站的日志文件进行离线分析,统计出网站各模块的访问频率(日志文件存放在HDFS中)。 通过客户端中模板与配置文件提交任务。 父主题: 开发Oozie配置文件
路径名 异常的文件路径或者名称。 对系统的影响 导致文件所属服务功能不正常。 okerberos、oldap关键文件配置异常,会导致认证失败,可能会导致作业运行失败。 controller、pms关键文件配置异常,会导致进程故障,可能会影响弹性扩缩容性能。 tomcat关键文件配置异常
配置HDFS单目录文件数量 操作场景 通常一个集群上部署了多个服务,且大部分服务的存储都依赖于HDFS文件系统。当集群运行时,不同组件(例如Spark、Yarn)或客户端可能会向同一个HDFS目录不断写入文件。但HDFS系统支持的单目录文件数目是有上限的,因此用户需要提前做好规划
配置HDFS单目录文件数量 操作场景 通常一个集群上部署了多个服务,且大部分服务的存储都依赖于HDFS文件系统。当集群运行时,不同组件(例如Spark、Yarn)或客户端可能会向同一个HDFS目录不断写入文件。但HDFS系统支持的单目录文件数目是有上限的,因此用户需要提前做好规划
登录MRS Manager系统。 选择“服务管理 > 下载客户端”,下载客户端程序到客户端机器。 解压缩客户端文件包MRS_Services_Client.tar。安装包为tar格式,执行如下命令解压两次。 tar -xvf MRS_Services_Client.tar tar -xvf
HDFS客户端写文件close失败 问题背景与现象 HDFS客户端写文件close失败,客户端提示数据块没有足够副本数。 客户端日志: 2015-05-27 19:00:52.811 [pool-2-thread-3] ERROR: /tsp/nedata/collect/UGW