检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果执行失败,请在执行目录的work_space/log_XXX下查看node.log日志。 配置文件中包含认证密码信息可能存在安全风险,建议当前场景执行完毕后删除相关配置文件或加强安全管理。 批量升级MRS集群客户端 以待安装客户端的用户登录客户端下载节点。 执行以下命令进行升级。 sh client_batch_upgrade
面。 选择“数据源”,单击“添加数据源”。在“添加数据源”页面填写参数。 配置“基本配置”,填写数据源名称,选择数据源类型“HBase”。 配置“HBase配置”,参数配置请参考表1。 表1 HBase配置 参数 描述 取值样例 驱动 默认为“hbase-connector”。 hbase-connector
登录Manager页面,选择“集群 > 服务 > Yarn > 配置 > 全部配置”。 在搜索框搜索“yarn.resourcemanager.webapp.pagination.enable”。 如果该参数值为“true”(默认为“true”),请修改为“false”,并保存配置。 在Yarn服务页面选择“实例
不会对集群性能造成影响。 处理步骤 登录Manager页面,选择“集群 > 服务 > Oozie > 配置 > 全部配置 > 自定义”,在“oozie-site.xml”的配置项中添加参数“oozie.action.max.output.data”,值为“204800”,如下所示:
该节点NodeManager实例未启动前无法提供服务。 服务参数配置如果使用旧的存储目录,需要更新为新目录。 更改NodeManager的存储目录以后,需要重新下载并安装客户端。 前提条件 在各个数据节点准备并安装好新磁盘,并格式化磁盘。 规划好新的目录路径,用于保存旧目录中的数据。
Spark2x > 配置”。单击“全部配置”。 选择“SparkResource2x > 默认”,修改以下参数: 表1 参数列表 参数 默认值 修改结果 spark.shuffle.service.enabled false true 重启Spark2x服务,配置生效。 如果需要在Spark2x客户端用External
tar”,继续解压该文件。 进入客户端配置文件解压路径“FusionInsight_Cluster_1_Services_ClientConfig_ConfigFiles\HDFS\config”,获取表1中相关配置文件。 表1 配置文件 配置文件 作用 core-site.xml 配置Hadoop Core详细参数。
begin_lat, ts from hudi_trips_incremental where fare > 20.0").show() 特定时间点查询: # Represents all commits > this time. beginTime = "000" endTime =
Windows系统,推荐Windows 7以上版本。 安装JDK 开发环境的基本配置。版本要求:1.7或者1.8。 说明: 基于安全考虑,服务端只支持TLS 1.1和TLS 1.2加密协议,IBM JDK默认TLS只支持1.0,若使用IBM JDK,请配置启动参数“com.ibm.jsse2.o
采集单个实例的堆栈信息:单击要采集的实例,选择“更多 > 采集堆栈”。 根据界面提示,在弹框中选择需要采集的角色,采集内容,配置高级选项(若无特殊需求,保持默认配置即可),单击“确定”。 图1 采集堆栈 采集成功后,单击“下载”。 下载堆栈信息 选择“集群 > 待操作集群的名称 > 服务
写入表的类型为:Hive、Datasource 支持的数据格式:parquet、orc 配置参数 在Spark客户端的“{客户端安装目录}/Spark/spark/conf/spark-defaults.conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.sql.mergeSmallFiles
3.x及之后版本集群执行以下操作: 在主管理节点使用客户端。 安装客户端,具体请参考安装客户端章节。 以客户端安装用户登录客户端安装节点,执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已
运行正常。 表1 开发环境 准备 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 安装JDK 开发环境的基本配置。版本要求:1.8及以上。 安装和配置Eclipse 用于开发OpenTSDB应用程序的工具。 网络 确保客户端与OpenTSDB服务主机在网络上互通。
待操作集群的名称 > 服务 > Spark2x > 配置 > 全部配置”,搜索参数spark.driver.extraLibraryPath和spark.executor.extraLibraryPath,并清空其参数值。 在“全部配置”中选择“ SparkResource2x”。
语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备连接集群配置文件 准备工程 Flink提供了样例程序,您可以导入样例工程进行程序学习。或者您可以根据指导,新建一个Flink工程。 导入并配置Flink样例工程
待操作集群的名称 > 服务 > Spark2x > 配置 > 全部配置”,搜索参数spark.driver.extraLibraryPath和spark.executor.extraLibraryPath,并清空其参数值。 在“全部配置”中选择“ SparkResource2x”。
指导完成不同语言的开发环境配置。Flink的运行环境即Flink客户端,请根据指导完成客户端的安装和配置。 准备本地应用开发环境 准备工程 Flink提供了样例程序,您可以导入样例工程进行程序学习。或者您可以根据指导,新建一个Flink工程。 导入并配置Flink样例工程 准备安全认证
当前版本的Hue组件,不支持导入文件到Hive表时设置多个分隔符。 操作步骤 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit Hive业务用户(如果集群未开启Kerberos认证,请跳过该操作)
选择“sftp-connector”,单击“添加”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。Loader支持配置多个SFTP服务器操作数据,单击“添加”可增加多行SFTP服务器的配置信息。 表1 连接参数 参数名 说明 示例 名称 SFTP服务器连接的名称。
选择“sftp-connector”,单击“添加”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。Loader支持配置多个SFTP服务器操作数据,单击“添加”可增加多行SFTP服务器的配置信息。 表1 连接参数 参数名 说明 示例 名称 SFTP服务器连接的名称。