检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
WebUI”的HSConsole链接进入计算实例界面。 选择并停止需要配置的计算实例,单击计算实例的“配置”,进入计算实例配置界面。 根据使用场景删除如下自定义配置并保存。 名称 值 参数文件 说明 implicit-conversion true coordinator.config.properties 隐式转换
ThriftServer:“/var/log/Bigdata/hbase/ts2”(运行日志,ts2为具体实例名称),“/var/log/Bigdata/audit/hbase/ts2”(审计日志,ts2为具体实例名称)。 日志归档规则:HBase的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过
policy”参数,可以防止客户端访问结果显示乱码。 操作步骤 在Manager系统中,选择“集群 > 服务 > Yarn > 配置”,选择“全部配置”,在搜索框中输入参数名称“yarn.http.policy”。 安全模式下配置为“HTTPS_ONLY”。 普通模式下配置为“HTTP_ONLY”。 以客户端安装用户,登录安装客户端的节点。
-Dmapreduce.job.priority=<priority> [path1] [path2] 命令行中参数含义为: <jar>:指定需要运行的jar包名称。 [mainClass]:指jar包应用工程中的类的main方法。 <priority>:指定任务的优先级,其取值可为:VERY_HIG
WebUI界面,单击右上角用户名,选择“Log Out”,退出当前用户。并使用rangeradmin用户重新登录。 在首页中单击“CDL”区域的组件插件名称,例如“CDL”,进入如下页面: 依次单击每条策略“Action”列的,删除“Allow Conditions”区域“Select Use
-Dmapreduce.job.priority=<priority> [path1] [path2] 命令行中参数含义为: <jar>:指定需要运行的jar包名称。 [mainClass]:指jar包应用工程中的类的main方法。 <priority>:指定任务的优先级,其取值可为:VERY_HIG
policy”参数,可以防止客户端访问结果显示乱码。 操作步骤 在Manager系统中,选择“集群 > 服务 > Yarn > 配置”,选择“全部配置”,在搜索框中输入参数名称“yarn.http.policy”。 安全模式下配置为“HTTPS_ONLY”。 普通模式下配置为“HTTP_ONLY”。 以客户端安装用户,登录安装客户端的节点。
String, stayTime: Int) def main(args: Array[String]) { //配置Spark应用名称 val spark = SparkSession .builder() .appName("FemaleInfo")
如果不存在overlap,执行3。 如果存在overlap,执行1。 登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > HBase > 更多 > 执行HMaster倒换”,完成HMaster主备倒换。 执行hbase hbck -j ${CL
WebUI”后的链接,进入HSConsole界面。 单击“数据源”,在Hive数据源所在行的“操作”列下单击“编辑”,在页面内新增如下自定义配置: 表1 元数据超时参数 参数名称 默认值 描述 hive.metastore-timeout 10s 共部署Hive数据源加载元数据缓存最大超时时间,单位为秒或分钟 对于
] 其中: 不输入-details时只输出CLOSED状态的Region数量,输入-details时输出所有CLOSED状态的Region名称。 不指定TABLENAME时默认查看所有表。 命令执行后如果输出“Closed region due to split”,说明该Regi
配置参数 参数入口: 在Manager系统中,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.parquet.compression.codec 对于非分区parquet表,设置其存储文件的压缩格式。
String 参数解释: 可用区编码。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_name String 参数解释: 可用区名称。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_id String 参数解释: 可用区id。 约束限制: 不涉及 取值范围:
> LoaderServer(角色) > 清除”出现如下图所示配置项,可参考表1调整以下参数配置。 表1 清除Loader历史数据参数 参数名称 描述 推荐修改值 loader.submission.purge.interval 清理任务被调用的时间间隔(分钟)。 60 loader
examples中的HdfsMain类。 /** * 设置存储策略 * @param policyName * 策略名称能够被接受: * <li>HOT * <li>WARM * <li>COLD * <li>LAZY_PERSIST
访问。 重置组件数据库用户密码 在FusionInsight Manager界面,选择“集群 > 服务”。 单击待重置数据库用户密码的服务名称,例如“Kafka”,然后在服务概览页面中单击“停止服务”。 在弹出窗口中输入当前登录的用户密码确认身份,单击“确定”。 确认停止服务的影响后,等待服务成功停止。
Manager页面,选择“集群 > 服务 > Spark > 配置”。 搜索“自定义”,在所有的“hive-site.xml”参数文件中新增名称为“hive.metastore-ext.balance.connection.enable”,值为“true”的自定义参数,单击“保存”,保存配置。
表3 日志格式 日志类型 格式 示例 运行日志 [<yyyy-MM-dd HH:mm:ss>] <Log Level>: [<产生该日志的脚本名称:行号>]: <log中的message> [2020-12-19 15:56:42] INFO [postinstall.sh:653]
r_id),所以需要先在管理控制台上获取到集群ID。集群ID获取步骤如下: 登录MRS管理控制台。 选择“现有集群”,单击待操作集群的集群名称,进入集群详情页面。 选择“概览”页签,在基本信息区域获取“集群ID”。 图1 集群ID 获取作业ID 在调用作业相关接口的时候,部分UR
WebUI”后的链接,进入HSConsole界面。 选择“数据源”,单击“添加数据源”。在“添加数据源”页面填写参数。 配置“基本配置”,填写数据源名称,选择数据源类型“JDBC > IoTDB”。 配置“IoTDB配置”,参数配置请参考表1。 表1 IoTDB配置 参数 描述 取值样例 驱动