检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
辑”。 设置Loader作业分组下所有作业的执行权限 (包括对分组下现有或后续新增所有作业的执行权限) 在“配置资源权限”的表格中选择“待操作集群的名称 > Loader > 作业分组”。 在指定作业分组的“权限”列,勾选“作业执行”。 设置Loader作业的编辑权限 (包括作业的编辑、删除、复制和导出权限)
“表输入”算子,将关系型数据库表的指定列按顺序转换成同等数量的输入字段。 输入与输出 输入:表列 输出:字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 输入字段 配置关系型数据库输入字段的相关信息: 位置:配置输入字段的位置。 字段名:配置输入字段名。 类型:配置字段类型。
为C,调整策略为A x B > C ,连接到HiveServer的session数可在Hive的监控界面查看。 查看本告警是否恢复。 是,操作结束。 否,执行2。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。
shuffle服务启动时,它尝试基于localhost绑定IP。如果需要MapReduce shuffle服务连接特定IP,可以参考该章节进行配置。 配置描述 当需要MapReduce shuffle服务绑定特定IP时,需要在NodeManager实例所在节点的配置文件“mapred-site
m.yaml”文件。 Worker进程初始化时间较长,超过Storm集群设置Worker启动超时时间,导致Worker被Kill从而一直进行重分配。 定位思路 使用Storm客户端提交拓扑,检查出重复“storm.yaml”问题。 重新打包Jar包,然后再提交拓扑。 修改Storm集群关于Worker启动超时参数。
ClickHouse 实例不满足拓扑分配 告警解释 ClickHouseServer实例分布不满足拓扑分配要求。 告警属性 告警ID 告警级别 是否自动清除 45431 紧急 否 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。
用于内部测试主LDAP是否工作正常。用户组随机存在,每次测试时创建,测试完成后自动删除。系统内部组,仅限组件间内部使用。 compcommon 系统内部组,用于访问集群公共资源。所有系统用户和系统运行用户默认加入此用户组。 操作系统默认用户组 wheel 系统内部运行用户“omm”的主组。
CARBON TABLE 需要执行INSERT命令的CarbonData表的名称。 select query Source表上的SELECT查询(支持CarbonData、Hive和Parquet表)。 注意事项 表必须已经存在。 用户应属于数据加载组以执行数据加载操作。默认情况下,数据加载组被命名为“ficommon”。
nts的数据文件不会从物理上删除。如果用户希望强制删除这些文件,可以使用CLEAN FILES命令。 但是,使用该命令可能会导致查询命令执行失败。 命令格式 CLEAN FILES FOR TABLE [db_name.]table_name ; 参数描述 表1 CLEAN FILES
successful. 执行以下命令,查看运行结果。 ip rule list 0:from all lookup local 32766:from all lookup main 32767:from all lookup default 执行以下命令,输入root用户密码,切换到root用户下。
shuffle服务启动时,它尝试基于localhost绑定IP。如果需要MapReduce shuffle服务连接特定IP,可以参考该章节进行配置。 配置描述 当需要MapReduce shuffle服务绑定特定IP时,需要在NodeManager实例所在节点的配置文件“mapred-site
NameNode(主)”,单击“DataNodes”,查看所有告警DataNode节点的Block数量信息。 告警信息 监控ID为14007、14008、14009的告警是否产生,根据业务需要修改告警阈值。 父主题: HDFS运维管理
CARBON TABLE 需要执行INSERT命令的CarbonData表的名称。 select query Source表上的SELECT查询(支持CarbonData、Hive和Parquet表)。 注意事项 表必须已经存在。 用户应属于数据加载组以执行数据加载操作。默认情况下,数据加载组被命名为“ficommon”。
nts的数据文件不会从物理上删除。如果用户希望强制删除这些文件,可以使用CLEAN FILES命令。 但是,使用该命令可能会导致查询命令执行失败。 命令格式 CLEAN FILES FOR TABLE [db_name.]table_name ; 参数描述 表1 CLEAN FILES
“转包周期中”。 订单支付成功后,集群开始进行转包周期流程,待集群转包周期成功后,集群状态更新为“运行中”。 转包周期后集群原有Task节点计费类型保持按需计费,集群在转包周期过程中已配置的弹性伸缩规则不触发新任务,请选择恰当的时间进行该操作。 父主题: 变更计费模式
*:{加上原来配置的值} spark.executor.extraClassPath =$PWD/* 作业运行成功。如果还有报错,则需要排查还有哪个jar没有加载,再次执行步骤1和步骤2。 父主题: 使用Flume
配置项 描述 默认值 spark.authenticate 是否开启Spark内部安全认证。 安全模式:true 普通模式:false spark.authenticate.enableSaslEncryption 是否启用基于SASL的加密通信。 安全模式:true 普通模式:false
n,执行./spark-sql登录spark-sql命令行。 在spark-sql命令行执行以下命令: create table test(id int) location 'obs://mrs-word001/table/'; 执行语句show tables;查看表是否存在。
)、执行(X)或管理(A)权限。 用户需要在HBase中对指定的数据库或表设置权限,才能够创建表、查询数据、删除数据、插入数据、更新数据以及授权他人访问HBase表。 仅开启了Kerberos认证的集群(安全模式)支持创建HBase角色。 如果当前组件使用了Ranger进行权限控
该任务会停止运行。需要解锁重新运行该任务时,选择“更多 > 重新执行”。 “更多 > 重新执行” 启用自动备份任务。 “更多 > 查询历史”或“查询历史” 打开任务运行日志窗口,查看运行详细情况以及备份路径。 “查看” 检查恢复任务的参数设置。 “执行” 运行恢复任务。 查看备份恢复任务(MRS