检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ight Manager统一控制,参考准备集群认证用户信息,确保该用户具有操作IoTDB服务和Flink服务的角色权限。 需在本地环境变量中设置环境变量认证用户名和认证用户密码,建议密文存放,使用时解密,确保安全。其中: 认证用户名为访问IoTDB的用户名。 认证用户密码为访问IoTDB的用户密码。
shell 进入HBase命令行运行模式(也称为CLI客户端连接),如下所示。 hbase(main):001:0> 您可以在命令行运行模式中运行help命令获取HBase的命令参数的帮助信息。 注意事项 count命令不支持条件统计,仅支持全表统计。 获取HBase replication指标的命令
key is sent successfully. 在MRS Manager界面,选择“服务管理 > 更多 > 启动集群”。 在弹出的提示框中单击“是”,开始启动集群。界面提示“操作成功。”,单击“完成”,集群成功启动。 父主题: MRS集群安全加固
是,处理完毕。 否,执行6。 收集故障信息。 在主集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选“OMS”,单击“确定”。 设置“主机”为告警所在节点和主OMS节点。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。
前不可配。 建议适当调大task retry次数和Executor失败次数。 在客户端的“spark-defaults.conf”配置文件中配置如下参数。“spark.yarn.max.executor.failures”如果不存在,则手动添加该参数项。 表1 参数说明 参数 描述
//源表数据结构转换为目标表的数据结构。该源表如果需要和Hive进行关联操作,可以直接在SQL中通过表名来进行关联操作;该源表如果需要和Hudi表关联操作,需要先指定Hudi表的路径,然后在SQL中通过表名来进行关联操作。 父主题: Hudi写操作
这个问题是由于HDFS客户端运行时的所需的内存超过了HDFS客户端设置的内存上限(默认128M)。可通过修改“<客户端安装路径>/HDFS/component_env”中的“CLIENT_GC_OPTS”来修改HDFS客户端的内存上限。例如,需要设置内存上限为1GB,则设置: CLIENT_GC_OPTS="-Xmx1G"
shell命令。 进入HBase命令行运行模式(也称为CLI客户端连接),如下所示。 hbase(main):001:0> 您可以在命令行运行模式中运行help命令获取HBase的命令参数的帮助信息。 获取HBase replication指标的命令 通过Shell命令“status”可以获取到所有需要的指标。
压缩算法,因此执行compaction时会使用大量CPU导致CPU较高。 定位办法 使用top命令查看CPU使用率高的进程号。 查看此进程中占用CPU高的线程。 使用命令top -H -p <PID>即可打印出某进程<PID>下的线程的CPU耗时信息。 一般某个进程如果出现问题,
是,处理完毕。 否,执行9。 收集故障信息。 在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”框中勾选待操作集群的“Guardian”。 单击右上角的时间编辑按钮,设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。
日志类型 格式 示例 运行日志 <yyyy-MM-dd HH:mm:ss,SSS>|<LogLevel>|<产生该日志的线程名字>|<log中的message>|<日志事件的发生位置> 2020-07-31 11:44:21,378 | INFO | TezUI-health-check
新增以下两个参数: --multiple-delimiter(-md) 用于指定自定义分隔符,当此命令参数存在时,会优先生效,覆盖掉原命令中的-d参数。 --multiple-delimiter-skip-check(-mdsc) 用于跳过分隔符长度及白名单校验,不建议使用。 按自定义分隔符导入数据至HBase
g则在其整改生命周期都是密集型数据结构。如有必要,可以显式地转换cast(hll as P4HyperLogLog)。在当前数据引擎的实现中,hll的数据草图是通过一组32位的桶来存储对应的最大hash。 序列化 数据草图可以通过varbinary进行序列化和反序列化。这使得可以
这个问题是由于HDFS客户端运行时的所需的内存超过了HDFS客户端设置的内存上限(默认128M)。可通过修改“<客户端安装路径>/HDFS/component_env”中的“CLIENT_GC_OPTS”来修改HDFS客户端的内存上限。例如,需要设置内存上限为1GB,则设置: CLIENT_GC_OPTS="-Xmx1G"
/proc/sys/net/ipv4/neigh/default/gc_thresh* 512 2048 4096 还可以将以下参数添加到“/etc/sysctl.conf”中,即使主机重启,配置依然能生效。 net.ipv4.neigh.default.gc_thresh1 = 512 net.ipv4.neigh
在Windows环境和Linux环境下都需要运行login的代码样例,用于第一次登录使用,详细代码请参考com.huawei.hadoop.security中的LoginUtil类。 public synchronized static void login(String userPrincipal
每个Workflow可以包含一个或多个作业,形成完整的工作流,用于实现指定的业务。 创建Workflow时,可直接在Hue的编辑器设计作业,并添加到Workflow中。 每个计划可定义一个时间触发器,用于定时触发执行一个指定的Workflow。不支持多个Workflow。 每个Bundles可定义一个集合
l: ALTER TABLE ddltest ALTER COLUMN string TYPE decimal(20,10); 在源数据库中插入数据,数据可以正常写入Hudi。 在源数据库侧,将数据类型VARCHAR修改为NUMBER。 在CDL WebUI界面启动任务,源数据库更新数据。
将HBase查询结果与Hive查询结果进行拼接作为Map输出。 Reduce阶段 获取Map输出中的最后一条数据。 将数据输出到HBase。 将数据保存到HDFS。 数据规划 创建HDFS数据文件。 在Linux系统上新建文本文件,将log1.txt中的内容复制保存到data.txt。 在HDFS上创建一个文件夹
完成compact操作其增量视图能力消失。 Read Optimized View 读优化视图:该视图只会提供最新版本的parquet文件中存储的数据。 该视图在cow表和mor表上表现不同: 对于cow表,该视图能力和实时视图能力是一样的(cow表只用parquet文件存数据)。