检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用HBase二级索引读取数据 功能介绍 在具有HIndexes的用户表中,HBase使用Filter来查询数据。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HIndexExample”类的scanDataByHIndex方法中。
= input.getString(0); String[] words = sentence.split(" "); for (String word : words) { word = word.trim();
= input.getString(0); String[] words = sentence.split(" "); for (String word : words) { word = word.trim();
角色名 产生告警的角色名称 主机名 产生告警的主机名 对系统的影响 ClickHouse读写数据异常,本地表的INSERT、SELECT和CREATE操作概率异常,分布式表基本不受影响。 影响业务,会导致IO失败。 可能原因 磁盘老化或者磁盘坏道。 处理步骤 在FusionInsight
您可以根据实际任务数量的多少,为JobManager设置一个合适的内存。 在使用yarn-session命令时,添加“-jm MEM”参数设置内存。 在使用yarn-cluster命令时,添加“-yjm MEM”参数设置内存。 配置TaskManager个数。 每个TaskManager每个
追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 使用FileSystem实例的append方法获取追加写入的输出流。 使用该输出流将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com.huawei.bigdata.hdfs
Yarn服务不支持通过WebUI查看聚合后的日志。 因此,Spark在此基础上进行了功能增强。如图1所示,在HistoryServer页面添加“AggregatedLogs”页签,可以通过“logs”链接查看聚合的日志。 图1 聚合日志显示页面 配置描述 为了使WebUI页面显示
add='idx2=>cf1:[q1]' 不支持在同一张数据表上创建同名索引,支持在不同数据表上创建同名索引。 索引表列族TTL继承原表,索引列族TTL必须一致 索引表所有列族TTL相同,继承自数据表,要求数据表中相关列族TTL必须一致,否则无法创建相关索引。 不支持为表创建索引时自定义索引的其他属性,例
set索引 直接记录了声明字段或表达式的取值(唯一值,无重复),其完整形式为set(max_rows),其中max_rows是一个阈值,表示在一个index_granularity内,索引最多记录的数据行数。如果max_rows=0,则表示无限制。 INDEX b (length(ID)
dfs -mkdir -p /user/developuser/myjobs/apps/spark2x/hive 将表格中的文件上传到对应目录,请参考表2。 表2 文件上传列表 初始文件路径 文件 上传目标目录 Spark客户端目录(如“/opt/client/Spark2x/spark/conf”)
v: vi Hive客户端安装目录/Hive/component_env 在变量“export CLIENT_HIVE_URI”所在行后面添加如下内容: \;user.principal=用户名@HADOOP.COM\;user.keytab=user.keytab文件所在路径/user
追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 实例化一个FileSystem。 由此FileSystem实例获取各类相关资源。 将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com.huawei.bigdata.hdfs
追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 使用FileSystem实例的append方法获取追加写入的输出流。 使用该输出流将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com.huawei.bigdata.hdfs
追加文件内容,是指在HDFS的某个指定文件后面,追加指定的内容。过程为: 使用FileSystem实例的append方法获取追加写入的输出流。 使用该输出流将待追加内容添加到HDFS的指定文件后面。 在完成后,需关闭所申请资源。 代码样例 如下是代码片段,详细代码请参考com.huawei.bigdata.hdfs
v: vi Hive客户端安装目录/Hive/component_env 在变量“export CLIENT_HIVE_URI”所在行后面添加如下内容: \;user.principal=用户名@HADOOP.COM\;user.keytab=user.keytab文件所在路径/user
在弹出窗口单击“确定”,确认保存配置。 添加自定义资源配置组 是否需要在不同时间段自动调整资源配置? 是,执行9。 否,只需要使用“default”在所有时间段生效,任务结束。 单击“配置”,修改“系统资源调整基数”,然后单击“下一步”。 单击“添加”增加新的资源配置组。 图2 增加新的资源配置组
管理MRS集群元数据 MRS集群元数据概述 配置Ranger元数据存储至RDS 配置Hive元数据存储至RDS 配置LakeFormation数据连接 管理MRS集群数据连接 父主题: 管理MRS集群
Yarn服务不支持通过WebUI查看聚合后的日志。 因此,Spark在此基础上进行了功能增强。如图1所示,在HistoryServer页面添加“AggregatedLogs”页签,可以通过“logs”链接查看聚合的日志。 图1 聚合日志显示页面 配置描述 为了使WebUI页面显示
通过数据连接,访问不同的数据服务,包括HDFS、Kafka等。 创建FlinkServer数据连接 创建流表 通过数据表,定义源表、维表、输出表的基本属性和字段信息。 创建FlinkServer流表源 创建SQL/JAR作业(流式/批作业) 定义Flink作业的API,包括Flink SQL和Flink
通过数据连接,访问不同的数据服务,包括HDFS、Kafka等。 创建FlinkServer数据连接 创建流表 通过数据表,定义源表、维表、输出表的基本属性和字段信息。 创建FlinkServer流表源 创建SQL/JAR作业(流式/批作业) 定义Flink作业的API,包括Flink SQL和Flink