正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
java:239) ... 3 more 回答 客户端拼接出的HTTP的principal与Kerberos数据库中的不一致(报错1)或获取的token无法链接Presto。 在集群上执行cat /etc/hosts,将Presto coordinator的IP和hostnam
进入hbase shell,创建表ImportTable并创建“configuration.xml”文件(该文件可以参考模板文件进行编辑,模板文件获取路径为:“/opt/client/HBase/hbase/conf/import.xml.template”)。 例如执行以下命令建表: create
OperateLog_store_YY_MM_DD_HH_MM_SS.csv”,保存的审计日志历史文件数最大为50个。 前提条件 用户已经获取账号对应的Access Key ID(AK)和Secret Access Key(SK)。 用户已经在账号的对象存储服务(OBS)中创建了并行文件系统。
查看Linux调测结果 HBase应用程序运行完成后可通过如下方式查看应用程序的运行情况。 通过运行结果查看应用程序运行情况。 通过HBase日志获取应用程序运行情况。 登录HBase WebUI查看应用程序运行情况。可参见“更多信息 > 对外接口 > Web UI ”。 通过HBase
SQLContext:是Spark SQL功能和DataFrame的主入口。 DataFrame:是一个以命名列方式组织的分布式数据集。 HiveContext:获取存储在Hive中数据的主入口。 表6 常用的Actions方法 方法 说明 collect(): Array[Row] 返回一个数组,包含DataFrame的所有列。
SQLContext:是Spark SQL功能和DataFrame的主入口。 DataFrame:是一个以命名列方式组织的分布式数据集。 HiveContext:获取存储在Hive中数据的主入口。 表6 常用的Actions方法 方法 说明 collect(): Array[Row] 返回一个数组,包含DataFrame的所有列。
指南操作指导及样例工程开发并运行调测自己的应用程序。您也可以通过API调用完成MRS集群管理、作业执行等相关操作,您可以参考《API参考》获取详情。
管理IP地址以及对应的“broker.id”,该值可通过单击角色名称,在“实例配置”页面中选择“全部配置”,搜索“broker.id”参数获取。 以root用户登录记录的管理IP地址,并执行df -lh命令,查看磁盘占用率为100%的挂载目录,例如“${BIGDATA_DATA_HOME}/kafka/data1”。
/var/tmp/patch”目录已存在,需将此目录权限修改为“777”,将此目录内的日志权限修改为“666”。 在集群内节点安装客户端 获取客户端软件包。 参考访问MRS集群Manager登录集群Manager,单击“集群”,在“概览”页面选择“更多 > 下载客户端”,弹出“下
<kafkaProtocol> <kafkaService> <kafkaDomain>,其中<kafkaBootstrapServers>指获取元数据的Kafka地址(需使用21007端口),<maxEventDelay>指数据从生成到被流处理引擎的最大延迟时间,<reqTopic
SQLContext:是Spark SQL功能和DataFrame的主入口。 DataFrame:是一个以命名列方式组织的分布式数据集。 HiveContext:获取存储在Hive中数据的主入口。 表6 常用的Actions方法 方法 说明 collect(): Array[Row] 返回一个数组,包含DataFrame的所有列。
<kafkaProtocol> <kafkaService> <kafkaDomain>。 <kafkaBootstrapServers>指获取元数据的Kafka地址。 <maxEventDelay>指数据从生成到被流处理引擎的最大延迟时间。 <reqTopic>指请求事件的topic名称。
SQLContext:是Spark SQL功能和DataFrame的主入口。 DataFrame:是一个以命名列方式组织的分布式数据集。 HiveContext:获取存储在Hive中数据的主入口。 表6 常用的Actions方法 方法 说明 collect(): Array[Row] 返回一个数组,包含DataFrame的所有列。
Client会在内存中缓存“hbase:meta”和用户表Region的信息,当应用程序发起下一次数据操作时,HBase Client会首先从内存中获取这些信息;当未在内存缓存中找到对应数据信息时,HBase Client会重复上述操作。 父主题: HBase
cp /tmp/MRS-client/MRS_Services_Client.tar /opt 在“/opt”目录执行以下命令,解压压缩包获取校验文件与客户端配置包。 tar -xvf MRS_Services_Client.tar 执行以下命令,校验文件包。 sha256sum
的“FusionInsight安装路径/om-server/om/etc/om/all-shown-metric-zh_CN”指标全集文件获取指标详细信息,该文件包含了所有指标的详细信息,内容如下(以MRS 3.x版本为例): 实时指标ID,5分钟指标ID,指标名称,指标采集周期(秒)
为Admin@123Test#$%@123。 重置后的密码必需满足当前用户密码策略,使用omm用户登录主OMS节点后,执行如下工具脚本可以获取到修改域名后的“人机”用户密码。 sh ${BIGDATA_HOME}/om-server/om/sbin/get_reset_pwd.sh
root”,勾选“default”的“提交”和“管理”,单击“确定”保存。 说明: Hive应用开发需要到的额外的操作权限需要从系统管理员处获取。 ClickHouse 在“配置资源权限”的表格中选择“待操作集群的名称 > ClickHouse > Clickhouse Scope
Build”开始生成Jar包。 图5 Build 当Event log中出现如下类似日志时,表示Jar包生成成功。您可以从1.c中配置的路径下获取到Jar包。 21:25:43 Compilation completed successfully in 36 sec 将2中生成的Ja
并向Leader转发写请求,避免系统处理能力浪费。 离散流 Spark Streaming提供的抽象概念。表示一个连续的数据流,是从数据源获取或者通过输入流转换生成的数据流。从本质上说,一个DStream表示一系列连续的RDD。 堆内存(Heap Memory) 堆是JVM运行时