检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper {zkQuorum}/kafka
-AFTER MATCH [可选]:指定从何处开始对下一个模式匹配进行匹配成功后的处理。 -PATTERN: 将匹配模式定义为正则表达式格式。PATTERN子句中可使用以下运算符: 连接运算符,量词运算符(*,+,?,{n},{n,}, {n,m}, {,m}),分支运算符(使用竖线‘|’),以及异运算符(‘{-
审计日志。 单击手动刷新当前页面,也可在修改审计表格显示的列。 单击“导出全部”,可一次性导出所有审计信息,可导出“TXT”或者“CSV”格式。 查看审计日志(MRS 3.x之前版本) 在MRS Manager,单击“审计管理”,可直接查看默认的审计日志。 若审计日志的审计内容长
设置规则生效的日期类型,包括: 工作日 周末 其它 工作日 添加日期 日期选择“其他”时该参数生效。可选择多个日期。 11/30 单击“确定”。界面右上角弹出提示“模板保存成功。”。 “发送告警”默认已勾选。Manager会检查监控指标数值是否满足阈值条件,若连续检查且不满足的次数等于“平滑次数”设置的值
DELETE,无法匹配的执行INSERT。这个语法仅需要一次全表扫描就完成了全部同步工作,执行效率要高于INSERT+UPDATE。 命令格式 MERGE INTO tableIdentifier AS target_alias USING (sub_query | tableIdentifier)
SQL作业 在作业开发界面进行作业开发。 图1 FlinkServer作业开发界面 可以单击上方“语义校验”对输入内容校验,单击“SQL格式化”对SQL语句进行格式化。 作业SQL开发完成后,请参考表1设置基础参数,还可根据需要设置自定义参数,然后单击“保存”。 表1 基础参数 参数名称 参数描述
海量结构化数据分析汇总。 将复杂的MapReduce编写任务简化为SQL语句。 灵活的数据存储格式,支持JSON、CSV、TEXTFILE、RCFILE、SEQUENCEFILE、ORC等存储格式。 Hive作为一个基于HDFS和MapReduce架构的数据仓库,其主要能力是通过对HQL(Hive
TopologyBuilder builder = new TopologyBuilder(); // 分隔符格式,当前采用“|”代替默认的“,”对tuple中的field进行分隔 // HdfsBolt必选参数 RecordFormat
修改角色信息:在要修改信息角色所在的行,单击“修改”。 导出角色信息:单击“导出全部”,可一次性导出所有角色信息,可导出“TXT”或者“CSV”格式文件。 角色信息包含角色名、描述等信息。 导出角色信息操作仅适用于MRS 3.x及之后版本。 删除角色:在要删除角色所在行,单击“删除”。
默认值:0,表示数据永不过期。 0 state.backend.hbase.zookeeper.quorum 访问HBase使用的ZooKeeper的连接地址,格式:ZooKeeper的quorumpeer实例业务IP:ZooKeeper客户端端口号,ZooKeeper的quorumpeer实例业务IP:ZooKeeper客户端端口号
以root用户登录到ClickHouse的扩容节点上,执行命令:df -hl,查看当前已有的数据目录和磁盘分区信息。 ClickHouse默认数据目录格式为:“/srv/BigData/dataN”。如上图举例所示,当前ClickHouse数据目录为:“/srv/BigData/data1”,对应分区为:“/dev/vdb1”。
ARCHIVE[S] <ivyurl> <ivyurl>* 使用“ivy://goup:module:version?query_string”格式的lvy URL,将一个或多个文件、JAR文件或ARCHIVE文件添加至分布式缓存的资源列表中。 list FILE[S] list JAR[S]
//archive.apache.org/dist/spark/docs/3.3.1/submitting-applications.html。 Spark shell命令 Spark基本shell命令,支持提交Spark应用。命令为: ./bin/spark-submit \
Spark on HBase场景的Java/Scala/Python示例程序。 本工程应用程序以数据源的方式去使用HBase,将数据以Avro格式存储在HBase中,并从中读取数据以及对读取的数据进行过滤等操作。 sparknormal-examples/SparkOnHbasePythonExample
ZIP, TGZ or BZ2 files”选择需要上传的压缩文件。系统会自动在HDFS中对文件解压。支持“ZIP”、“TGZ”和“BZ2”格式的压缩文件。 创建新文件或者目录 单击,单击“New”。 选择一个操作。 “File”:表示创建一个文件,输入文件名后单击“Create”完成。
查询包含非常耗时的操作,比如聚合、连接操作等。 对查询结果数据可以允许有一定的滞后性。 物化视图仅支持对接共部署Hive和外接Hive数据源,并且数据源表的存储格式为ORC或者PARQUET,不支持跨源跨域场景。 HetuEngine物化视图权限介绍 物化视图权限如表1。物化视图权限控制依赖Range
18 seconds, Fetched 1 row(s) 查看Spark应用运行结果。 通过指定文件查看运行结果数据。 结果数据的存储路径和格式由Spark应用程序指定。 通过Web页面查看运行情况。 登录Manager主页面。在服务中选择Spark2x。 进入Spark2x概览页
jar”样例程序包含了wordcount程序。 hadoop-x.x.x表示Hadoop的版本号,具体以实际为准。 准备数据文件。 数据文件无格式要求,准备一个或多个txt文件即可,如下内容为txt文件样例: qwsdfhoedfrffrofhuncckgktpmhutopmma j
在expand-cluster-reassignment.json文件中描述该Topic的Partition迁移到哪些Broker。其中json文件中的内容格式为:{"partitions":[{"topic": "topicName","partition": 1,"replicas": [1,2
Pipeline的Java/Sacla示例程序。 本样例中一个发布者Job自己每秒钟产生10000条数据,另外两个Job作为订阅者,分别订阅一份数据。订阅者收到数据之后将其转化格式,并抽样打印输出。 FlinkPipelineScalaExample FlinkSqlJavaExample 使用客户端通过jar作业提交SQL作业的应用开发示例。