检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
gFiles\Flink\config”,获取相关配置文件。 获取样例工程 通过开源镜像站获取样例工程。 下载样例工程的Maven工程源码和配置文件,并在本地配置好相关开发工具,可参考通过开源镜像站获取样例工程。 根据集群版本选择对应的分支,下载并获取MRS相关样例工程。 例如本
WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。 结果数据存储路径和格式已经由Spark应用程序指定,可通过指定文件获取。 查看Spark应用程序运行情况。 Spark主要有两个Web页面。 Spark UI页面,用于展示正在执行的应用的运行情况。
在弹性云服务管理控制台,创建一个新的弹性云服务器。 弹性云服务器的“可用分区”、“虚拟私有云”、“安全组”,需要和待访问集群的配置相同。 选择一个Windows系统的公共镜像。 其他配置参数详细信息,请参见“弹性云服务器 > 快速入门 > 购买并登录Windows弹性云服务器” 使用本机访问MRS集群操作Ope
评估一个表达式,如果出错,则返回Null。类似于编程语言中的try catch。try函数一般结合COALESCE使用,COALESCE可以将异常的空值转为0或者空,以下情况会被try捕获: 分母为0 错误的cast操作或者函数入参 数字超过了定义长度 不推荐使用,应该明确以上异常,做数据预处理
进行作业配置。 新建Flink SQL作业 在作业开发界面进行作业开发。 可以单击上方“语义校验”对输入内容校验,单击“SQL格式化”对SQL语句进行格式化。 作业SQL开发完成后,请参考表1设置基础参数,还可根据需要设置自定义参数,然后单击“保存”。 表1 基础参数 参数名称 参数描述
WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。 结果数据存储路径和格式已经由Spark应用程序指定,可通过指定文件获取。 查看Spark应用程序运行情况。 Spark主要有两个Web页面。 Spark UI页面,用于展示正在执行的应用的运行情况。
但是实际在Hive查询中是有数据的)。 原因分析 转换格式失败,spark-sql使用其内置的Metastore,而不是Hive中使用的Metastore,所以读取元数据时失败,spark-sql内部读取的是Partque格式的数据,而Hive中默认是ORC的。 处理步骤 登录S
在弹性云服务管理控制台,创建一个新的弹性云服务器。 弹性云服务器的“可用分区”、“虚拟私有云”、“安全组”,需要和待访问集群的配置相同。 选择一个Windows系统的公共镜像。 其他配置参数详细信息,请参见“弹性云服务器 > 快速入门 > 购买并登录Windows弹性云服务器” 方法二:使用本机访问MRS集群操
用Flink状态索引,Flink写入后,不支持Spark继续写入。 Flink在写Hudi的MOR表只会生成log文件,后续通过compaction操作,将log文件转为parquet文件。Spark在更新Hudi表时严重依赖parquet文件是否存在,如果当前Hudi表写的是log文件,采用Spark写入
最终数据在HDFS保存时的具体目录。必须指定一个目录。 文件格式 Loader支持HDFS中存储数据的文件格式,默认支持以下两种: CSV_FILE:表示文本格式文件。目的连接为数据库型连接时,只支持文本格式。 BINARY_FILE:表示文本格式以外的二进制文件。 压缩格式 文件在HDFS保存时的压缩行为
csv_tab001 FORMAT ORC" > /opt/student.orc JSON格式数据导入 INSERT INTO 表名 FORMAT JSONEachRow JSON格式字符串1 JSON格式字符串2 使用示例: INSERT INTO test_table001 FORMAT
FlinkSQL Kafka Connector支持消费drs-json格式数据 本章节适用于MRS 3.3.0及以后版本。 使用场景 FlinkSQL需要消费Kafka中drs-json格式(一种CDC消息格式)的数据。 使用方法 在创建的Kafka Connector Source流表中,设置
COM 填写对端系统的域名。 ip_port 10.0.0.1:21732,10.0.0.2:21732 填写对端系统的KDC地址。 参数值格式为:对端系统内要配置互信集群的Kerberos服务部署的节点IP地址:端口。 如果是双平面组网,需填写业务平面IP地址。 采用IPv6地址时,IP地址应写在中括号“[]”中。
MOR表一键式执行Compaction/Clean/Archive,其中Compaction仅执行已存在的Scheudle。 单表执行表服务命令 命令格式 call run_table_service(table => 'table', clean_hours_retained => 'clean_hours_retained'
ID分别为1,2,3,IP地址为10.xxx.xxx.xxx,则配置格式为1:10.xxx.xxx.xxx,2:10.xxx.xxx.xxx,3:10.xxx.xxx.xxx。 advertised.broker.id.port.map Kafka对外发布的端口,默认值为空。 格式为:Broker ID:Port。
csv_tab001 FORMAT ORC" > /opt/student.orc JSON格式数据导入 INSERT INTO 表名 FORMAT JSONEachRow JSON格式字符串1 JSON格式字符串2 使用示例: INSERT INTO test_table001 FORMAT
并设置参数值为“UTF-8”,单击“Apply”后,单击“OK”,如图 2 设置Eclipse的编码格式所示。 设置Eclipse的编码格式 图2 设置Eclipse的编码格式 父主题: 准备OpenTSDB应用开发环境
substring) 描述:同strpos() 函数。 日期函数 本节中的函数使用与Teradata datetime函数兼容的格式字符串。下表基于Teradata参考手册,描述了受支持的格式说明符。 说明符 说明 - / , . ; : 忽略标点符号 dd 一个月中的第几日(1-31) hh 一天中的第几个小时(1-12)
文件,或者是文件系统包含的单个数据文件。 文件格式 Loader支持OBS中存储数据的文件格式,默认支持以下两种: CSV_FILE:表示文本格式文件。目的连接为数据库型连接时,只支持文本格式。 BINARY_FILE:表示文本格式以外的二进制文件。 换行符 源数据的每行结束标识字符。
当您在客户端提交MapReduce任务时,可以在命令行中增加“-Dmapreduce.job.priority=<priority>”参数来设置任务优先级。格式如下: yarn jar <jar> [mainClass] -Dmapreduce.job.priority=<priority> [path1]