检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
后,启动作业。如下SQL示例将作为3个作业分别添加,依次运行。 需勾选“基础参数”中的“开启CheckPoint”,“时间间隔(ms)”可设置为“60000”,“模式”可使用默认值。 由于FlinkSQL作业在触发CheckPoint时才会往Hudi表中写数据,所以需要在Flink
在原有参数后继续添加参数,逗号后需要有空格,否则作业可能执行失败。 克隆的作业返回参数不含有fs.obs.access.key、fs.obs.secret.key,若需要fs.obs.access.key、fs.obs.secret.key,需在“服务配置参数”中添加。 单击“确定”下发克隆作业。
Iceberg Iceberg原理介绍 Iceberg是一种开放的数据湖表格式,可以基于Iceberg快速地在HDFS或OBS上构建自己的数据湖存储服务。 Iceberg当前为公测阶段,若需使用需联系技术支持申请白名单开通。 当前版本Iceberg仅支持Spark引擎,如需使用其他引擎构建数据湖服务,请使用Hudi。
解决带有注释的SQL语句作业执行失败问题 大数据组件 解决ClickHouse集群IAM用户同步失败问题 解决集群内Flume客户端无法使用委托访问OBS问题 解决YARN开源原生界面作业占用队列资源百分比不显示问题 解决YARN开源原生界面查看作业日志时显示不全的问题 解决Hive作业在HDFS上临时文件残留问题
hive.server2.authentication 用于指定HiveServer的认证方式,取值范围为“KERBEROS”或“LDAP”,需设置为“LDAP”。 LDAP hive.server2.authentication.ldap.baseDN LDAP服务用户所在的Base
下载”。 在“服务”中勾选操作集群的“HetuEngine”,单击“确定”。 在“主机”中勾选对应角色所在的主机,单击“确定”。 单击右上角的,设置日志收集的“开始时间”和“结束时间”,分别为告警产生时间的前后30分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除
count(distinct) in the query 6 more than the allowed limit 3 若SQL防御规则中设置的动作是“熔断”,系统回显信息可能如下: ERROR ... detailMessage = running_0001 Num of result
故障磁盘信息。 更换故障硬盘。 检查告警是否清除。 是,操作结束。 否,执行5。 收集故障信息。 在MRS Manager界面,选择“系统设置 > 日志导出” 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 相关参数获取方法如下:
实例”,重启该DataNode实例。 检查该告警是否恢复。 是,处理完毕。 否,执行7。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。 参考信息 无。 父主题: MRS集群告警处理参考
worker.gc.childopts > worker.gc.childopts > topology.worker.childopts。 如果设置了客户端参数topology.worker.childopts,则该参数会与服务端参数worker.gc.childopts共同配置,但是
hadoop.com", MRS 2.1.x及之前版本: sasl.kerberos.keytab:可通过在MRS Manager界面选择“系统设置 > 用户管理”,在对应用户所在行的“操作”列选择“更多 >下载认证凭据”,保存后解压得到用户的user.keytab文件。 sasl.kerberos
/udf/hetuserver/UDF函数包 将UDF JAR文件上传到HDFS上自定义的目录存放,要确保用户对JAR文件具有读权限,建议权限设置“chmod 644”。若希望HetuEngine服务在卸载时一并删除UDF JAR文件,那么可以将自定义的目录创建在“/user/hetuserver/”路径中。
于数据从集群导出去的场景来说,就是将数据写入到外部数据源。上述示例配置的是一个SFTP数据源连接器。配置SFTP和FTP的数据源连接器需要设置密码并进行加密。密码加密方法如下: 执行以下命令,进入到loader-tools-1.99.3目录。Loader客户端安装目录为“/opt
语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M -f /tpch.sql
Base表,授予权限后可以使用SparkSQL访问HBase表。以授予用户在SparkSQL中查询HBase表的权限为例,操作步骤如下: 设置“spark.yarn.security.credentials.hbase.enabled”为“true”。 在Manager角色界面创
Base表,授予权限后可以使用SparkSQL访问HBase表。以授予用户在SparkSQL中查询HBase表的权限为例,操作步骤如下: 设置“spark.yarn.security.credentials.hbase.enabled”为“true”。 在Manager角色界面创
jar”,即为Spark的样例程序。spark-examples_2.11-2.1.0.jar样例程序包含sparkPi程序。 上传数据至OBS。 登录OBS控制台。 单击“并行文件系统 > 创建并行文件系统”,创建一个名称为sparkpi的文件系统。 sparkpi仅为示例,文件系统名
其他: --创建视图 create view orders_by_date as select * from orders; --设置表的注释信息,可以通过设置注释信息为NULL来删除注释 COMMENT ON TABLE people IS 'master table'; --创建一个具有列名id、name的新表:
Flume “-d”:Flume客户端安装路径。 “-f”(可选):两个MonitorServer角色的业务IP或主机名,中间用逗号分隔,如果不设置则Flume客户端将不向MonitorServer发送告警信息,同时在FusionInsight Manager界面上看不到该客户端的相关信息。
Sink可以获取到HBase的Connection。 通过Connection判断表是否存在,如果不存在则创建表。 将接收到的数据转化成Put对象,写到HBase。 读HBase: 通过参数指定“hbase-site.xml”文件的父目录,Flink Source可以获取到HBase的Connection。