检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
指定JDBC连接的URL,格式为:jdbc:mysql://MySQL数据库IP地址:MySQL的端口/数据库名称。 --username 连接MySQL数据库的用户名。 -password 连接MySQL数据库的用户密码。命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。
apred-site.xml)设置如下参数。 表1 参数描述 参数 描述 默认值 mapreduce.shuffle.address 指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明:
Tasks页面显示了运行在HBase上的任务信息,包括开始时间,状态等信息,如图4所示。 图4 Tasks基本信息 在HBase的Web UI页面中,Table Details页面展示的是HBase存储表的概要信息,如图5所示。 图5 TableDetails 在HBase的Web UI页面中,Debug
图表”,在“图表分类”选择“OBS数据写操作”,在“OBS的write接口调用失败数-所有实例”图表上查看OBS的write接口调用失败数最大值所在的实例的主机名称,例如,下图所示的主机名称为:node-ana-corevpeO003: 选择“运维 > 日志 > 下载”,在“服务”中勾选“meta
files 此参数用于将libch.so和libjsig.so分发到所有节点上,以便所有节点上的executors使用spark.executorEnv.LD_PRELOAD参数提前加载。 x86平台上参数值设置为:{客户端安装目录}/Spark/spark/native/libch
Tasks页面显示了运行在HBase上的任务信息,包括开始时间,状态等信息,如图4所示。 图4 Tasks基本信息 在HBase的Web UI页面中,Table Details页面展示的是HBase存储表的概要信息,如图5所示。 图5 TableDetails 在HBase的Web UI页面中,Debug
into table dataorigin; 执行如下命令创建Kudu表,其中kudu.master_addresses地址为KuduMaster实例的IP,请根据实际集群地址填写。 create table dataorigin2 (name string,age string,pt string
UI”后的链接进入CDL WebUI界面。 根据2中的任务名找到对应的失败作业,单击所在行的“运行异常”或“已失败”链接。 在弹出的界面中查看报错信息进行故障修复,如图1为在Yarn上运行的任务被手动kill导致CDL任务异常,其他任务失败信息还可参考trace部分异常报错信息,如图2所示。 图1
Producer运行窗口 在Linux调测程序 在IntelliJ IDEA中,在生成jar包之前配置工程的“Artifacts”信息。 打开IntelliJ IDEA,选择“File > Project Structures...”进入“Project Structure”页面。 在“Project
--zookeeper {ip:port}/kafka “--zookeeper”后面填写的是ZooKeeper地址,需要改为安装集群时配置的ZooKeeper地址。 在Linux系统中完成拓扑的提交。提交命令示例(拓扑名为kafka-test): storm jar /opt/jartarget/source
RegionServer数太少。 HBase 单个RegionServer上Region数过多。 HBase RegionServer堆大小较小。 资源不足。 相关参数配置不合理。 处理步骤 检查相关配置是否合理 在FusionInsight Manager首页,选择“运维 > 告警 >
服务 > Hive > 配置 > 全部配置”。 选择“HiveServer(角色) > 自定义”,对参数文件“hive-site.xml”添加自定义参数,设置“名称”为“hive.allow.show.create.table.in.select.nogrant”,“值”为“true
处理步骤 检查是否有"Sssd服务异常"告警。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警 > Kafka默认用户状态异常 > 定位信息”。查看告警上报的实例的主机名。 根据告警提示的主机信息,登录到该节点上。 执行id -Gn kafka,查看返回结果是否报"No
时序数据库中。 数据湖:其他IT系统上的数据,时序数据库可以通过跨源分析能力与数据湖中的全量数据进行关联,与IT数据进行进一步的复杂分析。 HetuEngine:跨源分析引擎,可以连接多个大数据组件进行数据查询,并可以将多个大数据组件中的数据在HetuEngine中进行统一分析。
apred-site.xml)设置如下参数。 表1 参数描述 参数 描述 默认值 mapreduce.shuffle.address 指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明:
控制HLog文件在写入到HDFS时的同步程度。如果为true,HDFS在把数据写入到硬盘后才返回;如果为false,HDFS在把数据写入OS的缓存后就返回。 把该值设置为false比true在写入性能上会更优。 true hbase.hfile.hsync 控制HFile文件在写入到HD
ployees_info中加载数据。从本节中可以掌握如何从本地文件系统、MRS集群中加载数据。以关键字LOCAL区分数据源是否来自本地。 在启用了安全服务的集群中执行如下操作,需要在数据库中具有UPDATE权限及对加载数据文件具有owner权限和读写权限,详情请参见Hive应用开发概述。
使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M -f /tpch.sql 在执行SQL语句前,请使用MRS集群管理员用户修改内存大小配置。
Manager,选择“集群 > 待操作集群的名称 > 服务 > 告警对应的顶级Znode服务组件”,在该服务的“配置”页面中,单击“全部配置”,搜索“zk.quota.number”配置项,调大服务在ZooKeeper上的顶层目录的数量配额,单击“保存”。 如果告警对应的顶级Znode服务组件为Cl
操作场景 在程序代码完成开发后,建议您上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Flink客户端的运行步骤是一样的。 基于YARN集群的Flink应用程序不支持在Windows环境下运行,只支持在Linux环境下运行。 操作步骤 在IntelliJ