检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
jar,请从软件发布包中Software文件夹下“FusionInsight_Spark2x_8.1.0.1.tar.gz”压缩包中的“jars”目录中获取。 用户应用程序的编译依赖包根据代码不同而不同,需用户根据自己编写的代码进行加载。 将运行程序的依赖Jar包上传至需要运行此应用的节点中,
0L // 设置用户自定义状态 def setState(s: Long) = count = s // 获取用户自定状态 def getState = count } 带checkpoint的数据源 source算子的代码,该段代码每发送
同的存储节点上。HDFS文件同分布的特性是,将那些需进行关联操作的文件存放在相同的数据节点上,在进行关联操作计算时,避免了到别的数据节点上获取数据的动作,大大降低了网络带宽的占用。 Client HDFS Client主要包括五种方式:JAVA API、C API、Shell、HTTP
同的存储节点上。HDFS文件同分布的特性是,将那些需进行关联操作的文件存放在相同的数据节点上,在进行关联操作计算时,避免了到别的数据节点上获取数据的动作,大大降低了网络带宽的占用。 Client HDFS Client主要包括五种方式:JAVA API、C API、Shell、HTTP
同的存储节点上。HDFS文件同分布的特性是,将那些需进行关联操作的文件存放在相同的数据节点上,在进行关联操作计算时,避免了到别的数据节点上获取数据的动作,大大降低了网络带宽的占用。 Client HDFS Client主要包括五种方式:JAVA API、C API、Shell、HTTP
0/ha/module/hacom/script/”目录,执行以下命令重启HA: ./stop_ha.sh ./start_ha.sh 在以上节点执行以下命令获取HA进程的“pid”: ps -ef |grep "ha.bin" |grep DBSERVICE 执行以下命令,查看协议是否全部变更为TCP:
硬盘存在坏道等故障。 处理步骤 打开FusionInsight Manager页面,选择“运维 > 告警 > 告警”,单击此告警所在行的。 从“定位信息”中获取“主机名”和“设备分区名”,其中“主机名”为故障告警的节点,“设备分区名”为故障磁盘的分区。 联系硬件工程师确认为磁盘硬件故障之后,将服务器上故障磁盘在线拔出。
-split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定HDFS路径。 -warehouse-dir <dir> 与-target-dir不能同时使用
会收集到HDFS中。 修改参数值后,需重启YARN服务使其生效。 说明: 在修改值为“false”并生效后,生效前的日志无法在WebUI中获取。 如果需要在WebUI界面上查看之前产生的日志,建议将此参数设置为“true”。 true yarn.nodemanager.log-aggregation
/opt/test/two_udfs.jar,这种场景下,在其他服务中删除UDF时就会出现ClassNotfound的错误,从而导致删除失败。 原因:在删除UDF时,会先获取该UDF,此时会去加载该UDF对应的类,由于创建UDF时是通过add jar命令指定jar包路径的,其他服务进程的classpath不存在
筛选女性网民上网时间数据信息。 按照姓名、性别进行keyby操作,并汇总在一个时间窗口内每个女性上网时间。 筛选上网时间超过阈值的用户,并获取结果。 父主题: DataStream程序
Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 查看SparkStreaming日志中提示错误的Topic信息。 执行Kafka相关命令,获取Topic分布信息和副本同步信息,观察返回结果。 kafka-topics.sh --describe --zookeeper <zk_host:port/chroot>
/opt/test/two_udfs.jar,这种场景下,在其他服务中删除UDF时就会出现ClassNotfound的错误,从而导致删除失败。 原因:在删除UDF时,会先获取该UDF,此时会去加载该UDF对应的类,由于创建UDF时是通过add jar命令指定jar包路径的,其他服务进程的classpath不存在
println("block_"+i+"_location:"+hosts[0]); } } 获取HDFS集群上所有节点名称信息 通过DatanodeInfo.getHostName()可获取HDFS集群上的所有节点名称。 正确示例: public static void main(String[]
升级openldap版本为2.4.39或更高时,主备LDAP节点服务自动采用SASL External机制进行数据同步,避免密码信息被非法获取。 集群中的LDAP服务默认支持SSLv3协议,可安全使用。当升级openldap版本为2.4.39或更高时,LDAP将自动使用TLS 1
7运行时,使用yarn-client模式向服务端提交Spark任务。 Oracle JDK需进行安全加固,具体操作如下。 到Oracle官方网站获取与JDK版本对应的JCE(Java Cryptography Extension)文件。JCE文件解压后包含“local_policy.j
'命令登录ZooKeeper。 ZooKeeper连接端口通常为2181,可通过查看ZooKeeper服务配置参数“clientPort”获取。 执行ls /thriftserver查看是否有“active_thriftserver”目录。 如果有active_thriftserver目录,执行get
-split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定hdfs路径。 -warehouse-dir <dir> 与-target-dir不能同时使用
metrics sys.cpu.user metrics sys.cpu.user: [0, 0, 6] 查询OpenTSDB指标 tsdb命令可以获取到当前opentsdb存入的指标,可执行tsdb uid metrics sys.cpu.user命令。 Start run net.opentsdb
开Python文件(*.py)即可。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick Start”页面选择“Import