检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
jar,请从软件发布包中Software文件夹下“FusionInsight_Spark2x_8.1.0.1.tar.gz”压缩包中的“jars”目录中获取。 用户应用程序的编译依赖包根据代码不同而不同,需用户根据自己编写的代码进行加载。 将运行程序的依赖Jar包上传至需要运行此应用的节点中,
会收集到HDFS中。 修改参数值后,需重启YARN服务使其生效。 说明: 在修改值为“false”并生效后,生效前的日志无法在WebUI中获取。 如果需要在WebUI界面上查看之前产生的日志,建议将此参数设置为“true”。 true yarn.nodemanager.log-aggregation
/opt/test/two_udfs.jar,这种场景下,在其他服务中删除UDF时就会出现ClassNotfound的错误,从而导致删除失败。 原因:在删除UDF时,会先获取该UDF,此时会去加载该UDF对应的类,由于创建UDF时是通过add jar命令指定jar包路径的,其他服务进程的classpath不存在
筛选女性网民上网时间数据信息。 按照姓名、性别进行keyby操作,并汇总在一个时间窗口内每个女性上网时间。 筛选上网时间超过阈值的用户,并获取结果。 父主题: DataStream程序
Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 查看SparkStreaming日志中提示错误的Topic信息。 执行Kafka相关命令,获取Topic分布信息和副本同步信息,观察返回结果。 kafka-topics.sh --describe --zookeeper <zk_host:port/chroot>
/opt/test/two_udfs.jar,这种场景下,在其他服务中删除UDF时就会出现ClassNotfound的错误,从而导致删除失败。 原因:在删除UDF时,会先获取该UDF,此时会去加载该UDF对应的类,由于创建UDF时是通过add jar命令指定jar包路径的,其他服务进程的classpath不存在
println("block_"+i+"_location:"+hosts[0]); } } 获取HDFS集群上所有节点名称信息 通过DatanodeInfo.getHostName()可获取HDFS集群上的所有节点名称。 正确示例: public static void main(String[]
升级openldap版本为2.4.39或更高时,主备LDAP节点服务自动采用SASL External机制进行数据同步,避免密码信息被非法获取。 集群中的LDAP服务默认支持SSLv3协议,可安全使用。当升级openldap版本为2.4.39或更高时,LDAP将自动使用TLS 1
7运行时,使用yarn-client模式向服务端提交Spark任务。 Oracle JDK需进行安全加固,具体操作如下。 到Oracle官方网站获取与JDK版本对应的JCE(Java Cryptography Extension)文件。JCE文件解压后包含“local_policy.j
-split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定hdfs路径。 -warehouse-dir <dir> 与-target-dir不能同时使用
开Python文件(*.py)即可。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick Start”页面选择“Import
enabled.mechanisms”,将参数值改为“GSSAPI,PLAIN”。单击“保存”,单击“概览”,选择“更多 > 重启服务”使配置生效 获取“huawei-spring-boot-kafka-examples-*.jar”。 在样例代码的“springboot/kafka-ex
在,管理审计日志可能会丢失。 可能原因 无法连接OBS服务器。 指定的OBS文件系统不存在。 用户AK/SK信息失效。 本地OBS配置信息获取失败。 处理步骤 登录OBS服务器,检查OBS服务器是否可以正常访问。 是,执行3。 否,执行2。 联系运维人员恢复OBS,然后等任务再次启动后,检查告警是否恢复。
ug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006需要换成3获取到的For JDK1.4.x对应的调试命令。 图3 Spark运行命令 设置调试断点。 在IDEA代码编辑窗口左侧空白处单击鼠标左键设置相
找到对应的DataNode节点,单击Http Address地址进入DataNode详情。 将url的“datanode.html”改为“jmx”就能获取到DataNode的JMX信息。 搜索“XceiverCount”指标,当该指标的值*Block块的大小超过DataNode磁盘的容量,就说明预约写Block的磁盘空间不足。
ug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006需要换成3获取到的For JDK1.4.x对应的调试命令。 图3 Spark运行命令 设置调试断点。 在IDEA代码编辑窗口左侧空白处单击鼠标左键设置相
ug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006需要换成3获取到的For JDK1.4.x对应的调试命令。 图3 Spark运行命令 设置调试断点。 在IDEA代码编辑窗口左侧空白处单击鼠标左键设置相
针对Java和Scala不同语言的工程,其导入方式相同。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 将安装Flink客户端章节中下载的客户端安装包复制到Windows服务器中。 将Window
indexOf(delim)); nameInfo.set(name); // 获取上网停留时间。 String time = line.substring(line.lastIndexOf(delim)
indexOf(delim)); nameInfo.set(name); // 获取上网停留时间。 String time = line.substring(line.lastIndexOf(delim)