检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ts from hudi_trips_point_in_time where fare > 20.0").show() 删除数据: # 获取记录总数 spark.sql("select uuid, partitionpath from hudi_trips_snapshot")
两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user
person表的数据。 根据person表数据的key值去table2表做查询。 把前两步相应的数据记录做相加操作。 把上一步骤的结果写到table2表。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的
rsDefault@123,首次登录请及时修改登录密码。安全集群登录MRS Manager认证的账号名密码为用户自己设定值。 由于1.7.1 集群的健康检查中存在一项误报,而补丁安装前会进行集群的健康检查。从而导致客户第一次提交安装补丁后,提示集群异常,补丁安装终止。在确认报错是
ts from hudi_trips_point_in_time where fare > 20.0").show() 删除数据: # 获取记录总数 spark.sql("select uuid, partitionpath from hudi_trips_snapshot")
禁用Manager创建的路由信息后,在设置新的路由信息之前,FusionInsight Manager页面无法登录,集群运行不受影响。 前提条件 已获取待创建路由的相关信息。 禁用系统创建的路由信息 以omm用户登录到集群主管理节点。执行以下命令,禁用系统创建的路由信息。 cd ${BIG
sum(abs(a)) from table 支持aggregate之后的limit、order by下推(由于Oracle不支持limit,所以Oracle中limit、order by不会下推) 例如:select sum(a) from table where a>0 group by b order
person表的数据。 根据person表数据的key值去table2表做查询。 把前两步相应的数据记录做相加操作。 把上一步骤的结果写到table2表。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar
Manager首页,选择“运维 > 告警 > 告警”,单击告警“ALM-14014 NameNode进程垃圾回收(GC)时间超过阈值”所在行的下拉菜单,在“定位信息”中查看告警上报的角色名并确定实例的IP地址。 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 >
配置资源池的队列容量策略 添加资源池后,需要为YARN任务队列配置在此资源池中可使用资源的容量策略,队列中的任务才可以正常在这个资源池中执行。每个队列只能配置一个资源池的队列容量策略。用户可以在任何一个资源池中查看队列并配置队列容量策略。配置队列策略后,YARN任务队列与资源池形成关联关系。
运行日志记录了集群各服务运行产生的信息及调试信息、状态变迁、未产生影响的潜在问题和直接的错误信息。 审计日志 审计日志中记录了用户活动信息和用户操作指令信息,可用于安全事件中定位问题原因及划分事故责任。 MRS日志目录清单见下表: 表2 日志目录一览表 文件目录 日志内容 /var/log/Bigdata/audit
查询table1表的数据。 根据table1表数据的key值去table2表做查询。 把前两步相应的数据记录做相加操作。 把上一步骤的结果写到table2表。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的
UDF JAR文件,那么可以将自定义的目录创建在“/user/hetuserver/”路径中。 当前HetuEngine仅支持UDF JAR文件存放在“hdfs://资源URI”的HDFS中。 因修改函数或增加函数而导致的重新上传JAR文件,HetuEngine会默认缓存5分钟,
加密方式,由hadoop.rpc.protection参数控制。 如果客户端和服务端的hadoop.rpc.protection参数的配置值不一样,即会报No common protection layer between client and server错误。 hadoop.rpc
在客户端的“spark-defaults.conf”配置文件中配置如下参数。“spark.yarn.max.executor.failures”如果不存在,则手动添加该参数项。 表1 参数说明 参数 描述 默认值 spark.task.maxFailures task retry次数。
两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user
P95耗时达到用户配置的阈值(metrics.reporter.alarm.job.alarm.rocksdb.write.micros.threshold,默认值50000,单位微秒),则发送告警。当作业RocksDB的Write P95耗时时间小于或等于阈值,则告警恢复。 告警属性 告警ID 告警级别
可查看Hive表各列字段的信息,并手动添加描述信息,注意此处添加的描述信息并不是Hive表中的字段注释信息(comment)。 单击“样本”可浏览数据。 管理Hive元数据表 单击左侧列表中的可在数据库中根据上传的文件创建一个新表,也可手动创建一个新表。 Hue界面主要用于文件、表等数据
全部配置”页面。不断尝试调大ZooKeeper配置文件“zoo.cfg”中的“syncLimit”和“initLimit”两参数值,直到ZooKeeperServer正常。 表1 参数说明 参数 描述 默认值 syncLimit follower与leader进行同步的时间间隔(
策略。 Hive Database 配置当前策略适用的Spark2x中的数据库名称。 Hive Table 配置当前策略适用的Spark2x中的表名称。 Hive Column 配置当前策略适用的Spark2x中的列名称。 Description 策略描述信息。 Audit Logging