检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kafka用户权限管理 Kafka用户权限说明 创建Kafka权限角色 配置Kafka用户Token认证信息 父主题: 使用Kafka
Doris用户权限管理 Doris用户权限说明 创建Doris权限角色 配置Doris表的列权限管理 父主题: 使用Doris
使用MRS客户端 安装MRS客户端 更新MRS客户端 父主题: 附录
CarbonData性能调优 CarbonData调优思路 CarbonData性能调优常见配置参数 创建高查询性能的CarbonData表 父主题: 使用CarbonData
CarbonData故障排除 当在Filter中使用Big Double类型数值时,过滤结果与Hive不一致 executor内存不足导致查询性能下降 为什么数据查询/加载失败,且发生“org.apache.carbondata.core.memory.MemoryException:
管理HetuEngine计算实例 配置HetuEngine资源组 配置HetuEngine Worker节点数量 配置HetuEngine维护实例 配置HetuEngine Coordinator运行的节点范围 导入导出HetuEngine计算实例配置 查看HetuEngine实例监控页面
HetuEngine性能调优 调整Yarn资源分配 调整HetuEngine集群节点资源配置 调整HetuEngine INSERT写入优化 调整HetuEngine元数据缓存 调整HetuEngine动态过滤 开启HetuEngine自适应查询执行 调整Hive元数据超时 调整Hudi数据源性能
CDL常见问题 为什么CDL任务执行后Hudi中没有接收到数据 MySQL链路任务启动时如何从指定位置抓取数据 为什么在Ranger中删除用户权限后,该用户仍能够操作自己创建的任务 父主题: 使用CDL
Impala常见问题 Impala服务是否支持磁盘热插拔 Impala对接低版本kudu后,无法执行join MRS集群外节点如何安装impala-shell客户端? Impala 4.3.0版本,开启Ranger后如何对接kudu外表? 通过impala-shell连接不上Impalad的21000端口
Yarn性能调优 调整Yarn任务抢占机制 手动配置Yarn任务优先级 Yarn节点配置调优 父主题: 使用Yarn
Hive用户权限管理 Hive用户权限说明 创建Hive角色 配置Hive表、列或数据库的用户权限 配置Hive业务使用其他组件的用户权限 父主题: 使用Hive
远程调试信息,执行Debug。 设置断点,双击蓝框区域设置或取消断点。 配置远程调试信息,“右键->Debug As->Debug Configurations...”。 在弹出的页面,双击“Remote Java Application”,设置Connection Proper
scanToString); // 通过spark接口获取表中的数据 JavaPairRDD rdd = jsc.newAPIHadoopRDD(hbConf, TableInputFormat.class, ImmutableBytesWritable.class
登录FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置”。 选择“HiveServer(角色) > 自定义”,对参数文件“hive-site.xml”添加自定义参数,设置“名称”为“hive.allow.only.admin.create”,“值”为“true”。
everyone.if.no.acl.found”参数值设置为true; 如果不设置此参数,操作会报错。 Kafka集群broker实例IP获取方法如下: 登录FusionInsight Manager,然后选择“集群 > 服务 > Kafka”。单击“实例”,查看Kafka角色实例的IP地址。
/thriftserver/active_thriftserver。 原因分析 DataArts Studio提交Spark作业时调用Spark的JDBC方式,而Spark会启动一个名为thriftserver的进程以供客户端提供JDBC连接,JDBCServer在启动时会在ZooKeeper的
参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 非堆内存溢出可能导致服务崩溃。 可能原因 该节点UserSyn
'cf:cid', '1000' 如果开启了kerberos认证,需要将客户端的配置文件“spark-defaults.conf”和sparkJDBC服务端中的配置项spark.yarn.security.credentials.hbase.enabled置为true。 开发思路 查询table1表的数据。
集群中已安装HDFS、Yarn、Kafka、ZooKeeper和Flink等服务。 包含Kafka服务的客户端已安装,安装路径如:/opt/client。 参考创建FlinkServer权限角色创建一个具有FlinkServer管理员权限的用户用于访问Flink WebUI,如:flinkuser。 J
k/conf/spark-defaults.conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.sql.legacy.correlated.scalar.query.enabled 设置为true,Spark将支持不带聚合函数的关联子查询语法。 false