检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
确认本应用所运行设备和集群网络上是否通畅,Kerberos认证所需的各类端口(TCP/UDP)是否可正常访问。 确认各个配置文件是否被正确读取到,路径是否保存正确。 确认用户名和keytab文件是按操作指导得到的。 确认各类配置信息是否已经先设置好了,再发起认证。 确认没有在同一个进程中发起多次认证,即重复调用login()方法。
FlinkSQL Kafka表开发规则 Kafka作为sink表时必须指定“topic”配置项 【示例】向Kafka的“test_sink”主题插入一条消息: CREATE TABLE KafkaSink( `user_id` VARCHAR, `user_name`
找到当前告警值。 选择“集群 > 服务 > MemArtsCC > 配置 > 全部配置 > CCWorker(角色)”,查找“memory_limit”参数,查看当前集群上CCWorker实例的最大可用内存配置值。是否存在业务并发、数据量有长期上涨,且该告警未能自动清除。 是,执行4。
选择“Libraries”页签,然后在如下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。
选择“Libraries”页签,然后在如下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。
StarRocks兼容MySQL协议,支持标准SQL语法,用户可通过各类MySQL客户端和常用BI工具对接。 FE StarRocks的前端节点,主要负责管理元数据、管理客户端连接、进行查询规划、查询调度等工作。 BE StarRocks的后端节点,主要负责数据存储和SQL计算等工作。 Leader
Manager首页,选择“集群 > Impala > 配置 > 全部配置 > Impalad > 自定义”,增加自定义参数 --fe_service_threads,该参数默认值64,请按照需要修改该值,单击“保存”按钮保存配置。 在所有客户端的查询任务都执行完成后,选择“实例”页
Manager首页,选择“集群 > Impala > 配置 > 全部配置 > Impalad > 自定义”,增加自定义参数 --fe_service_threads,该参数默认值64,请按照需要修改该值,单击“保存”按钮保存配置。 在所有客户端的查询任务都执行完成后,选择“实例”页
否,执行6。 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Flume > 配置”,选择“全部配置”,选择“Flume > 系统”。将“GC_OPTS”参数中“-XX: MaxPermSize”的值根据实际情况调大,并单击“保存”,单击“确定”。
Ranger > 实例 > UserSync > 实例配置”,单击“全部配置”,选择“UserSync > 系统”。将“GC_OPTS”参数中“-XX: MaxPermSize”的值根据实际情况调大,并单击“保存”,并保存配置。 出现此告警时,说明当前UserSync实例设置非堆
服务 > Guardian > 实例 > TokenServer > 实例配置”,单击“全部配置”,选择“TokenServer> 系统”。将“GC_OPTS”参数中“-Xmx”的值根据实际情况调大,并保存配置。 出现此告警时,说明当前TokenServer设置的堆内存无法满足当前
jobManager可以访问的,由于targetDirectory是可选的,如果用户没有配置targetDirectory,则是使用配置文件中“state.savepoints.dir”配置的目录来存放savepoint。 用户可以在“flink-conf.yaml”中通过“state
jobManager可以访问的,由于targetDirectory是可选的,如果用户没有配置targetDirectory,则是使用配置文件中“state.savepoints.dir”配置的目录来存放savepoint。 用户可以在“flink-conf.yaml”中通过“state
jobManager可以访问的,由于targetDirectory是可选的,如果用户没有配置targetDirectory,则是使用配置文件中“state.savepoints.dir”配置的目录来存放savepoint。 用户可以在“flink-conf.yaml”中通过“state
Hive开源增强特性:支持开启Transform功能 Hive开源社区版本禁止Transform功能。 MRS Hive提供配置开关,Transform功能默认为禁止,与开源社区版本保持一致。 用户可修改配置开关,开启Transform功能,当开启Transform功能时,存在一定的安全风险。 Hive开
推荐使用IntelliJ IDEA工具,请根据指导完成开发环境配置。 准备ClickHouse应用开发和运行环境 根据场景开发工程 提供样例工程,帮助用户快速了解ClickHouse各部件的编程接口。 导入并配置ClickHouse样例工程 运行程序及查询结果 用户可以直接通过运行结果查看应用程序运行情况。
failed. (state=08S01,code=1) 原因分析 当前提交任务的用户不具备Yarn对应队列的权限。 处理步骤 为当前用户配置Yarn队列的权限。 在Manager界面为当前用户绑定对应权限的角色,例如:default,详细操作请参考修改用户信息章节。 若Hive
shuffle.partitions”参数值可以调整取模时的基数,改善数据分块不均匀的情况,多次验证发现配置为质数或者奇数效果比较好。 在Driver端的“spark-defaults.conf”配置文件中调整如下参数。 表1 参数说明 参数 描述 默认值 spark.sql.shuffle
选择“Libraries”页签,然后在如下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。
选择“Libraries”页签,然后在如下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。