检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
期字段取年月后进行聚合。 以下代码片段在com.huawei.clickhouse.examples包的“Demo”类的queryData方法中。 private void queryData(String databaseName, String tableName) throws
期字段取年月后进行聚合。 以下代码片段在com.huawei.clickhouse.examples包的“Demo”类的queryData方法中。 private void queryData(String databaseName, String tableName) throws
ainerExecutor进行开放。请参考官网资料对LinuxContainerExecutor进行安全配置。您可通过官网资料了解系统用户和用户组配置对应的文件系统权限。详情请参见: MRS 3.2.0之前版本:http://hadoop.apache.org/docs/r3.1
// krb5.conf路径 final String principal = paraTool.get("认证用户名"); // 认证用户 System.setProperty("java.security.krb5.conf", krb5);
过访问Guardian获取到访问OBS的临时凭据。Guardian会根据当前登录的用户去访问IAM请求生成带细粒度鉴权内容的临时凭据再返回给组件,组件拿此凭据去访问OBS,OBS根据凭据决定当前用户是否有权限访问。 图2 Guardian与其他组件的关系 父主题: 组件介绍
JobStatusRefreshTask] - [start update job task] 审计日志 <远程主机名称> <远程用户名> <被认证的远程用户> <yyyy-MM-dd HH:mm:ss,SSS> <"日志请求的第一行" 响应码 发送的字节数> 192.168.212
业进行启动、开发、停止、编辑、删除、查看作业详情和Checkpoint故障恢复等操作。 若要使用其他用户在节点上读取已提交的作业相关文件,需确保该用户与提交作业的用户具有相同的用户组和具有对应的FlinkServer应用管理权限角色,如参考创建FlinkServer权限角色勾选“应用查看”。
ainerExecutor进行开放。请参考官网资料对LinuxContainerExecutor进行安全配置。您可通过官网资料了解系统用户和用户组配置对应的文件系统权限。详情请参见: MRS 3.2.0之前版本:http://hadoop.apache.org/docs/r3.1
解决措施: 您可以适当增大Executor内存和Executor核数,以便YARN可以在每个节点上启动一个Executor。具体的配置方法如下: 配置Executor核数。 将“spark-defaults.conf”中的“spark.executor.cores”配置项或者“spark-env
解决措施: 您可以适当增大Executor内存和Executor核数,以便YARN可以在每个节点上启动一个Executor。具体的配置方法如下: 配置Executor核数。 将“spark-defaults.conf”中的“spark.executor.cores”配置项或者“spark-env
Job 3中处于pending状态的task将优先得到这部分新释放的资源。 Job 3完成后,资源释放给Job 1、Job 2继续执行。 用户可以在YARN中配置任务的优先级。任务优先级是通过ResourceManager的调度器实现的。 操作步骤 设置参数“mapreduce.job
API仅支持通过不启用Kerberos认证模式端口访问未设置ACL的Topic,安全接口说明见Kafka安全接口介绍) 样例代码 Old Producer API的run方法中的逻辑。 /* * 启动执行producer,每秒发送一条消息。 */ public void run()
0及以后版本。 使用场景 内置JSON_VALUE函数解析一个JSON item的多个字段时,复用上次JSON item的解析结果,提升算子性能。 使用方法 配置Flink作业时,可通过在FlinkServer WebUI的Flink作业开发界面添加自定义参数“table.optimizing
行优化。 避免全表扫描,需要查询元数据符合条件的所有分区。 而gaussDB中提供的接口sendOneQuery,调用的sendParse方法中对参数的限制为32767。 如果分区条件数超过32767就异常。 父主题: Hive常见问题
buffer”,表示此问题是由JDK导致,需要如何解决? 回答 修复步骤如下: 在RegionServer启动失败的某个节点执行 su - omm,切换到omm用户。 在omm用户下执行java -XX:+PrintFlagsFinal -version |grep HeapBase,出现如下类似结果。 uintx
法显示此网页。 解决措施: 建议用户使用FusionInsight代理去访问Spark JobHistory页面,即单击如图2中蓝框所示的Spark WebUI的链接。 图2 FusionInsight Manager的Spark2x页面 如果用户需要不通过FusionInsight
通过impala-shell连接不上Impalad的21000端口 问题 使用4.0.0以上的impala-shell客户端连不上Impalad的21000端口。 回答 Impala4.0.0及以上版本,Impala-shell客户端默认使用Hive Server2的21050端口,如果要连接21000端口,需要在
2017-03-28 02:57:52 493 10-5-146-1 storm- INFO Nimbus start normally 审计日志 <用户名><用户IP><时间><操作><操作对象><操作结果> UserName=storm/hadoop, UserIP=10.10.0.2, Time=Tue
HBase提供了不同场景下的多种样例程序,用户可获取样例工程并导入本地开发环境中进行程序学习。 导入并配置HBase样例工程 根据业务场景开发程序 根据实际业务场景开发程序,调用组件接口实现对应功能。 开发HBase应用 编译并运行程序 开发好的程序编译运行,用户可在本地Windows开发环境
WebHCat健康状态异常导致启动失败 用户问题 WebHCat实例启动失败。 问题现象 在Manager页面上查看到WebHCat实例的健康状态为“故障”,并上报“ALM-12007 进程故障”告警,该告警的服务名称为“Hive”,实例名称为“WebHCat”。且重启Hive服务报错。