检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建FlinkServer作业前准备 访问FlinkServer WebUI界面 创建FlinkServer应用 创建FlinkServer集群连接 创建FlinkServer数据连接 创建FlinkServer流表源 父主题: 使用Flink
清除ClickHouse默认用户密码 登录FusionInsight Manager界面,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”,搜索参数“ALLOW_CLEAR_INTERNAL_ACCOUNT_PASSWORD”,并修改参数值为“true”。 使用root用户登录Clic
Flink作业引擎概述 Flink用户权限管理 Flink客户端使用实践 创建FlinkServer作业前准备 创建FlinkServer作业 管理FlinkServer作业 Flink运维管理 Flink性能调优 Flink客户端常见命令说明 Flink常见问题 签发Flink证书样例
用开发常见问题。 Shell命令 Java API Hue Oozie客户端提供了比较完整的examples示例供用户参考,包括各种类型的Action,以及Coordinator以及Bundle的使用。以客户端安装目录为“/opt/client”为例,examples具体目录为“
步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 通过管理控制台同步配置 同步集群配置: 登录MRS管理控制台,单击待操作的集群名称。 在集群详情页,单击页面右上角“配置 >
参见快速使用Hive进行数据分析登录Hive客户端,验证Ranger是否已经完成集成Hive。 以客户端安装用户登录客户端安装节点,执行如下命令,进入hive beeline。 source /opt/client/bigdata_env beeline 执行如下命令,建立连接并使用testuser登录。
public void init(ProcessorContext context) { // 在本地保留processor context,因为在punctuate()和commit()时会用到 this.context
userlocalFileCollect参数进行配置。 false spark.sql.uselocalFileCollect 是否将结果数据保存在本地磁盘中而不是内存里面。 优点:结果数据小数据量情况下和原生内存的方式相比性能损失可以忽略,大数据情况下(亿级数据)性能远比使用HDFS,以及原生内存方式好。
Kafka Kafka jar包冲突列表 Jar包名称 描述 kafka_2.11-*.jar 连接Kafka服务必须的jar包。 kafka-clients-*.jar 连接Kafka服务必须的jar包。 解决方案 Kafka不建议使用开源版本的包。 父主题: MRS应用开发开源jar包冲突列表说明
在Session级别关闭隐式转换 登录HetuEngine客户端。 执行以下命令,关闭隐式转换功能。 set session implicit_conversion=false; 在Session级别关闭UDF函数运算结果的隐式转换 登录HetuEngine客户端。 执行以下命令,关闭隐式转换功能。
CLUSTER关键字的表监控查询。 复制表数据同步 数据同步菜单路径 MRS 3.2.0之前版本:登录FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 数据同步状态”。 MRS 3.2.0及之后版本,登录FusionInsight Manager,选择“集群 > 服务
用,无法对Web上层服务提供安全认证功能,可能引起无法登录MRS Manager。 可能原因 Okerberos依赖的OLdap资源异常。 处理步骤 检查Manager中的OKerberos依赖的OLdap资源是否异常。 登录主管理节点。 执行以下命令,查询当前HA管理的OLdap资源状态是否正常。
可能原因 ZooKeeper服务异常。 HDFS服务异常。 HBase服务异常。 网络异常。 处理步骤 检查ZooKeeper服务状态。 登录MRS集群详情页面,选择“组件管理”。 在服务列表中,查看ZooKeeper健康状态是否为“良好”。 是,执行2.a。 否,执行1.c。
etuEngine来实现Hive数据源数据查询,流程如下: 连接HetuEngine JDBC Server。 组装SQL语句。 SQL语句执行。 返回结果解析。 关闭HetuEngine JDBC Server的连接。 父主题: 开发HetuEngine应用
开发ClickHouse应用 ClickHouse应用程序开发思路 配置ClickHouse连接属性 建立ClickHouse连接 创建ClickHouse数据库 创建ClickHouse表 插入ClickHouse数据 查询ClickHouse数据 删除ClickHouse表 父主题:
开发ClickHouse应用 ClickHouse应用程序开发思路 配置ClickHouse连接属性 建立ClickHouse连接 创建ClickHouse数据库 创建ClickHouse表 插入ClickHouse数据 查询ClickHouse数据 删除ClickHouse表 父主题:
able-lock节点(默认路径/hbase/table-lock)下残留有新建的表名,请问该如何清理? 回答 操作步骤如下: 在安装好客户端的环境下,使用hbase用户进行kinit认证。 执行hbase zkcli命令进入ZooKeeper命令行。 在ZooKeeper命令行中执行ls
ive_examples”,记作$HCAT_CLIENT,并确保已经安装好客户端。 export HCAT_CLIENT=/opt/hive_examples/ 执行以下命令用于配置环境变量信息(以客户端安装路径为/opt/client为例)。 export HADOOP_
在Hive命令行执行drop表只删除了外部表的表结构,并没有删除该表存储在HDFS上的表数据。 处理步骤 使用root用户登录安装客户端的节点,并认证用户。 cd 客户端安装目录 source bigdata_env kinit 组件业务用户(未开启Kerberos认证的集群跳过此操作)
SQL。在实际运用中,HetuEngine管理员可选择通过配置“维护实例”等,开启物化视图的自动创建与自动刷新功能。业务用户可以通过配置客户端Session来获得基于自动创建的物化视图的自动改写与提速。 该能力可以极大降低用户使用物化视图功能的使用难度,带来业务无感知的分析加速效