检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Spark2x无法访问Spark1.5创建的DataSource表 问题 在Spark2x中访问Spark1.5创建的DataSource表时,报无法获取schema信息,导致无法访问表。 回答 原因分析: 这是由于Spark2x与Spark1.5存储DataSoure表信息的格式不一致导致的。Spark1
1000"| tr "\t" "," > /data/bigdata/hive/student.csv; 导入到ClickHouse的default数据库中的student_hive表中,命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。
1000"| tr "\t" "," > /data/bigdata/hive/student.csv; 导入到ClickHouse的default数据库中的student_hive表中: clickhouse --client --port 9002 --password xxx -m --query='INSERT
复制解压目录下的“hosts”文件中的内容到本地hosts文件中。 在应用开发过程中,如需在本地Windows系统中调测应用程序,需要确保本地节点能与“hosts”文件中所列出的各主机在网络上互通。 如果当前节点与MRS集群所在网络平面不互通,可以通过绑定EIP的方式访问MRS集群,具体操作请参考配置Windows通过EIP访问普通模式集群Hive。
读取Hudi cow表视图 实时视图读取(Hive,SparkSQL为例):直接读取Hive里面存储的Hudi表即可,${table_name}表示表名称。 select count(*) from ${table_name}; 实时视图读取(Spark dataSource A
MapReduce开源增强特性 MapReduce开源增强特性:JobHistoryServer HA特性 JobHistoryServer(JHS)是用于查看MapReduce历史任务信息的服务器,当前开源JHS只支持单实例服务。JobHistoryServer HA能够解决J
START TRANSACTION 语法 START TRANSACTION [ mode [, ...] ] 其中mode用于设置事务的隔离级别,可选的参数有: ISOLATION LEVEL { READ UNCOMMITTED | READ COMMITTED | REPEATABLE
Impala应用开发常用概念 客户端 客户端直接面向用户,可通过Java API、Thrift API访问服务端进行Impala的相关操作。本文中的Impala客户端特指Impala client的安装目录,里面包含通过Java API访问Impala的样例代码。 HiveQL语言
Impala应用开发常用概念 客户端 客户端直接面向用户,可通过Java API、Thrift API访问服务端进行Impala的相关操作。本文中的Impala客户端特指Impala client的安装目录,里面包含通过Java API访问Impala的样例代码。 HiveQL语言
properties --max-life-time-period -1 --renewer-principal User:username 列出归属在特定用户下的所有Token信息: ./kafka-delegation-tokens.sh --describe --bootstrap-server
properties --max-life-time-period -1 --renewer-principal User:username 列出归属在特定用户下的所有Token信息: ./kafka-delegation-tokens.sh --describe --bootstrap-server
equals("female"); } }).keyBy( new UserRecordSelector() ).window( TumblingEventTimeWindows.of(Time
equals("female"); } }).keyBy( new UserRecordSelector() ).window( TumblingEventTimeWindows.of(Time
equals("female"); } }).keyBy( new UserRecordSelector() ).window( TumblingEventTimeWindows.of(Time
sql => 'delete statement') 参数描述 表1 参数描述 参数 描述 table_name 待删除数据的表名,支持database.tablename格式 delete statement select类型的sql语句,用于找出待删除的数据 示例 从mytable表中删除primaryKey
统计Yarn每种操作类型对应的操作数及占比。 队列中任务资源使用排序 在界面上选择某个队列(租户)后,显示在该队列中正在运行任务的消耗资源排序。 可选择“按内存”或“按CPU”观察。 队列中用户资源使用排序 在界面上选择某个队列(租户)后,显示在该队列中正在运行任务的用户消耗的资源排序。 可选择“按内存”或“按CPU”观察。
读取Hudi cow表视图 实时视图读取(Hive,SparkSQL为例):直接读取Hive里面存储的Hudi表即可,${table_name}表示表名称。 select count(*) from ${table_name}; 实时视图读取(Spark dataSource A
Flink Join样例程序开发思路 场景说明 假定某个Flink业务1每秒就会收到1条消息记录,消息记录某个用户的基本信息,包括名字、性别、年龄。另有一个Flink业务2会不定时收到1条消息记录,消息记录该用户的名字、职业信息。 基于某些业务要求,开发的Flink应用程序实现功
Flink Join样例程序开发思路 场景说明 假定某个Flink业务1每秒就会收到1条消息记录,消息记录某个用户的基本信息,包括名字、性别、年龄。另有一个Flink业务2会不定时收到1条消息记录,消息记录该用户的名字、职业信息。 基于某些业务要求,开发的Flink应用程序实现功
在Beeline/JDBCServer模式下连续运行10T的TPCDS测试套会出现内存不足的现象 问题 在Driver内存配置为10G时,Beeline/JDBCServer模式下连续运行10T的TPCDS测试套,会出现因为Driver内存不足导致SQL语句执行失败的现象。 回答