检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MRS集群用户认证策略 大数据平台用户需要对用户进行身份认证,防止不合法用户访问集群。安全模式或者普通模式的集群均提供认证能力。 安全模式 安全模式的集群统一使用Kerberos认证协议进行安全认证。Kerberos协议支持客户端与服务端进行相互认证,提高了安全性,可有效消除使用
COLUMN string TYPE decimal(20,10); 在源数据库中插入数据,数据可以正常写入Hudi。 在源数据库侧,将数据类型VARCHAR修改为NUMBER。 在CDL WebUI界面启动任务,源数据库更新数据。 将数据类型NUMBER修改为VARCHAR 登录FusionInsight
// 2.获取每一个行的字段属性 val records = lines.map(getRecord) // 3.筛选女性网民上网时间数据信息 val femaleRecords = records.filter(_._2 == "female")
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
分区排序: 配置项 说明 hoodie.bulkinsert.user.defined.partitioner.class 指定分区排序类,可自行定义排序方法,具体参考样例代码。 bulk_insert默认字符排序,仅适用于StringType的主键。 父主题: Hudi写操作
PyFlink样例程序代码说明 通过Python API的方式提交Flink读写Kafka作业到Yarn上代码样例 下面列出pyflink-kafka.py的主要逻辑代码作为演示,在提交之前需要确保“file_path” 为要运行的SQL的路径,建议写全路径。 完整代码参见“fl
务器 使用Loader从HDFS/OBS导出数据到关系型数据库 使用Loader从HDFS导出数据到MOTService 使用Loader从HBase导出数据到关系型数据库 使用Loader从Hive导出数据到关系型数据库 使用Loader从HBase导出数据到HDFS/OBS
先在弹性公网IP界面解绑,然后再为当前集群绑定。 在“安全组”中选择当前集群所在的安全组,该安全组在创建集群时配置或集群自动创建。 创建自定义集群时,安全组可配置提前创建的安全组或保持默认“自动创建”;快速创建集群时,安全组由集群自动创建。 安全组名称可在集群的“概览”界面的“安全组”查看。
分区排序: 配置项 说明 hoodie.bulkinsert.user.defined.partitioner.class 指定分区排序类,可自行定义排序方法,具体参考样例代码。 bulk_insert默认字符排序,仅适用于StringType的主键。 父主题: Hudi写操作
ALM-16047 HiveServer已从Zookeeper注销 告警解释 系统每60秒周期性检测Hive服务,若Hive在Zookeeper上的注册信息丢失,或者Hive无法连接上Zookeeper,将会发出告警。 告警属性 告警ID 告警级别 是否自动清除 16047 重要
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
retrieve.max、hive.metastore.batch.retrieve.table.partition.max、dbservice.database.max.connections等参数均未能解决。 怀疑是GaussDB的问题,因为增加字段会遍历每个分区执行getPartitio
Combine output records=6 Reduce input groups=3 Reduce shuffle bytes=114 Reduce input records=6 Reduce output records=2 Spilled Records=12 Shuffled Maps
添加Hive服务后,提交hivesql/hivescript作业失败如何处理? 该问题是由于提交作业的用户所在用户组绑定的MRS CommonOperations策略权限在同步到Manager中后没有Hive相关权限,处理方法如下: 添加Hive服务完成。 登录IAM服务控制台,
Reduce input records=6 Reduce output records=2 Spilled Records=12 Shuffled Maps
ConsumerRecords<String, String> records = consumer.poll(waitTime); for (ConsumerRecord<String, String> record : records) {
向HBase表中插入数据 功能简介 HBase是一个面向列的数据库,一行数据,可能对应多个列族,而一个列族又可以对应多个列。通常,写入数据的时候,需要指定要写入的列(含列族名称和列名称)。HBase通过HTable的put方法来Put数据,可以是一行数据也可以是数据集。 代码样例
系统安全性。 密码更新指导如下所示: 修改系统用户密码:请参见修改admin密码和修改操作系统用户密码。 修改系统内部用户密码 修改默认数据库用户密码 证书更新 MRS集群的CA证书与HA证书均支持更换,如果用户需要将集群默认的证书更换成新的证书,可参考如下指导: CA证书用于组
插入HBase数据 功能简介 HBase是一个面向列的数据库,一行数据,可能对应多个列族,而一个列族又可以对应多个列。通常,写入数据的时候,需要指定要写入的列(含列族名称和列名称)。HBase通过HTable的put方法来Put数据,可以是一行数据也可以是数据集。 代码样例 以下代码片段在com