检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
至少包含大写字母、小写字母、数字、特殊符号4种类型字符。 至少8位,最多64位。 出于安全考虑,建议用户定期更换自定义密码(例如三个月更换一次),并重新生成各项证书和信任列表。 查看系统在定时检查时是否会再次产生此告警。 是,执行9。 否,处理完毕。 收集故障信息。 在FusionInsight Manager界面,选择“运维
Spark SQL ROLLUP和CUBE使用的注意事项 问题 假设有表src(d1, d2, m),其数据如下: 1 a 1 1 b 1 2 b 2 对于语句select d1, sum(d1) from src group by d1, d2 with rollup其结果如下:
如何迁移Hive/HDFS的数据到ClickHouse 使用辅助Zookeeper或者副本数据同步表数据时,日志报错 如何为ClickHouse用户赋予数据库级别的Select权限 父主题: 使用ClickHouse
按照ID、名称、用户自动搜索包含此关键字的全部作业。 清空搜索框的内容,系统会重新显示所有作业。 查看作业详细信息 在“作业浏览器”的作业列表,单击作业所在的行,可以打开作业详情。 在“元数据”页签,可查看作业的元数据。 单击“日志”可打开作业运行时的日志。 父主题: 创建Hue操作任务
具体性能以现场实际测试数据为准。 可用性降低: 不允许不在ISR中的副本被选举为Leader。如果Leader下线时,其他副本均不在ISR列表中,那么该分区将保持不可用,直到Leader节点恢复。当分区的一个副本所在节点故障时,无法满足最小写入成功的副本数,那么将会导致业务写入失败。
HetuEngine 使用Tableau访问MRS HetuEngine 使用永洪BI访问MRS HetuEngine Hive对接外置自建关系型数据库 MRS Hive对接外部LDAP配置说明 使用Kafka Eagle对接MRS Kafka 使用Jupyter Notebook对接MRS
登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,单击“组件管理”。 单击服务列表中指定的服务名称。 单击“实例”页签。 勾选待操作角色实例前的复选框。 选择“更多 > 启动实例”、“停止实例”、“重启实例”或“滚动重启实例”等,执行相应操作。
个数是map个数的1/4。 setQueueName(String queueName) 指定MapReduce作业的提交队列。默认使用default队列。也可以在“mapred-site.xml”中配置“mapreduce.job.queuename”项。 父主题: MapReduce接口介绍
策略允许条件,配置本策略内允许的权限及例外,例外条件优先级高于正常条件。 在“Select Role”、“Select Group”、“Select User”列选择已创建好的需要授予权限的Role、用户组或用户,单击“Add Conditions”,添加策略适用的IP地址范围,单击“Add Permissions”,添加对应权限。
iveServer实例: 登录FusionInsight Manager,选择“集群 > 服务 > Hive > 实例”。 在Hive实例列表中选择需要设置租约隔离的HiveServer,选择“实例配置 > 全部配置”。 在“全部配置”界面的右上角搜索“hive.server2.zookeeper
INSERT...SELECT操作调优 操作场景 在以下几种情况下,执行INSERT...SELECT操作可以进行一定的调优操作。 查询的数据是大量的小文件。 查询的数据是较多的大文件。 在beeline/thriftserver模式下使用非spark用户操作。 操作步骤 可对INSERT
个数是map个数的1/4。 setQueueName(String queueName) 指定MapReduce作业的提交队列。默认使用default队列。也可以在“mapred-site.xml”中配置“mapreduce.job.queuename”项。 父主题: MapReduce接口介绍
Kafka/kafka/bin 使用kafka-consumer-groups.sh查看当前消费情况。 查看Offset保存在Kafka上的Consumer Group列表: ./kafka-consumer-groups.sh --list --bootstrap-server <Broker的任意一个节点的业务IP:Kafka集群IP端口号>
properties Broker实例IP地址:登录FusionInsight Manager,选择“集群 > 服务 > Kafka > 实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl
properties Broker实例IP地址:登录FusionInsight Manager,选择“集群 > 服务 > Kafka > 实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl
FlinkSQL HBase数据表开发规则 提前在HBase中创建表 Flink作业在HBase中找不到对应表会报错,所以需要提前在HBase中创建好对应的表。 HBase与Flink不在同一集群时只支持Flink和HBase均为普通模式集群的对接 当HBase与Flink为同一
String[] words = line.toLowerCase(Locale.getDefault()).split(REGEX_STRING); for (String word : words) {
图1 reimport projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如图2所示。 图2 hbase-example待编译目录列表 编译方式有以下两种。 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”
Spark client CLI介绍 Spark CLI详细的使用方法参考官方网站的描述:http://archive.apache.org/dist/spark/docs/3.3.1/quick-start.html。 常用CLI Spark常用的CLI如下所示: spark-shell
Teradata函数 以下函数提供Teradata SQL的能力。 字符串函数 char2hexint(string) 描述:返回字符串的UTF-16BE编码的十六进制表示形式。 index(string, substring) 描述:同strpos() 函数。 日期函数 本节中的函数使用与Teradata