检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
上述命令将从物理上删除所有DELETE SEGMENT命令删除的segment和合并后的旧的segment。 系统响应 可在driver日志中查看命令运行成功或失败。 父主题: CarbonData语法参考
ou=Users,dc=hadoop,dc=com”的方法如下: ./ldapserver_unlockUsers.sh krbkdc 运行脚本之后,在ROOT_DN_PASSWORD之后输入krbkdc用户密码,显示如下结果,说明解锁成功: Unlock user krbkdc
0及之后版本,集群未启用Kerberos认证(普通模式)也支持在Manager页面创建用户,并绑定角色获得相应权限。 前提条件 Doris服务运行正常。 角色名称不能为operator和admin。 集群已启用Kerberos认证(安全模式)时,Doris赋权成功后,权限生效时间大约为2分钟。
<tablename>:表示要操作的表名。 <inputdir>:表示要批量导入的数据目录。 -Dindexspecs.to.add=<indexspecs>:表示索引名与列的映射,例如-Dindexspecs.to.add='index_bulk=>info:[age->String]'。 其构成如下所示:
在“/opt/hadoopclient/Flink/flink/conf/flink-conf.yaml”文件中新增表3中的参数并保存。 查看监控指标信息。 Flink作业运行成功后,登录AOM 2.0控制台,在左侧导航栏选择“Prometheus监控 > 实例列表”,单击1中创建的Prometheus实例名称,在“指标管理”中即可查看监控信息。
访问。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认华为MRS产品Storm和Kafka组件已经安装,并正常运行。 参考获取MRS应用开发样例工程,获取样例代码解压目录中“src\storm-examples”目录下的样例工程文件夹storm-exa
产生告警的磁盘名。 对系统的影响 系统性能下降,慢盘会导致系统I/O性能下降,从而影响系统的响应速度和吞吐量。这可能会导致客户的业务运行变慢(例如:作业提交运行变慢、页面响应迟钝、接口响应超时等),甚至出现崩溃或错误。 系统故障:慢盘故障可能会导致系统故障,从而导致客户的业务受到影响。
productdb2.productSalesTable where c = 'aaa'; //可以发现该查询命令使用了索引表 系统响应 通过运行该命令,索引表会被注册到主表。 父主题: DDL
INTO carbon02 select * from carbon01 where a > 1; 系统响应 可在driver日志中查看命令运行成功或失败。 父主题: DML
IDEA导出Jar包并指定导出jar包名称,比如“storm-examples.jar”。 操作步骤 若Storm-JDBC样例需要在Windows下运行,则需要替换配置文件路径;否则,不需要执行此步骤。 在IDEA界面右键单击“jdbc.properties”文件,选择“Copy Path/Reference
IDEA导出Jar包并指定导出jar包名称,比如“storm-examples.jar”。 操作步骤 若Storm-JDBC样例需要在Windows下运行,则需要替换配置文件路径;否则,不需要执行此步骤。 在IDEA界面右键单击“jdbc.properties”文件,选择“Copy Path/Reference
单击“添加文件”并选择用户程序。 单击“上传”。 使用同样方式将用户数据文件上传至input目录。 将OBS数据导入至HDFS。 当“Kerberos认证”为“关闭”,且运行中的集群,可执行将OBS数据导入至HDFS的操作。 登录MRS管理控制台。 单击集群名称进入集群详情页面。 单击“文件管理”,选择“HDFS文件列表”。
ALTER COLUMN a.b.c AFTER x a.b.c表示嵌套列全路径,嵌套列具体规则见ADD COLUMNS。 系统响应 通过运行DESCRIBE命令,可显示修改的列。 父主题: Hudi Schema演进及语法说明
产生告警的角色名称。 HostName 产生告警的主机名。 对系统的影响 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。 不合理的DataNode数据目录配置,会造成HDFS的性能下降。 可能原因 DataNode数据目录创建失败。
本章节只适用于Storm和HBase交互的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认Storm和HBase组件已经安装,并正常运行。 将storm-examples导入到IntelliJ IDEA开发环境,请参见准备Storm应用开发环境。 下载并安装HBase客户端。
可能存在以下场景,在ZooKeeper中创建的数据过大,需要大量时间与leader同步,并保存到硬盘。在这个过程中,如果ZooKeeper需要运行很长时间,则需确保没有其他监控应用程序kill ZooKeeper而判断其服务停止。 父主题: ZooKeeper常见问题
delimiter, long maxRetry) 获取用户定义的Socket数据,作为输入流数据。 hostname是指Socket的服务器端的主机名称。 port指的是服务器的监测端口。 delimiter指的是消息之间的分隔符。 maxRetry指的是由于连接异常可以触发的最大重试次数。 public
安装Kafka服务时,此参数初始化配置不能设置为“true”,设置为“true”的前提条件是Broker实例和ZooKeeper必须处于正常运行状态。 advertised.broker.id.ip.map Kafka对外发布的IP地址,默认值为空。 格式为:Broker ID:I
anager界面,详情请参考访问MRS集群Manager。 通过管理控制台启停节点角色 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,单击“节点管理”。 展开节点组信息,勾选待操作节点前的复选框。 选择“节点操作 >
/home/test_input.txt /input 执行如下命令启动spark-shell。 spark-shell 在spark-shell中运行如下命令。 val s = sc.textFile("alluxio://<Alluxio的节点名称>:19998/input") val