检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择“资源”,单击“资源详情”后的,对租户资源进行修改。 修改完成后,单击“确定”,返回“资源”页面,展示修改后的资源详情。 修改ClickHouse租户资源配额后,需要重新登录ClickHouse客户端才能生效。 添加用户并绑定租户 新添加用户绑定租户:登录FusionInsight Manager,选择“系统
如果当前数据库Location已指向HDFS,那么在当前数据库下建表(不指定Location)默认也指向当前HDFS。如需修改默认建表策略可以修改数据库的Location重新指向OBS。 操作如下: 执行以下命令查看数据库Location。 show create database obs_test; 执行以下命令修改数据库Location。
major compaction期间被删除。 创建索引后,不应更改用户列族的TTL。 如果在创建索引后将列族TTL更改为更高值,则应删除并重新创建索引,否则某些已生成的索引数据可能会早于用户数据被删除。 如果在创建索引后将列族TTL更改为较低值,则索引可能会晚于用户数据被删除。
major compaction期间被删除。 创建索引后,不应更改用户列族的TTL。 如果在创建索引后将列族TTL更改为更高值,则应删除并重新创建索引,否则某些已生成的索引数据可能比用户数据先删除。 如果在创建索引后将列族TTL更改为较低值,则索引可能会晚于用户数据被删除。 HB
装的客户端进行作业提交。 用户也可使用master节点上预置安装的客户端来连接服务端、查看任务结果或管理数据等 对集群安装补丁后,用户需要重新更新master节点上的客户端,才能保证继续使用内置客户端功能。 操作步骤 登录MRS Manager页面,具体请参见访问MRS Manager(MRS
onsumers/consumer-group-xxx/owners/topic-xxx/x。 当触发负载均衡后,原来的consumer会重新计算并释放已占用的partitions,此过程需要一定的处理时间,新来的consumer抢占该partitions时很有可能会失败。 表1
元数据恢复前,需要停止HBase服务,在这期间所有上层应用都会受到影响,无法正常工作。 元数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 元数据恢复后,需要重新启动HBase的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群,且已完成数据备份,详细操作请参见备份HBase元数据
缩容成功:集群缩容成功后集群状态为“运行中”,计费按照缩容后所使用的资源计算。 缩容失败:集群缩容失败时集群状态为“运行中”。用户可以执行作业,也可以重新进行缩容操作。 缩容成功后,可以在集群详情的“节点管理”页签查看集群的节点信息。 指定节点缩容 当节点不再需要时,使用该功能删除节点。删除
kafka_skip_broken_messages (可选)表示忽略解析异常的Kafka数据的条数。如果出现了N条异常后,后台线程结束,Materialized View会被重新安排后台线程去监测数据。 kafka_num_consumers (可选)单个Kafka Engine的消费者数量,通过增加该参数,可以提
概览页面单击“HSConsole WebUI”后的链接,进入计算实例界面。 选择待重启的计算实例,单击“停止”,待全部实例停止后,再单击“启动”重新启动计算实例。 日志格式 HetuEngine的日志格式如下所示: 表3 日志格式 日志类型 格式 示例 运行日志 <yyyy-MM-dd
kerberos.principal" => "备集群HMaster principal"} 备集群ID表示主集群识别备集群使用的id,请重新指定id值。可以任意指定,建议使用数字。 备集群ZooKeeper地址信息包含ZooKeeper业务IP地址、侦听客户端连接的端口和备集群
通过tail -f nohup.out查看执行情况,打印“upgrade_package patch success.”表示执行完成。 执行完之后,重新下载的客户端就已经是安装补丁的客户端。 该步骤耗时比较长,且执行完之后不需要重启组件。 补丁安装完成后,不能删除补丁目录相关文件,否则会响补丁的卸载功能。
ng:Boolean = true),该函数功能如下: 将该RDD从持久化列表中移除,RDD对应的数据进入可回收状态; 将RDD的存储级别重新设置为StorageLevel.NONE。 慎重选择shuffle过程的算子 该类算子称为宽依赖算子,其特点是父RDD的一个partiti
解决Hudi修改schedule后之前的commit文件被清理,spark compaction失败问题。 解决Hudi表有修改列名、删除重新添加列,只进行schedule,spark compaction失败问题。 解决Hudi增删改列后run compaction,cdl hudi2dws作业失败报空指针问题。
例,用户可根据实际用户名修改(普通集群请跳过此步操作)。 kinit hdfs kinit一次的时效24小时。24小时后再次运行样例,需要重新执行kinit。 在客户端目录准备文件“testFile”和“testFileAppend”,文件内容分别“Hello, webhdfs user
败。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动HDFS的上层应用。 前提条件 如果需要从远端HDFS恢复数据,需要准备备集群,且已完成数据备份,详细操作请参见备份HDFS业务数据。
若界面显示以下提示信息,请检查用户名密码及远端主机的安全组配置,确保用户名密码正确,及远端主机的安全组已增加SSH(22)端口的入方向规则。然后从2执行重新下载客户端。 连接到服务器失败,请检查网络连接或参数设置。 生成客户端会占用大量的磁盘IO,不建议在集群处于安装中、启动中、打补丁中等非稳态场景下载客户端。
修改映射关系后,若想使之在spark-beeline中生效,需要重启Spark服务,若想使之在Hive beeline中生效,需要退出beeline重新进入,若想使之在Presto服务中生效,需要重启Presto服务。 在开启OBS权限控制功能时各组件访问OBS的说明 以root用户登录集
在该目录下用hdfs用户进行命令行认证,用户密码请咨询集群管理员。 kinithdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit命令。 进入“/opt/client/HDFS/hadoop/hdfs-c-example”目录下,运行如下命令导入客户端环境变量。
至少包含大写字母、小写字母、数字、特殊符号4种类型字符。 至少8位,最多64位。 出于安全考虑,建议用户定期更换自定义密码(例如三个月更换一次),并重新生成各项证书和信任列表。 配置Flume角色的服务端参数,并将配置文件上传到集群。 使用ECM远程,以omm用户登录任意一个Flume角色