检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当进程有异常被终止后,使用ausearch -k process_killed命令,可以查询终止历史。 a0是被终止进程的PID(16进制),a1是kill命令的信号量。 验证方法 从MRS页面重启该节点一个实例,如DataNode。 执行ausearch -k process_killed命令,确认是否有日志打印。
云的安全责任在于保障其所提供的IaaS、PaaS和SaaS各类各项云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这不仅包括华为云基础设施和各项云服务技术的安全功能和性能本身,也包括运维运营安全,以及更广义的安全合规遵从。 租户:负责
merge_tree.parts_to_throw_insert clickhouse实例内存 / 32GB * 300 (保守估计值) 验证修改结果: 登录ClickHouse客户端,执行命令select * from system.merge_tree_settings where
merge_tree.parts_to_throw_insert clickhouse实例内存 / 32GB * 300 (保守估计值) 验证修改结果: 登录ClickHouse客户端,执行命令select * from system.merge_tree_settings where
Distribution Center): 密钥分发中心,包括AS和TGS两部分。 AS(Authentication Server): 认证服务器,用于验证客户端账号密码信息,并生成TGT(Ticket Granting Ticket) 票据授权票据。 TGS(Ticket Granting Server):
否,执行9。 登录ClickHouse服务异常的实例主机节点,并通过ping其他正常ClickHouse实例节点IP的方式进行网络是否互通验证。 是,执行3。 否,联系网络管理员修复网络。 以客户端安装用户,登录客户端的节点,执行如下命令: cd {客户端安装路径} source
link等服务且服务运行正常。 已创建需要配置权限的用户、用户组或Role,且用户已加入hive组。 该特性仅支持在FlinkServer平台使用。 FlinkSQL需要使用default方言。 过滤条件中的字段大小写要与FlinkSQL中字段大小写一致。 该特性不支持Hive视图表。
Python3访问Hive样例程序 功能介绍 本章节介绍如何使用Python3连接Hive执行数据分析任务。 样例代码 以下分析任务示例在“hive-examples/python3-examples/pyCLI_nosec.py”文件中。 导入hive类 from pyhive
IGH”。 在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,在“源文件类型”中选择“HBASE”,设置数据源信息。
IGH”。 在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,在“源文件类型”中选择“HBASE”,设置数据源信息。
”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。 登录Kafka客户端: cd Kafka客户端安装目录/Kafka/kafka kinit flume_kafka(输入密码)
”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。 登录Kafka客户端: cd Kafka客户端安装目录/Kafka/kafka kinit flume_kafka(输入密码)
Manager,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“仅配置文件”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64),单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例
参与;同时支持用户在集群中运行自定义内容;支持快速创建多应用场景集群,比如创建Hadoop分析集群、HBase集群、Kafka集群。大数据平台同时支持部署异构集群,在集群中存在不同规格的虚机,允许CPU类型,硬盘容量,硬盘类型,内存大小灵活组合。在集群中支持多种虚机规格混合使用。
基于Python3的Hive样例程序 功能介绍 本章节介绍如何使用Python3连接Hive执行数据分析任务。 样例代码 以下分析任务示例在“hive-examples/python3-examples/pyCLI_nosec.py”文件中。 导入hive类 from pyhive
感知的分析加速效果。HetuEngine管理员通过付出少量的计算资源和存储空间,可实现对高频SQL业务的智能加速。同时,该能力可以降低数据平台的整体负载(CPU、内存、IO等),有助于提升系统稳定性。 智能物化视图包括以下几个功能: 自动推荐物化视图 自动创建物化视图 自动刷新物化视图
Zone”。单击“Save”保存。如需添加多条策略有效期,可单击按钮添加。如需删除策略有效期,可单击按钮删除。 单击“Add”,在策略列表可查看策略的基本信息。等待策略生效后,验证相关权限是否正常。 如需禁用某条策略,可单击按钮编辑策略,设置策略开关为“Disabled”。 如果不再使用策略,可单击按钮删除策略。 Ranger
Zone”。单击“Save”保存。如需添加多条策略有效期,可单击按钮添加。如需删除策略有效期,可单击按钮删除。 单击“Add”,在策略列表可查看策略的基本信息。等待策略生效后,验证相关权限是否正常。 如需禁用某条策略,可单击按钮编辑策略,设置策略开关为“Disabled”。 如果不再使用策略,可单击按钮删除策略。 Ranger
即可开始Hive数据迁移。 迁移完成后,可以在目的端集群和源端集群的Hive Beeline命令行中,通过同样的查询语句,对比查询结果进行验证。 例如在目的端集群和源端集群上通过查询catalog_sales表的记录数来确认数据条数是否一致。 select count(*) from
返回列名称与聚合表中列的名称保持一致。 物化视图创建时不会进行语法校验,只有发生实际数据插入与查询时才会出错。 物化视图上线前,需做好充分验证。 规则 物化视图(Materialized View)显式指定聚合表。 在创建物化视图时,使用TO关键字为物化视图指定数据存储表。 如果不显示指定聚合表,则会创建隐式表