检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据库。 备份数据会按备份表的原名称恢复到同名数据库中。 如果存在同名表,须保证两张表的表结构完全一致。表结构包括:表名、列、分区、物化视图等。 在“保持原数据表的所有配置”选择“true”,表示将沿用备份数据的配置,如表副本数。选择“false”表示使用默认配置创建表。 单击“确定”保存。
e、Spark离线大规模分布式数据存储和计算,SparkStreaming、Flink流式数据计算,Presto交互式查询,Tez有向无环图的分布式计算框等Hadoop生态圈的组件,进行海量数据分析与查询。 HBase集群:HBase集群使用Hadoop和HBase组件提供一个稳
编译并运行程序 单击IDEA右边Maven窗口的“Reload All Maven Projects”,进行maven项目依赖import。 图1 reload projects 导出jar包 选择“Maven > clickhouse-examples > Lifecycle >
环境变量”。 设置系统环境变量,在系统变量下单击“新建”,弹出新建系统变量框,变量名中输入“USERDNSDOMAIN”,变量值设为非空字符串,图中以“test”为例。 连续单击“确定”,完成系统环境变量的设置。 关闭样例工程,重新打开,运行。 查看调测结果 查看运行结果获取应用运行情况
在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 实例”,选择上报告警实例主机名对应的角色。单击图标区域右上角下拉菜单,选择“定制 > 其它”,勾选“Broker上用户连接数使用率”,“Broker上用户最大连接数状况”和“Broker上
Manager。 选择“审计 > 配置”。 单击“审计日志转储”右侧的开关。 “审计日志转储”默认为不启用,开关显示为表示启用。 根据表1填写转储参数。 图1 转储参数 表1 审计日志转储参数 参数 示例 参数说明 SFTP IP 模式 IPv4 目标IP的IP地址模式,可选择“IPv4”或者“IPv6”。
环境变量”。 设置系统环境变量,在系统变量下单击“新建”,弹出新建系统变量框,变量名中输入“USERDNSDOMAIN”,变量值设为非空字符串,图中以“test”为例。 连续单击“确定”,完成系统环境变量的设置。 关闭样例工程,重新打开,运行。 查看调测结果 查看运行结果获取应用运行情况
Manager创建恢复ClickHouse任务并恢复数据。只支持创建任务手动恢复数据。 ClickHouse备份恢复功能不支持识别用户的ClickHouse表、索引、视图等对象在业务和结构上存在的关联关系。用户在执行备份恢复任务时,需要根据业务场景管理统一的恢复点,防止影响业务正常运行。 该功能仅MRS 3.1
选择“现有集群”,选中一集群并单击集群名,进入集群基本信息页面。 进入“补丁管理”页面,在操作列表中单击“安装”。 进入“警告”页面,阅读补丁说明,并单击“确定”。 图1 安装补丁 如果任务失败,选择“重试安装”,只有当“状态”显示为“已安装”时,才能进入下一步操作。 升级安装失败或者重试后仍然失败,不能直接回滚,请联系运维人员。
HetuEngine支持对接GBase操作的SQL语法:SHOW CATALOGS/SCHEMAS/TABLES/COLUMNS、DESCRIBE、USE、SELECT表/视图。 HetuEngine支持的GBase数据源的Schema和Table名称不区分大小写。 配置GBase数据源步骤 安装集群客户端 安装包
Path/Reference > Absolute Path”。 图1 复制配置文件绝对路径 使用clickhouse-example.properties路径替换ClickHouseFunc.java中getProperties()方法中proPath的路径。 图2 ClickHouseFunc.java路径替换
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 扩容/缩容集群Core节点或者Task节点成功。 错误码 请参见错误码。 父主题:
01),不支持添加作业。 单击“作业管理”,在作业列表界面单击“添加”。 “作业类型”选择“HiveSql”并参考表1配置HiveSql作业信息。 图1 添加HiveSql作业 表1 作业配置信息 参数 描述 示例 作业名称 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。
Language语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务,从而完成对Hadoop集群中存储的海量数据进行查询和分析。 图1 Hive结构 云搜索服务(Cloud Search Service,简称CSS)是一个基于Elasticsearch、OpenSearc
Path/Reference > Absolute Path”。 图1 复制配置文件绝对路径 使用clickhouse-example.properties路径替换ClickHouseFunc.java中getProperties()方法中proPath的路径。 图2 ClickHouseFunc.java路径替换
包率超过阈值”的检测。 登录MRS集群详情页面,选择“告警管理”。 搜索“12045”告警,将未自动清除的该告警全部手动清除,处理完毕。 图1 告警管理 “网络读包丢包率超过阈值”的告警ID是12045。 检查网卡是否配置了主备bond模式。 使用PuTTY工具,以omm用户登录告警所在节点,执行ls
', '{replica}') partition by age order by id; 创建MATERIALIZED VIEW,该视图会在后台转换Kafka引擎中的数据并将其放入创建的ClickHouse表中。 create materialized view consumer3
在Presto客户端中执行查询语句select * from hive.default.u_user; 查询alluxio上创建表。 图1 Presto查询alluxio上创建的表 父主题: 使用Alluxio
Admin权限,用来控制UDF包的上传。 通过Ranger对Spark SQL进行权限控制时,不支持empower语法。 开启Ranger鉴权后,对视图操作时,默认需要具备相关表的权限,如果需要对视图进行独立鉴权,不依赖相关表的权限,需要将参数spark.ranger.plugin.viewaccesscontrol
SQL进行权限控制时,不支持empower语法。 Ranger策略不支持本地路径以及HDFS上带空格的路径。 开启Ranger鉴权后,对视图操作时,默认需要具备相关表的权限,如果需要对视图进行独立鉴权,不依赖相关表的权限,需要将参数spark.ranger.plugin.viewaccesscontrol