检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询单个作业信息 功能介绍 在MRS集群中查询指定作业的详细信息。 接口约束 无 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id} 表1
'country'], bucketed_by = ARRAY['user_id'], bucket_count = 50 ); --插入空的分区 CALL system.create_empty_partition( schema_name => 'web',
删除数据连接 功能介绍 删除数据连接。 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/data-connectors/{connector_id} 表1 路径参数 参数 是否必选 参数类型 描述 connector_id 是 String
inkServer作业管理页面对接JDBC。 FlinkServer界面回显FlinkSQL时,SQL中的“password”字段将显示为空,在回显状态下需要将密码信息补齐后再提交作业。 Flink SQL与JDBC数据类型对应关系 Flink SQL数据类型 MySQL数据类型
删除弹性伸缩策略 功能介绍 删除弹性伸缩策略。 调用方法 请参见如何调用API。 URI DELETE /v2/{project_id}/autoscaling-policy/{cluster_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
MRS 3.2.0及以后版本,根据安全需求,FlinkServer界面回显FlinkSQL时,SQL中的“password”字段将显示为空,在回显状态下需要将密码信息补齐后再提交作业。 表1 FlinkSQL与ClickHouse数据类型对应关系 FlinkSQL数据类型 ClickHouse数据类型
使用BulkLoad工具向HBase中批量导入数据 应用场景 经常面临向HBase中导入大量数据的情景,向HBase中批量加载数据的方式有很多种,最直接方式是调用HBase的API使用put方法插入数据;另外一种是用MapReduce的方式从HDFS上加载数据。但是这两种方式效率
ClickHouse用户及权限管理 用户权限模型 ClickHouse用户权限管理实现了对集群中各个ClickHouse实例上用户、角色、权限的统一管理。通过Manager UI的权限管理模块进行创建用户、创建角色、绑定ClickHouse访问权限配置等操作,通过用户绑定角色的方式,实现用户权限控制。
使用Spark客户端创建CarbonData表 本章节介绍创建CarbonData table、加载数据,以及查询数据的快速入门流程。该快速入门提供基于Spark Beeline客户端的操作。如果使用Spark shell,需将查询命令写在spark.sql()的括号中。 本操作
使用Spark客户端创建CarbonData表 本章节介绍创建CarbonData table、加载数据,以及查询数据的快速入门流程。该快速入门提供基于Spark Beeline客户端的操作。如果使用Spark shell,需将查询命令写在spark.sql()的括号中。 本操作
快速使用IoTDB IoTDB是针对时间序列数据收集、存储与分析一体化的数据管理引擎。它具有体量轻、性能高、易使用的特点,支持对接Hadoop与Spark生态,适用于工业物联网应用中海量时间序列数据高速写入和复杂分析查询的需求。 背景信息 假定某某集团旗下有3个生产线,每个生产线
如果当前集群未启用Kerberos认证(集群为普通模式),客户端登录时如果需要指定用户名和密码。可以使用默认的default用户登录(default默认密码为空),也可以使用创建具有创建ClickHouse相关权限的用户登录。 说明: MRS 3.3.0-LTS及之后版本:未启用Kerberos认证
星期,参数值为0~6,0表示星期日。 “dfs.balancer.auto.stop.cron.expression”表示任务自动停止的时间,默认值为空,表示不自动停止正在运行的Balancer任务。以“0 5 * * 6”为例,则表示在每周六的5点停止正在运行的Balancer任务。仅在启用自动执行Balance功能时有效。
星期,参数值为0~6,0表示星期日。 “dfs.balancer.auto.stop.cron.expression”表示任务自动停止的时间,默认值为空,表示不自动停止正在运行的Balancer任务。以“0 5 * * 6”为例,则表示在每周六的5点停止正在运行的Balancer任务。仅在启用自动执行Balance功能时有效。
put("hbase.rootdir", args[2]); } //必配参数,若用户不输入,则该项为空 conf.put("hbase.conf", hbConf); //spout为随机单词spout
执行此步骤时,HBase表是被禁用的,不能对外提供表服务,请谨慎使用。 可执行6验证加密是否配置成功。 验证加密是否配置成功 仅当所配置的空表允许写入测试数据时可执行该操作。 以客户端安装用户,登录安装客户端的节点。切换到客户端安装目录,例如:/opt/client。 cd /opt/client
展示MRS版本列表 功能介绍 展示MRS版本列表。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/metadata/versions 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 参数解释: 项目编号。获取方法,请参见获取项目ID。
/install.sh /opt/hadoopclient 等待客户端安装成功。 客户端安装目录可以不存在,系统会自动创建,如果存在则必须为空。安装目录路径不能包含空格,且只能包含大写字母、小写字母、数字以及_字符。 卸载客户端请手动删除客户端安装目录。 检查客户端是否安装成功。
开源sqoop-shell工具使用示例(Oracle - HBase) 操作场景 本文将以“从Oracle导入数据到HBase”的作业为例,介绍如何分别在交互模式和批量模式下使用sqoop-shell工具进行创建和启动Loader作业。 本章节适用于MRS 3.x及后续版本。 前提条件
使用sqoop-shell工具导入数据到HBase 操作场景 本文将以从Oracle导入数据到HBase的作业为例,介绍如何分别在交互模式和批量模式下使用sqoop-shell工具进行创建和启动Loader作业。 前提条件 已安装并配置Loader客户端,具体操作请参见使用客户端运行Loader作业。