检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在Linux环境中调测HBase应用 操作场景 HBase应用程序支持在安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 已安装客户端时: 已安装HBase客户端。 当客户端所在主机不是集群中的节点时,需要
在Linux环境中调测Doris应用 操作场景 在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在
景需求确认是否需要配置委托。集群的Hadoop、Hive、Spark、Presto、Flink组件支持该功能。通过IAM委托对接OBS主要操作如下: 创建具有访问OBS权限的ECS委托 创建存算分离集群 创建OBS文件系统用于存放数据 配置生命周期规则 创建具有访问OBS权限的ECS委托
在Linux环境中调测Doris应用 操作场景 在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在
DELETE /v2/{project_id}/clusters/{cluster_id}/iam-sync-user 标签管理接口 集群操作默认标签 POST /v2/{project_id}/clusters/{cluster_id}/tags/switch 查询默认标签状态
开启Kerberos认证 用户名 MRS集群Manager及节点的默认登录用户,admin用户用于登录集群的Manager管理界面,root用户为集群内节点的操作系统管理用户,用于节点登录。 - 密码/确认密码 设置root用户和admin用户密码,该密码由用户自定义,请妥善保管。 - 企业项目 企
角色,其中spout发送消息,负责将数据流以tuple元组的形式发送出去;而bolt则负责转换这些数据流,在bolt中可以完成计算、过滤等操作,bolt自身也可以随机将数据发送给其他bolt。由spout发射出的tuple是不可变数组,对应着固定的键值对。 图1 Storm基本架构
使用Hive dialect需要注意: Hive dialect只能用于操作Hive表,不能用于普通表。Hive方言应与HiveCatalog一起使用。 虽然所有Hive版本都支持相同的语法,但是是否有特定功能仍然取决于使用的Hive版本。例如仅在Hive-2.7.0或更高版本中支持更新数据库位置。
在Linux环境中调测HBase应用 操作场景 HBase应用程序支持在已安装或未安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装客户端时: 已安装HBase客户端。 当客户端所在主机不是集
4993-a988-55e2543d1084 规格 集群类型和核数,例如:普通集群单位产品|8个(次) 弹性云服务器类型、vCPU、内存和操作系统,例如:通用计算型|Si2.2xlarge.4|8vCPUs|32GB|linux 云硬盘的类型和容量,例如:高IO|100GB 使用量类型
conn.getTable(TableName.valueOf(tableName)); // 创建一个HBase Get操作实例 Get get = new Get(hbaseKey.getBytes()); // 提交Get请求
响应Body参数 参数 参数类型 描述 id String 参数解释: SQL的执行id。执行select、show和desc语句时才会生成id,其他操作id为空。 取值范围: 不涉及 message String 参数解释: 错误信息。 取值范围: 不涉及 statement String
在本地Windows中调测HDFS程序 操作场景 在代码完成开发后,您可以在Windows开发环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 在本地Windows中调测HDFS程序
conn.getTable(TableName.valueOf(tableName)); // 创建一个HBase Get操作实例 Get get = new Get(hbaseKey.getBytes()); // 提交Get请求
link客户端的运行步骤是一样的。 基于YARN集群的Flink应用程序不支持在Windows环境下运行,只支持在Linux环境下运行。 操作步骤 在IntelliJ IDEA中,在生成Jar包之前配置工程的Artifacts信息。 在IDEA主页面,选择“File > Project
响应Body参数 参数 参数类型 描述 id String 参数解释: SQL的执行id。执行select、show和desc语句时才会生成id,其他操作id为空。 取值范围: 不涉及 message String 参数解释: 错误信息。 取值范围: 不涉及 statement String
顺序为“每天”、“每周”、“每月”。例如,有“每月”与“每天”的调度配置组,时间区间分别为4:00到7:00,6:00到8:00,此时以每月的配置组为准。 若多个配置组的“重复策略”类型相同,当日期不相同时,则时间区间可以重叠。例如,有两个“每周”的调度配置组,可以分别指定时间区间为周一和周三的4:00到7:00。
TableMapReduceUtil.addDependencyJars(job); // 安全模式下必须要执行这个操作 // HBase添加鉴权信息到Job,map或reduce任务将会使用此处的鉴权信息 TableMapReduceUtil
在Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件
TableMapReduceUtil.addDependencyJars(job); // 安全模式下必须要执行这个操作 // HBase添加鉴权信息到Job,map或reduce任务将会使用此处的鉴权信息 TableMapReduceUtil