检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Y”,也可以单击“新建委托”自行创建其他具有OBS文件系统操作权限的委托。 提交wordcount作业。 在MRS控制台选择“作业管理”页签,单击“添加”,进入“添加作业”页面,具体请参见运行MapReduce作业。 图4 wordcount作业 作业类型选择“MapReduce”。
因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS WebUI,单击“Overview”页签,查看Summary部分显示的HDFS中当前文件数量,目录数量和块数量信息。 在FusionInsight Manager首页,选择“集群 >
”。 区域:选择MRS集群所在区域。 文件系统名称:自定义名称,例如“mrs-ck-obs”。 单击已创建的并行文件系统名称,在“概览”页签中查看并记录“Endpoint”参数的值,即为OBS的Endpoint。 获取iam的Endpoint。 OBS的Endpoint中去掉前缀“obs
因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS WebUI,单击“Overview”页签,查看Summary部分显示的HDFS中当前文件数量,目录数量和块数量信息。 在FusionInsight Manager首页,选择“集群 >
mize”添加名称为“mysql_port”,值为“9004”的参数值。 参数值可以自行设置。 修改完成后,单击“保存”。 单击“概览”页签,选择“ 更多 > 重启实例”或者“ 更多 > 滚动重启实例”。 父主题: ClickHouse数据导入
配置弹性伸缩节点的自动化执行脚本 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 选择“弹性伸缩”页签。 单击“配置自动化脚本”按钮。 单击“添加”。参考表2配置相关参数。 单击“确定”保存自动化脚本配置。 父主题: 配置MRS集群节点引导操作
84:2181” 在Manager页面,选择“集群 > 服务 > HetuEngine > 实例”,获取HSBroker所有实例的业务IP;在“配置”页签,搜索“server.port”,获取HSBroker端口号。 user 访问HetuEngine的用户名,即在集群中创建的“人机”用户的用户名。
ZooKeeper客户端端口号: 登录FusionInsight Manager,选择“集群 > 服务 > ZooKeeper”,在“配置”页签查看“clientPort”的值。默认为24002。 从6和7回显中获取分区的分布信息和节点信息,在当前目录下创建执行重新分配的json文件。
服务页面。 在概览页签下的“基本信息”区域,单击“HSConsole WebUI”后的链接,进入HSConsole界面。 在“计算实例”页签,在待操作的实例所属租户所在行的“操作”列单击“配置”。 在“自定义配置”单击“增加”添加如下参数。 表1 容错执行参数 参数 取值示例 参数文件
根据集群版本选择对应的分支,下载并获取MRS相关样例工程。 例如本章节场景对应示例为“SparkStreamingKafka010JavaExample”样例,获取地址:https://github.com/huaweicloud/huaweicloud-mrs-example/tree/mrs-3.1.0/src
variables like '%gtid%'命令查看是否开启, 具体开启方法参考MySQL对应版本的官方文档。 (MySQL 8.x版本开启指导请参见https://dev.mysql.com/doc/refman/8.0/en/replication-mode-change-online-enable-gtids
单击页面右上角的用户名,在下拉列表中选择“我的凭证”。 在“API凭证”中,记录并保存“账号ID”的值,作为DomainID。 单击“访问密钥”页签,单击“新增访问密钥”,输入验证码或密码。单击“确定”,生成并下载访问密钥,在.csv文件中获取AK/SK信息。 创建云服务委托并绑定集群 登录MRS云服务管理控制台。
击“找到类”前需将其删掉。 图2 安全模式驱动设置 连接设置。 安全模式(开启Kerberos认证的集群): 在创建新连接页面的“常规”页签,输入2中创建的用户名和密码,单击“测试链接”,连接成功后,单击“确定”,再单击“完成”。可单击“连接详情(名称、类型...)”修改连接名称。
创建FlinkServer作业写入数据至ClickHouse表 本章节适用于MRS 3.1.2及之后的版本。 操作场景 Flink通过对接ClickHouse的ClickHouseBalancer实例进行读写,有效避免ClickHouse流量分发问题。FlinkSQL与ClickHouse数据类型对应关系如下表所示。
据目录,如果需要实现当节点有一个目录还可用的时候DataNode服务依然可用的效果,就需要如图5所示进行设置。 图5 未增强前属性设置 在自研增强版本的HDFS中,对该配置项进行了增强,增加了-1的值选项。当配置成-1的时候,所有DataNode节点只要还有一个数据存放卷,DataNode就能继续提供服务。
的文件为“test_data.csv”。 获取AK/SK信息。 单击页面右上角的用户名,在下拉列表中选择“我的凭证”。 单击“访问密钥”页签,单击“新增访问密钥”,输入验证码或密码。单击“确定”,生成并下载访问密钥,在.csv文件中获取AK/SK信息。 导入OBS数据至Doris表中
权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS WebUI,单击“Datanodes”页签,在“In operation”区域,打开“Filter”下拉菜单,查看是否有“down”选项。 是,选择“down”,记录筛选出的DataNode节点的信息,执行4。
SparkHome:集群中安装Spark的目录。 jars:应用程序代码和依赖包。 主体程序:处理数据 提交Application的描述请参见:https://archive.apache.org/dist/spark/docs/3.3.1/submitting-applications.html。
在左侧的导航列表中选择“SparkResource > 自定义”,参考表4配置参数。 单击“保存”,保存配置。 在MRS集群“组件管理”页签,查看是否存在“配置超期”的组件,如果存在请单击“操作”列的“重启”,重启相关组件。 重新下载并安装MRS集群完整客户端。具体操作请参考安装客户端。
UI”右侧“HMaster(主)”超链接,进入该HBase实例的WebUI界面,查看“Region Servers”区域“Base Stats”页签“Num.Regions”列上Region的个数分布是否均衡。 是,执行20。 否,执行16。 以omm用户登录HBase客户端所在节点。 进入客户端安装目录,设置环境变量。