检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
r时需要进行身份认证,认证方式有以下两种: keytab方式:需要从MRS集群管理员处获取一个“人机”用户,用于登录MRS平台并通过认证,并且获取到该用户的keytab文件。 票据方式:从MRS集群管理员处获取一个“人机”用户,用于后续的安全登录,开启Kerberos服务的ren
一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。对分区内数据进行查询,可缩小查询范围,加快数据的检索速度和可对数据按照一定的条件进行管理。 分区是在创建表的时候用PARTITIONED BY子句定义的。 CREATE EXTERNAL TABLE IF NOT EXISTS
通过Manager页面跳转HDFS WebUI页面偶现失败,报错“重定向次数过多”,此时其他组件的WebUI能正常访问。 原因分析 Knox为双活组件,运行过程中出现主备之间数据不同步问题导致。 处理步骤 任意通过其他组件页面跳转对应WebUI页面,等待跳转成功。 然后重新访问HDFS
统中的指定路径进行更加细粒度的权限控制,可参考配置MRS集群用户的OBS的细粒度访问权限创建自定义的角色策略。 登录华为云管理控制台。 在服务列表中选择“管理与监管 > 统一身份认证服务 IAM”。 选择“委托 > 创建委托”。 设置“委托名称”,例如:mrs_ecs_obs。
-m --secure --query="SELECT * FROM 表名" > csv文件导出路径 使用示例: clickhouse client --host 10.5.208.5 --database testdb --port 9440 -m --secure --query="SELECT
查看作业执行结果。 进入“作业管理”页面,查看作业是否执行完成。 作业运行需要时间,作业运行结束后,刷新作业列表。 作业执行成功或失败后都不能再次执行,只能新增作业,配置作业参数后重新提交作业。 进入Yarn原生界面,查看作业输出信息。 进入“作业管理”页面,单击对应作业所在行“操
使用HDFS HDFS文件系统目录简介 HDFS用户权限管理 HDFS客户端使用实践 快速使用Hadoop 配置HDFS文件回收站机制 配置HDFS DataNode数据均衡 配置HDFS DiskBalancer磁盘均衡 配置HDFS Mover命令迁移数据 配置HDFS文件目录标签策略(NodeLabel)
工程,选择“Run MultiComponentLocalRunner.main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境配置文件中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce
工程,选择“Run MultiComponentLocalRunner.main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce
buffer-flush.max-rows' = '0', 'sink.buffer-flush.interval' = '0s' 查看作业管理界面,作业状态为“运行中”。 参考管理Kafka Topic中的消息,向kafka中写入数据。 sh kafka-console-producer.sh --broker-list
-m --secure --query="SELECT * FROM 表名" > csv文件导出路径 使用示例: clickhouse client --host 10.5.208.5 --database testdb --port 9440 -m --secure --query="SELECT
远端节点用户需要对下载路径具有写权限。 登录方式 密码 登录方式: 密码:使用密码登录。 SSH私钥:使用SSH私钥登录。 免密:选择该方式,用户需要具有免密登录节点的功能。 登录用户密码 xxx “登录方式”选择“密码”时,需要配置该参数。 配置为登录用户的密码。 SSH私钥 -
工程,选择“Run MultiComponentLocalRunner.main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce
配置集群节点信息。 Kerberos认证 不开启 是否启用Kerberos认证。 用户名 admin/root 登录集群管理页面及ECS节点的用户名。 密码 - 设置登录集群管理页面及ECS节点用户的密码。 确认密码 - 再次输入设置用户密码。 企业项目 default 选择集群所属的企业项目。
properties”和“hive-site.xml”文件,并在Linux环境上创建文件夹保存这些配置文件,例如/opt/client/conf。 请联系管理员获取相应账号对应权限的“user.keytab”和“krb5.conf”文件,“hbase-site.xml”从HBase客户端获取,“hiveclient
rver实例所在节点是否故障。 登录MRS集群详情页面,选择“组件管理”。 选择“LdapServer > 实例”。进入LdapServer实例页面获取两个SlapdServer实例所在节点的主机名。 在“告警管理”页面,查看是否有ALM-12006 节点故障告警产生。 是,执行1
端执行用户(例如操作系统用户“root”等)自动完成认证,管理员或业务用户不显示感知认证。而且客户端在运行时,甚至可以通过注入UserGroupInformation来伪装成任意用户(包括superuser),集群资源管理接口和数据控制接口在服务端无认证和鉴权控制,很容易被黑客利用和攻击。
解决Flink上传UDF后UI分页显示异常的问题。 解决Flink流读Hudi数据时间显示会少8小时的问题。 解决使用FlinkServer创建SASL_SSL认证的kafka连接,执行报错的问题。 解决Flink对接Guardian启用OBS,Flink作业重启偶现重启失败的问题。 解决DataArts
P访问MySQL。 图3 集群列表 如果用户对本地数据源的访问通道做了SSL加密,则CDM无法通过弹性IP连接数据源。 步骤3:创建MySQL连接 在CDM集群管理界面,单击集群后的“作业管理”,选择“连接管理 > 新建连接”,进入连接器类型的选择界面。 图4 选择连接器类型 选
过ClickHouse服务配置中搜索“tcp_port_secure”参数获取。 例如执行命令如下: clickhouse client --host 192.168.64.10 --port 21427 --secure 执行以下命令,查看程序创建的数据表内容。 select *