检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以客户端安装用户登录安装了HBase客户端的节点,并配置环境变量。 cd HBase客户端安装目录 source bigdata_env 若集群已启用Kerberos认证(安全模式),需执行以下命令认证用户。 kinit 组件业务用户 执行以下命令登录HBase客户端并修改表描述: hbase shell alter
> 重启实例”,重启所有FE实例。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 若集群已启用Kerberos认证(安全模式),需先执行以下命令再连接Doris数据库: export LIBMYSQL_ENABLE_CLEARTEXT_PLUGIN=1 mysql
Node”,如MapReduce、Java等。 所有的“Action Node”以有向无环图DAG(Direct Acyclic Graph)的模式部署运行。所以在“Action Node”的运行步骤上是有方向的,当上一个“Action Node”运行完成后才能运行下一个“Action
口可实现创建表、读取表、往表中插入数据等操作。 登录Manager界面,选择“集群 > 待操作集群的名称 > 集群属性”查看集群是否为安全模式。 是,执行2。 否,执行5。 选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置 > 全部配置 > JDBCServer2x
管理资源:Clickhouse权限管理支持的资源如表1所示。 资源权限:ClickHouse支持的资源权限如表2所示。 本章节不支持MRS 3.1.0普通模式(未开启Kerberos认证)集群。 表1 ClickHouse支持的权限管理对象 资源列表 是否集成 备注 数据库 是(一级) - 表 是(二级)
数,若原来为偶数则修改为奇数; 执行命令vi /etc/ldap.conf进入编辑模式,按“Insert”键开始编辑,然后将URI配置项的前两个IP进行调换。 修改完成后按“Esc”键退出编辑模式,并输入:wq保存退出。 执行命令service nscd restart,重启nscd服务,等待5分钟,再次执行id
HttpFS是个单独无状态的gateway进程,对外提供webHDFS接口,对HDFS使用FileSystem接口对接。可用于不同Hadoop版本间的数据传输,及用于访问在防火墙后的HDFS(HttpFS用作gateway)。 HDFS HA架构 HA即为High Availability,用于解决NameNode
为当前租户选择动态计算资源。 选择“Yarn”时,系统自动在Yarn中以租户名称创建任务队列。 不选择“Yarn”时,系统不会自动创建任务队列。 配置模式 计算资源参数配置模式。 选择“基础”时,只需配置“默认资源池容量 (%)”参数即可。 选择“高级”时,可手动配置资源分配权重,租户的最小/最大/预留资源。
在创建的Source流表中添加“subtask.scan.records-per-second.limit”参数,该参数表示每秒消费Kafka单分区记录数,因此Source端整体限流速率为:min( source parallelism * subtask.scan.records-per-second
用于指定列被修改后出现的位置)或者以上任意组合。如果语法中包含了分区子句,那么相应分区的元数据也会一起变动。CASCADE模式会让语法对表和表分区的元数据产生作用,而默认的模式为RESTRICT,对列的修改,仅对表的元数据产生作用。 列修改命令只能修改表/分区的元数据,而不会修改数据本身。
is数据库。 export LIBMYSQL_ENABLE_CLEARTEXT_PLUGIN=1 (若集群已启用Kerberos认证(安全模式)需执行该命令) mysql -u数据库登录用户 -p数据库登录用户密码 -P数据库连接端口 -hDoris FE实例IP地址 数据库连接端口为Doris
以root用户登录客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行如下命令: cd 客户端安装目录 source bigdata_env 如为安全模式集群,请执行kinit hbase 登录HMaster WebUI,在导航栏选择“Procedure & Locks”,在Procedur
enabled String类型,是否开启TTL 否,false或者true,默认是false strategy String类型,TTL的触发模式 否,NUM_COMMITS或者TIME_ELAPSED,默认是NUM_COMMITS value String类型,TTL的触发间隔时间
使用SparkSql编辑器之前需要先修改Spark2x配置。 进入Spark2x的全部配置页面,具体操作请参考修改集群服务配置参数。 设置Spark2x多实例模式,搜索并修改Spark2x服务的以下参数: 参数名称 值 spark.thriftserver.proxy.enabled false spark
--enable-hive-sync // 开启hive同步,同步hudi表到hive --continuous // 指定流处理模式为连续模式 HoodieMultiTableDeltaStreamer流式写入 HoodieMultiTableDeltaStreamer流式写入仅适用于MRS
b文件在应用程序中进行认证。 在集群开启Kerberos认证环境下,样例代码需要使用的认证方式如表1所示: 表1 安全认证方式 样例代码 模式 安全认证方式 spark-examples-normal yarn-client 命令认证、配置认证或代码认证,三种任选一种。 yarn-cluster
have”查看所有异常的Tablet信息。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 若集群已启用Kerberos认证(安全模式),需先执行以下命令再连接Doris数据库: export LIBMYSQL_ENABLE_CLEARTEXT_PLUGIN=1 mysql
/client”),并配置环境变量。 cd /opt/client source bigdata_env 执行以下命令进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server <任一ZooKeeper实例所在节点业务IP>:<clientPort>
请确保客户端用户具备对应目录权限。 principal名。 security.kerberos.login.principal: abc222 对于HA模式,如果配置了ZooKeeper,还需要设置ZooKeeper Kerberos认证相关的配置。 zookeeper.sasl.disable:
使用SparkSql编辑器之前需要先修改Spark2x配置。 进入Spark2x的全部配置页面,具体操作请参考修改集群服务配置参数。 设置Spark2x多实例模式,搜索并修改Spark2x服务的以下参数: 参数名称 值 spark.thriftserver.proxy.enabled false spark