检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
> 实例”,选择对应的实例节点,单击“启动实例”,完成实例启动。 实例启动成功后,使用ClickHouse客户端登录问题节点。命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。 clickhouse client --host
进入客户端安装目录,配置环境变量。 cd 客户端安装目录 source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase 按提示输入密码(向MRS集群管理员获取密码)。 执行以下命令查看目前负载均衡功能是否打开,结果显示为“true”,则表示负载均衡功能已打开。
{ Config conf = new Config(); //增加kerberos认证所需的plugin到列表中,安全模式必选 setSecurityConf(conf,AuthenticationType
have”查看所有较大的Tablet信息。 登录安装了MySQL的节点,执行以下命令,连接Doris数据库。 若集群已启用Kerberos认证(安全模式),需先执行以下命令再连接Doris数据库: export LIBMYSQL_ENABLE_CLEARTEXT_PLUGIN=1
well使用。使用root登录MySQL之后,执行如下命令创建maxwell用户(其中XXXXXX是密码,请修改为实际值)。命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。 如果Maxwell程序部署在非MySQL机
是否必填 说明 默认值 user 是 连接MySQL的用户名,即2中新创建的用户 - password 是 连接MySQL的密码,配置文件中包含认证密码信息可能存在安全风险,建议当前场景执行完毕后删除相关配置文件或加强安全管理。 - host 否 MySQL地址 localhost port
索引数据 以客户端安装用户登录安装了客户端的节点。 执行以下命令配置环境变量并认证用户: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(未开启Kerberos认证的集群请跳过该操作) 将数据导入到HDFS中。 hdfs dfs -mkdir
索引数据 以客户端安装用户登录安装了客户端的节点。 执行以下命令配置环境变量并认证用户: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(未开启Kerberos认证的集群请跳过该操作) 将数据导入到HDFS中。 hdfs dfs -mkdir
gaussuser1的HetuEngine用户。例如创建hetuuser1映射到gaussuser1。 Password 对应数据源的用户认证密码。 (可选)配置 HetuEngine-GaussDB用户映射配置,参考表4 HetuEngine-GaussDB用户映射配置。 以HetuEngine
t”。 cd /opt/kafkaclient 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证(普通模式跳过此步骤)。 kinit 组件业务用户 执行以下命令,切换到Kafka客户端目录。 cd Kafka/kafka/bin 执行
Hudi/component_env kinit 创建的用户 新创建的用户需要修改密码,更改密码后重新kinit登录。 普通模式(未开启kerberos认证)无需执行kinit命令。 多服务场景下,在source bigdata_env之后,请先source Spark服务的component_env,再去source
用WinScp工具将Storm客户端安装包导入Linux环境并安装客户端,参见准备Linux客户端环境。 如果集群启用了安全服务,需要从管理员处获取一个“人机”用户,用于认证,并且获取到该用户的keytab文件。将获取到的文件拷贝到示例工程的 src/main/resources目录。 获取的用户需要同时属于storm组和kafka组。
private static void init() throws ClassNotFoundException { // 认证用的密码写入代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; // 本示
损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 可能原因 LdapServer进程所在的节点网络故障。 LdapServer进程异常。 OS重启导致的LdapServer数据损坏。
https://console.huaweicloud.com/apiexplorer/#/endpoint/OBS 。 配置文件中包含认证密码信息可能存在安全风险,建议当前场景执行完毕后删除相关配置文件或加强安全管理。 修改HDFS客户端“core-site.xml”文件中的“fs
解决查看指定时间段内的资源概况,监控数据部分缺失问题 解决NameNode退服缓存残留问题 解决Metastore监控指标缺失问题 解决认证krb_test_user失败问题 解决Yarn所有业务中断,报错Timer already cancelled问题 解决实例配置页面无单位转换问题
创建Job 启动Job 删除Job IoTDB审计日志 维护管理 授权 收回权限 认证和登录信息 业务操作 删除时间序列/分区/函数/索引 修改时间序列操作 ClickHouse审计日志 维护管理 授权 收回权限 认证和登录信息 业务操作 创建数据库/表 插入、删除、查询、执行数据迁移任务
若需要在本地Windows调测HBase样例代码,需参考表1放置各样例项目所需的配置文件: 表1 放置各样例项目所需的配置文件 样例工程位置 需放置的配置/认证文件 hbase-examples/hbase-example(单集群场景) 需将准备运行环境配置文件获取的“core-site.xml”、“hbase-site
载具体实例的环境变量。 source bigdata_env source Spark2x/component_env kinit <用于认证的业务用户> 在bin目录下调用以下脚本提交Spark应用程序。 spark-submit --classcom.huaweixxx.bigdata
当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的IoTDB数据。 对系统的影响 恢复过程中会停止用户认证,用户无法开始新的连接。 数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。 数据恢复后,需要重新启动IoTDB的上层应用。 前提条件 如