检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
U使用率”显示正常(有数值),若满足执行9。若不满足执行下一步。 远程登录备Master节点,详情请参见登录MRS集群节点。 执行以下命令切换为omm用户。 su - omm 执行以下命令启动Agent。 sh /opt/Bigdata/nodeagent/bin/start-agent
视图联表查询时,需要同时给两者授予select权限。 不支持GaussDB和HetuEngine数据源列脱敏。 HetuEngine服务在切换权限控制类型时,需要重启整个HetuEngine服务,包括HSConsole页面上正在运行的HetuEngine计算实例。 HetuEngine基于Ranger权限管控
归档数据直读 关闭 企业项目 default 标签 - 等待桶创建好,单击桶名称,选择“文件 > 上传文件”,将数据文件上传至OBS并行文件系统内。 切换回MRS控制台,单击创建好的MRS集群名称,进入“概览”,单击“IAM用户同步”所在行的“单击同步”,等待约5分钟同步完成。 将数据文件上传HDFS。
Doris > 配置 > 全部配置”,搜索并查看“query_port”参数值获取。 执行以下命令创建数据库(例如名称为“example_db”)并切换。 create database if not exists example_db; use example_db; 执行以下命令创建表。
可执行6验证加密是否配置成功。 验证加密是否配置成功 仅当所配置的空表允许写入测试数据时可执行该操作。 以客户端安装用户,登录安装客户端的节点。切换到客户端安装目录,例如:/opt/client。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env
dfs-site.xml”文件。 hdfs-site.xml (可选)自定义配置。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户
component client is installed successfully 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行如下命令初始化环境变量。 source /opt/hadoopclient/bigdata_env
出现只有主键字段有值, 其他业务字段都是null的情况。 场景二: 在数据库单条数据大小超过8k(包括8k)场景下,update事件只包含变更字段,此时Hudi数据中会出现部分字段的值为__debezium_unavailable_value的情况。 相关命令如下,其中: 查询PostgreSQL表复制标识的命令为:
apache-iotdb-datasource plugins = data/plugins //Grafana的插件目录,即步骤 7创建的目录。 切换至Grafana的安装目录,执行以下命令启动Grafana服务: cd /opt/grafana/ nohup ./bin/grafana-server
在待安装客户端节点的“/etc/hosts”文件中设置集群所有节点主机名和IP地址映射,可执行以下步骤在hosts文件中导入集群的域名映射关系。 切换至root用户或者其他具有修改hosts文件权限的用户。 su - root 进入客户端解压目录。 cd /tmp/clienttemp/
迁移MRS集群内ClickHouse数据至其他MRS集群 本章节仅适用于MRS 3.2.0及之后版本。 操作场景 场景一:随着MRS ClickHouse业务数量的增长,原有集群的存储和计算资源已不满足业务需求,需要对集群进行拆分,将部分用户业务及数据库数据迁移到新建集群中。 场景二:MRS
客户端安装目录 source bigdata_env kinit 组件业务用户 执行以下命令创建存放导出数据的目录“e1”: mkdir ./e1 切换到数据导出脚本所在目录: cd IoTDB/iotdb/tools (可选)新建一个SQL文件,例如文件名为“s1.sql”,文件中包含一
/checkpoint 说明: 此路径随自定义数据路径变更。 检查点存放路径。 dataDirs ${BIGDATA_DATA_HOME}/hadoop/data1~N/flume/data 说明: 此路径随自定义数据路径变更。 数据缓存路径,设置多个路径可提升性能,中间用逗号分开。
xclude”表示策略适用于除去当前输入内容之外的其他对象。 table 将适用该策略的Hive表名称。 如果需要添加基于UDF的策略,可切换为UDF,然后输入UDF的名称。 “Include”策略适用于当前输入的对象,“Exclude”表示策略适用于除去当前输入内容之外的其他对象。
“hive.ignore-absent-partitions”默认为“true”。 单击“确定”。 登录集群客户端所在节点,执行以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户
先删除。 如果在创建索引后将列族TTL更改为较低值,则索引可能会晚于用户数据被删除。 HBase表启动容灾之后,主集群新建二级索引,索引表变更不会自动同步到备集群。要实现该容灾场景,必须执行以下操作: 在主表创建二级索引之后,需要在备集群使用相同方法创建结构、名称完全相同的二级索引。
中设置集群所有节点主机名和业务平面IP地址映射,主机名和IP地址请保持一一对应,可执行以下步骤在hosts文件中导入集群的域名映射关系。 切换至root用户或者其他具有修改hosts文件权限的用户。 su - root 进入客户端解压目录。 cd /tmp/clienttemp/
lude”表示策略适用于除去当前输入内容之外的其他对象。 table 适用该策略的Spark2x表名称。 如果需要添加基于UDF的策略,可切换为UDF,然后输入UDF的名称。 “Include”策略适用于当前输入的对象,“Exclude”表示策略适用于除去当前输入内容之外的其他对象。
被删除。 如果在创建索引后将列族TTL更改为较低值,则索引可能会晚于用户数据被删除。 HBase表启动容灾之后,主集群新建二级索引,索引表变更不会自动同步到备集群。要实现该容灾场景,必须执行以下操作: 在主表创建二级索引之后,需要在备集群使用相同方法创建结构、名称完全相同的二级索引。
持。 MRS 3.3.0-LTS及之后的版本中,Spark2x服务改名为Spark,服务包含的角色名也有差异,例如JobHistory2x变更为JobHistory。相关涉及服务名称、角色名称的描述和操作请以实际版本为准。 前提条件 已安装Ranger服务且服务运行正常。 已启用