检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
zhaosi 输入完成后按回车发送消息。 登录MySQL客户端执行以下命令查看Sink表中是否接收到数据。 Select * from customer_t1; JDBC作为Source表(以MySQL为例) 使用flinkuser登录Manager,选择“集群 > 服务 > Flink”,在“Flink
x及之后版本) 登录FusionInsight Manager。 选择“集群 > 停止”(MRS 3.3.0及之后版本,在主页右上角选择“更多 > 停止”),输入当前登录的用户密码确认身份。 在确认停止的对话框单击“确定”,等待界面提示停止成功。 以omm用户登录主管理节点。 执行以下命令,防止超时退出。
元。 数据规划 使用Spark-Beeline工具创建Spark和HBase表table1、table2,并通过HBase插入数据。 确保JDBCServer已启动。登录Spark2x客户端节点。 使用Spark-Beeline工具创建Spark表table1。 create table
request.timeout.ms 设置客户端发送连接请求后,等待响应的超时时间。单位:毫秒。 30000 Broker节点上的Controller、Replica线程中传入networkclient连接的超时参数,如果在超时时间内没有接收到响应,那么客户端重新发送,并在达到重试次数后返回请求失败。
properties”中进行配置,配置文件路径为“Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf/properties.properties”。 部分配置可能需要填写加密后的信息,请参见使用Flume客户端加密工具。 常用Source配置 Avro Source
如何给集群内用户添加租户管理权限? 分析集群和混合集群支持添加租户管理权限,流式集群不支持添加租户管理权限。给新建账号添加租户管理权限方法如下: MRS 3.x之前版本: 登录MRS Manager。 在“系统设置 > 用户管理”中选择新建的用户,单击“操作”列中的“修改”。 在“分配角色权限”中单击“选择并绑定角色”。
Mapping,未配置WhiteList参数,该任务所配置的Schema的CDL任务未同步的表过多,导致CDL任务名称创建时分区过多。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > CDL”,单击“CDLService UI”右侧的超链接进入CDLService
Loader作为批量数据导出的组件,可以通过关系型数据库导入、导出数据。在连接关系型数据库前,需提前手动上传驱动。 操作步骤 修改关系型数据库对应的驱动jar包文件权限。 登录Loader服务的主备管理节点,获取关系型数据库对应的驱动jar包保存在Loader服务主备节点的lib路径:“${BIGDATA_HOM
集群Master节点NTP时间与集群外节点的NTP服务器时间不同步,时间相差超过15min,导致集群访问OBS时鉴权失败,上报403异常。 处理步骤 以root用户登录集群主Master节点。 修改“${BIGDATA_HOME}/om-server/om/inst/conf/oms-config.ini
数或修改参数值进行开启。 本章节操作适用于MRS 3.x及之后版本。 配置描述 在客户端的“mapred-site.xml”配置文件中进行如下配置。“mapred-site.xml”配置文件在客户端安装路径的config目录下,例如“/opt/client/Yarn/config”。
directory"配置选项设置成自定义目录时,需要手动赋予用户该目录的owner权限。以下以MRS的admin用户为例。 修改Flink客户端配置文件conf/flink-conf.yaml,配置blob.storage.directory: /home/testdir/testdirdir/xxx。
enabled false true 重启Spark2x服务,配置生效。 如果需要在Spark2x客户端用External Shuffle Service功能,需要重新下载并安装Spark2x客户端。 父主题: Spark Core性能调优
检查网络是否故障,无法访问ldap服务器。 用root用户登录故障节点,在这个节点上使用ping命令检查该节点与LdapServer节点的网络是否畅通。 是,执行6。 否,请联系网络管理员,解决网络故障。 检查Name Service服务是否异常。 用root用户登录故障节点,执行cat /etc/nsswitch
录下,确保driver能够正常加载kafka包。 解决方案 提交yarn-client模式的结构流任务时需要额外如下操作: 将Spark客户端目录下spark-default.conf文件中的spark.driver.extraClassPath配置复制出来,并将Kafka相关j
e实例,元数据未隔离。 暂不支持Flink,Flink任务均使用客户端配置,仍可连接所有MetaStore实例,不支持统一配置。 使用spark-sql执行任务时客户端直接连接MetaStore,隔离后需要更新客户端才可生效。 此功能仅支持同集群内隔离,HetuEngine不同集
进入Storm服务参数配置界面。 MRS Manager界面操作:登录MRS Manager页面,选择“服务管理 > Storm > 服务配置”,“参数类别”选择“全部配置”。 FusionInsight Manager界面操作:登录FusionInsight Manager,选择“集群 >
存路径”和“转储模式”配置项。 是FTP模式,执行6。 是SFTP模式,执行7。 登录服务器,在默认目录下查看相对路径“保存路径”是否有“FTP用户名”的读写权限。 是,执行9。 否,执行8。 登录服务器,查看绝对路径“保存路径”是否有“FTP用户名”的读写权限。 是,执行9。 否,执行8。
ClickHouse租户支持CPU优先级,该特性依赖OS的CAP_SYS_NICE能力,需要开启该能力才可以生效。 操作步骤 使用root用户登录ClickHouseServer实例节点,执行如下命令: setcap cap_sys_nice=+ep /opt/Bigdata/Fus
0版本。 前提条件 ClickHouse集群和实例状态正常。 已评估好要扩容的ClickHouse节点数据盘磁盘容量大小。 扩容数据盘磁盘容量 登录MRS控制台,在左侧导航栏选择“现有集群”,单击集群名称。 单击“节点管理”,在对应的ClickHouse节点组下,单击要扩容的节点名称,进入到“云硬盘”界面。
前提条件 ClickHouse集群和实例状态正常。 已评估好要扩容的ClickHouse节点数据盘磁盘容量大小。 扩容数据盘磁盘容量 登录MRS控制台,在左侧导航栏选择“现有集群”,单击集群名称。 单击“节点管理”,在对应的ClickHouse节点组下,单击要扩容的节点名称,进入到“云硬盘”界面。