检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
rn时,由于使用了SSL安全加密,需要确保Curl命令所支持的SSL协议在集群中已添加支持。若不支持,可对应修改集群中SSL协议。例如,若Curl仅支持TLSv1协议,修改方法如下: 登录FusionInsight Manager页面,选择“集群 > 待操作集群的名称 > 服务 >
> 配置Independent”。 打开或关闭Independent属性,根据提示输入密码,单击“确认”完成身份验证。 身份验证通过后,等待修改OMS配置完成,单击“完成”结束操作。 关闭Independent属性功能后: 已拥有这个属性的业务用户可以在右上角用户名下取消Indep
息(MRS 3.1.2及之后版本)。 前提条件 使用Kafka客户端时:已安装客户端,例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用KafkaUI时:已创建具有KafkaUI页面访问权限的用户,如需在页面上进行相关操作,例如
BC二次样例; “客户端安装目录/JDBCTransaction”目录,用来调测事务二次样例。 登录客户端节点,进入jar文件上传目录下,修改文件权限为700。 cd 客户端安装目录/JDBC 或:cd 客户端安装目录/JDBCTransaction chmod 700 clickhouse-examples-*
在数据入库/湖后,对于发生变化的表/分区进行主动refresh更新impala元数据 在非Impala引擎(Hive,Spark等)新建、修改表,需要在Impala侧执行Invalidate metadata <table>同步表schema信息,需要查询该表时才会同步全量元数据
值(默认90%)。 如果无对应图表,可单击右侧下拉三角,选择“定制”并勾选对应项,单击“确定”。 是,执行3。 否,执行6。 联系运维人员修改对应进程的内存使用配置。 重启上报告警对应的进程。 等待10分钟,观察界面告警是否清除。 是,处理完毕。 否,执行6。 收集故障信息。 在FusionInsight
useTicketCache=false storeKey=true debug=true; }; 文件内容中的test@<系统域名>为示例,实际操作时请做相应修改。 在Linux环境中添加样例工程运行所需的classpath,例如: export YARN_USER_CLASSPATH=
登录FusionInsight Manager界面,查看右上角任务。 查看当前集群是否存在正在运行的任务。 是,等待任务运行结束。 否,检查结束。 检查集群是否有非标修改组件配置的操作 询问客户是否有做过相关操作。 查看该客户档案,是否有记录相关非标操作。 是,需要详细评估补丁跟非标配置的兼容性。 否,检查结束。
集群操作指导 MapReduce服务 MRS 创建MRS集群 04:11 创建MRS集群 MapReduce服务 MRS 修改服务配置参数 04:01 MRS修改服务配置参数指导 MapReduce服务 MRS 配置MRS集群弹性伸缩 03:44 配置MRS集群弹性伸缩 MapReduce服务
S.html 准备运行环境 安装集群客户端,例如客户端安装目录为“/opt/client”。 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改。 kinit hdfs kinit认证的默认时效为24小时,到期后再次运行样例,需要重新执行kinit。 在客户端
html。 准备运行环境 安装集群客户端,例如客户端安装目录为“/opt/client”。 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改。 kinit hdfs kinit认证的默认时效为24小时,到期后再次运行样例,需要重新执行kinit。 在客户端
TABLE AS操作 使用CREATE TABLE时不支持partitioned_by和bucketed_by 不支持使用alter table修改column 描述 创建包含SELECT查询结果的新表。 使用CREATE TABLE创建空表。 使用IF NOT EXISTS子句时,如果表已经存在则不会报错。
Client配置文件。 根据Flume Agent的配置说明检查“properties.properties”的配置是否有误。 是,执行3.e。 否,执行4。 修改“properties.properties”配置文件。 查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行4。 收集故障信息。
Spark Structured Streaming对接Kafka样例程序(Scala) 功能介绍 使用Structured Streaming,从Kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据和广告有效点击统计数据,将统计结果写入kafka中。
Spark Structured Streaming对接Kafka样例程序(Scala) 功能介绍 使用Structured Streaming,从kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据和广告有效点击统计数据,将统计结果写入kafka中。
DB的监测和告警会损失RocksDB的5%~10%性能。 为了避免对其他作业的影响,RocksDB监测的相关配置通过自定义参数生效,本章节为您介绍开启RocksDB监测和告警和相关调优参数。 开启Flink作业RocksDB监测步骤 使用具有FlinkServer管理员权限的用户登录FusionInsight
> 阈值设置 > 待操作集群的名称 > IoTDB > GC > ConfigNode垃圾回收(GC)总时间 (ConfigNode)”来修改阈值,阈值每次增长20%。 告警属性 告警ID 告警级别 是否自动清除 45590 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。
例如: sh upgrade_client.sh upgrade /opt/client/ 更新客户端配置 当前补丁Spark组件优化了数据库和表的location的黑名单目录列表,在{客户端安装目录}/Spark/spark/conf/spark-defaults.conf文件的参数spark
xml”文件,且根据实际集群情况配置所需要的参数。JDBCServer相关参数详情,请参见Spark JDBCServer接口介绍。 开发思路 在default数据库下创建child表。 把“/home/data”的数据加载进child表中。 查询child表中的数据。 删除child表。 打包项目 通
Spark Structured Streaming对接Kafka样例程序(Scala) 功能介绍 使用Structured Streaming,从kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据和广告有效点击统计数据,将统计结果写入kafka中。