检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
集群版本:请根据实际需求选择集群版本,例如:MRS 3.2.0-LTS.1。 组件选择:请根据业务需求合理选择需要的组件,部分类型集群创建后不支持添加服务。 元数据:选择“本地元数据”。 网络配置: 可用区:默认即可。 虚拟私有云:默认即可。 子网:默认即可。 安全组:默认即可。 弹性公网IP:默认即可。 节点配置:
对象。 SphericalGeography类型为地理坐标(有时称为大地坐标或lat / lon或lon / lat)上表示的空间要素提供本地支持。地理坐标是以角度单位(度)表示的球坐标。几何类型的基础是平面。平面上两点之间的最短路径是一条直线。这意味着可以使用笛卡尔数学和直线矢
E/TABLE时未使用ON CLUSTER语句,则权限操作可能无法展示该资源,不保证可以对其赋权。对于这样单个ClickHouse节点中的本地表,如果需要赋权,则可以通过后台客户端进行操作。 以下操作,需要提前获取到需要赋权的角色、数据库或表名称、对应的ClickHouseServer实例所在的节点IP和系统域名。
com/huaweicloud/huaweicloud-mrs-example,切换分支为与MRS集群相匹配的版本分支,然后下载压缩包到本地后解压,即可获取各组件对应的样例代码工程。 当前MRS提供以下Doris相关样例工程: 表1 Doris相关样例工程 样例工程位置 描述
创建,具体操作请参见。安全模式下,“机机”用户需要下载keytab文件,具体操作请参见。“人机”用户第一次登录时需修改密码。 操作步骤 在本地准备CSV文件,文件名为:example-filename.csv,内容如下: Time,root.fit.d1.s1,root.fit.d1
com/docs/zh/engines/table-engines/integrations/kafka。 通过客户端连接ClickHouse创建本地表,示例如下: CREATE TABLE daily1( key String, value String, event_date DateTime
ConnectionPassword ****** Metastore上连接外置元数据的数据库用户密码。密码后台会加密。 登录所有MetaStore服务的后台节点,检查本地目录“/opt/Bigdata/tmp”是否存在。 存在,直接执行4。 不存在,则先执行以下命令,创建目录。 mkdir -p /opt/Bigdata/tmp
agentplugin.log 监控agent侧插件运行日志 omaplugin.log OMA插件运行日志 diskhealth.log 磁盘健康检查日志 supressionAlarm.log 告警脚本运行日志 updateHostFile.log 更新主机列表日志 collectLog
延迟时间。 <triggerInterver>指流处理任务的触发间隔。 <checkpointDir>指checkpoint文件存放路径,本地或者HDFS路径下。 <kafkaProtocol>指安全访问协议(如SASL_PLAINTEXT)。 <kafkaService>指kerberos服务名称(如kafka)。
submitTopology(args[0], conf, builder.createTopology()); } } 部署运行及结果查看 导出本地jar包,请参见打包Storm样例工程应用。 获取下列jar包: 在安装好的db数据库目录下进入lib目录,获取如下jar包: derbyclient
组件名称 Hive 模块类型 Hive元数据 连接类型 RDS服务PostgreSQL数据库(1.9.x版本支持) RDS服务MySQL数据库 本地数据库 连接实例 当“连接类型”参数选择“RDS服务PostgreSQL数据库”或“RDS服务MySQL数据库”时有效。选择MRS集群与R
submitTopology(args[0], conf, builder.createTopology()); } } 部署运行及结果查看 导出本地jar包,请参见打包Strom样例工程应用。 获取下列jar包: 在安装好的db数据库目录下进入lib目录,获取如下jar包: derbyclient
task.expire-time.day:计算实例日志归档在HDFS的过期时间,默认值:30天。 log.max-history:计算实例日志在本地的最大保留时间,默认值:7天。 log.clean.task.schedule.plan:自动清理计算实例日志的调度计划。值为cron表达
RollingFileAppender log4j.appender.DUAL.File=/var/log/dual.log //客户端本地双读日志路径,根据实际路径修改,但目录要有写入权限 log4j.additivity.DUAL=false log4j.appender
3:已取消。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 hive_script_path String 参数解释: Hive脚本地址。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 create_by String 参数解释: 创建作业的用户ID。 约束限制:
RollingFileAppender log4j.appender.DUAL.File=/var/log/dual.log //客户端本地双读日志路径,根据实际路径修改,但目录要有写入权限 log4j.additivity.DUAL=false log4j.appender
ESS ... /user/example/output/part-r-0000 输出结果保存在HDFS文件系统中,可以通过命令将其下载到本地进行查看。 例如执行以下命令: hdfs dfs -get /user/example/output/part-r-00000 /opt cat
Content-Length: 0 根据获取的Location地址信息,可在HDFS文件系统上创建“/huawei/testHdfs”文件,并将本地“testFile”中的内容上传至“testHdfs”文件。 执行如下命令访问HTTP: linux1:/opt/client # curl
uri 是 String 参数解释: 自定义自动化脚本的路径。设置为OBS桶的路径或虚拟机本地的路径。 OBS桶的路径:直接手动输入脚本路径。示例:s3a://XXX/scale.sh 虚拟机本地的路径:用户需要输入正确的脚本路径。脚本所在的路径必须以‘/’开头,以.sh结尾。 约束限制:
Content-Length: 0 根据获取的Location地址信息,可在HDFS文件系统上创建“/huawei/testHdfs”文件,并将本地“testFile”中的内容上传至“testHdfs”文件。 执行如下命令访问HTTP: linux1:/opt/client # curl