检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<resource> <directory>src/main/resources/</directory> <filteri
选择“集群 > 服务 > Kafka > 配置”,在搜索框中搜索“sasl.enabled.mechanisms”,为该参数值增加“PLAIN”,单击“保存”保存配置,并重启Kafka服务使配置生效: 再在CDL WebUI界面配置使用MRS Kafka作为源端的thirdpa
选择“集群 > 服务 > Kafka > 配置”,在搜索框中搜索“sasl.enabled.mechanisms”,为该参数值增加“PLAIN”,单击“保存”保存配置,并重启Kafka服务使配置生效: 再在CDL WebUI界面配置使用MRS Kafka作为源端的thirdpa
properties”文件可根据自己的需要进行配置。 代码样例 如下是代码片段,详细代码请参考com.huawei.bigdata.hdfs.examples中的HdfsMain类。 在Linux客户端运行应用的初始化代码,代码样例如下所示。 /** * 初始化,获取一个FileSystem实例 *
Flume可靠性保障措施。 Source与Channel、Channel与Sink之间支持事务机制。 Sink Processor支持配置failover、load_balance机制。 例如load_balance示例如下: server.sinkgroups=g1 server
使用oracle-connector时,要求给连接用户赋予如下系统表或者视图的select权限: dba_tab_partitions、dba_constraints、dba_tables 、dba_segments 、v$version、dba_objects、v$instance、SYS_CO
String, destination String, dept String, yoj int) COMMENT 'Employee details' partitioned by (year int) STORED AS TEXTFILE; ALTER TABLE hetu_rename_table
PgSQL逻辑复制槽的名称。 不同任务之间槽名不能重名,支持小写字母和下划线。 test_solt Enable FailOver Slot 开启Failover Slot功能,将指定为Failover Slot的逻辑复制槽信息从主实例同步到备实例,当主备切换之后逻辑订阅能够继续进行,实现逻辑复制槽的故障转移。
Base64.getEncoder().encodeToString(tokens); } public static void main(String[] args) throws IoTDBConnectionException, StatementExecutionException
信息。 例如,Jar包中包含两个不同路径下的“storm.yaml”文件,系统显示以下信息: Exception in thread "main" java.lang.ExceptionInInitializerError at com.XXX.example.WordCountTopology
E/TABLE时未使用ON CLUSTER语句,则权限操作可能无法展示该资源,不保证可以对其赋权。对于这样单个ClickHouse节点中的本地表,如果需要赋权,则可以通过后台客户端进行操作。 以下操作,需要提前获取到需要赋权的角色、数据库或表名称、对应的ClickHouseServer实例所在的节点IP和系统域名。
ConnectionPassword ****** Metastore上连接外置元数据的数据库用户密码。密码后台会加密。 登录所有MetaStore服务的后台节点,检查本地目录“/opt/Bigdata/tmp”是否存在。 存在,直接执行4。 不存在,则先执行以下命令,创建目录。 mkdir -p /opt/Bigdata/tmp
问恢复数据的用户清单。 检查ClickHouse备份文件保存路径。 停止ClickHouse的上层应用。 主备集群中,从远端HDFS恢复至本地时,需要确保ClickHouse的“HADOOP_RPC_PROTECTION”配置项与HDFS的“hadoop.rpc.protection”配置项的值保持一致。
"JDBC_LOOKUP_BOLT"; @SuppressWarnings ("unchecked") public static void main(String[] args) throws Exception{ //connectionProvider配置
修改如下参数值,切换JDBCServer实例至多实例模式: 参数名称 值 spark.scheduler.allocation.file #{conf_dir}/fairscheduler.xml spark.thriftserver.proxy.enabled false 保存配置,重启Spark服务。
-XX:+CMSParallelRemarkEnabled -XX:CMSInitiatingOccupancyFraction=65 -XX:+PrintGCDetails -Dsun.rmi.dgc.client.gcInterval=0x7FFFFFFFFFFFFFE -Dsun.rmi.dgc.server
Location”单击,在HDFS中选择一个用于创建Hive表文件。此文件将存储Hive表的新数据。 如果文件未在HDFS中保存,可以单击“Upload a file”从本地选择文件并上传。支持同时上传多个文件,文件不可为空。 如果需要将文件中的数据导入Hive表,选择“Import data”作为“Load method”。默认选择“Import
对象。 SphericalGeography类型为地理坐标(有时称为大地坐标或lat / lon或lon / lat)上表示的空间要素提供本地支持。地理坐标是以角度单位(度)表示的球坐标。几何类型的基础是平面。平面上两点之间的最短路径是一条直线。这意味着可以使用笛卡尔数学和直线矢
在“备份配置”,勾选“Kafka”。 在“Kafka”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “LocalDir”:表示将备份文件保存在主管理节点的本地磁盘上,备管理节点将自动同步备份文件。默认保存目录为“数据存放路径/LocalBackup/”。 选择此参数值,还需要配置“最大备份数”,表示备份目录中可保留的备份文件集数量。
集群版本:请根据实际需求选择集群版本,例如:MRS 3.2.0-LTS.1。 组件选择:请根据业务需求合理选择需要的组件,部分类型集群创建后不支持添加服务。 元数据:选择“本地元数据”。 网络配置: 可用区:默认即可。 虚拟私有云:默认即可。 子网:默认即可。 安全组:默认即可。 弹性公网IP:默认即可。 节点配置: