检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
start to put data in opentsdb, the url is https://node-ana-corejnWt:4242/api/put/?sync&sync_timeout=60000 2019-06-27 14:05:23,680 INFO [main] examples
支持Options 容错性 说明 File Sink Append Path:必须指定 指定的文件格式,参见DataFrameWriter中的相关接口 exactly-once 支持写入分区表,按时间分区用处较大 Kafka Sink Append, Update, Complete 参见:https://archive
支持Options 容错性 说明 File Sink Append Path:必须指定 指定的文件格式,参见DataFrameWriter中的相关接口 exactly-once 支持写入分区表,按时间分区用处较大 Kafka Sink Append, Update, Complete 参见:https://archive
支持Options 容错性 说明 File Sink Append Path:必须指定 指定的文件格式,参见DataFrameWriter中的相关接口 exactly-once 支持写入分区表,按时间分区用处较大 Kafka Sink Append, Update, Complete 参见:https://archive
支持Options 容错性 说明 File Sink Append Path:必须指定 指定的文件格式,参见DataFrameWriter中的相关接口 exactly-once 支持写入分区表,按时间分区用处较大 Kafka Sink Append, Update, Complete 参见:https://archive
当“true”且spark.sql.adaptive.enabled为“true”时,Spark在不需要进行shuffle分区时,会尝试使用本地shuffle reader读取shuffle数据,例如:将sort-merge join转换为broadcast-hash join后。
当“true”且spark.sql.adaptive.enabled为“true”时,Spark在不需要进行shuffle分区时,会尝试使用本地shuffle reader读取shuffle数据,例如:将sort-merge join转换为broadcast-hash join后。
Config/batch_upgrade”。 选择“集群 > 客户端管理”,进入客户端管理界面,单击“导出全部”,将所选的客户端信息导出到本地。 解压导出的客户端信息,将client-info.cfg文件上传到客户端解压目录的batch_upgrade目录下。 参考以下操作,补全“client-info
system”页面 进入“/tmp/logs/执行用户名/bucket-logs-tfile/任务ID/Flink任务ID”目录,将该目录下文件全部下载到本地。 图6 获取作业日志文件 在2.c下载的文件中搜索“root.sg.d1”,如下图显示则表示数据从IoTDB中读取成功。 图7 读取IoTDB数据成功
登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Kafka > 更多 > 下载客户端” ,下载客户端压缩文件到本地机器。如图3所示: 图3 客户端配置 使用客户端根目录中的“ca.crt”证书文件生成客户端的“truststore”。 执行命令如下: keytool
以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 将安装Flink客户端章节中下载的客户端安装包复制到Windows服务器中。 将Windows服务器中的“MRS_Flink_Client
详情界面,获取配置文件“hdfs-site.xml”、“core-site.xml”、“hbase-site.xml”。 方法二:通过准备本地应用开发环境中解压客户端文件的方法获取配置文件,需要在获取的“hbase-site.xml”中手动添加以下配置,其中“hbase.thrift
ClickHouse存算分离在华为云实践 MRS HBase MTTR优化实践 二次开发类 通过API-Explorer优化MRS服务API开发流程 使用华为SDK开发MRS API应用初实践 Kerberos认证集群Flink读写HBase HBase BulkLoad导入数据的代码实现
延迟时间。 <triggerInterver>指流处理任务的触发间隔。 <checkpointDir>指checkpoint文件存放路径,本地或者HDFS路径下。 由于Spark Structured Streaming Kafka的依赖包在客户端的存放路径与其他依赖包不同,如其
通过HSBroker方式连接到HetuEngine,组装对应的SQL发送到HetuEngine执行,完成对Hive数据源的增删改查操作。 import jaydebeapi driver = "io.XXX.jdbc.XXXDriver" # need to change the
fka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 本地新建文件“input_data1.txt”,将“log1.txt”的内容复制保存到“input_data1.txt”。 在客户端安装节点下
文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的“hosts”文件中的内容到客户端所在节点的hosts文件中,确保本地机器能与集群各主机在网络上互通。 准备安全认证(安全模式集群) 参考准备Flink安全认证。 父主题: 准备Flink应用开发环境
使用ls命令列出Alluxio里的文件。例如列出根目录下所有文件。 alluxio fs ls / 使用copyFromLocal命令可以复制本地文件到Alluxio中。 alluxio fs copyFromLocal /home/test_input.txt /test_input
1时,可参考数据盘扩容(手动扩容)进行数据盘扩容。 使用磁盘扩容后所选节点下所有数据盘将扩容至目标容量。 约束条件 仅支持扩大容量,不支持缩小容量。 数据盘最大扩容至32T。 本地盘不支持扩容。 系统盘不支持扩容。 仅支持集群节点创建时默认挂载的数据盘完整扩容云硬盘(EVS)容量、磁盘分区和文件系统。 云硬盘所挂载的
程序命令中设置安全认证参数。 安全认证代码(Java版) 目前样例代码统一调用LoginUtil类进行安全认证。安全登录流程请参见安全认证接口章节。 在Spark样例工程代码中,不同的样例工程,使用的认证代码不同,基本安全认证或带ZooKeeper认证。样例工程中使用的示例认证参