正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
IS)提供的一个sdk,支持原本使用Kafka Client上传数据的用户以类似原来的操作将数据上传到DIS,目前只支持Java版本。 父主题: 使用Kafka Adapter上传与下载数据
OBS。 数据转储 用户在新增转储任务时可设置”数据转储地址”。当“数据转储”设置为“OBS”时,DIS会将通道数据周期性导入OBS。 父主题: 入门
使用同一个通道的不同分区。上传消息时,不同类型的消息指定不同的partition_key,消费时根据partition_key来区分不同类型消息。 父主题: 转储相关问题
DIS实时从多种数据源采集数据。 DIS连续传输数据,自动将数据传输至MRS,DLI,DWS和OBS等服务做计算,分析和存储。 图1 数据流向 父主题: 一般性问题
Output用于将Logstash中的数据上传到DIS服务。DIS Logstash Plugin安装流程如图1所示。 图1 安装流程图 父主题: 使用DIS Logstash Plugin上传与下载数据
Kafka Adapter概述 准备环境 上传数据 数据下载的消费模式 下载数据之消费位移 与原生KafkaConsumer接口适配说明 父主题: 使用SDK
Channel中的数据上传到DIS服务。DIS Flume Plugin安装流程如图1所示。 图1 DIS Flume Plugin安装流程 父主题: 使用DIS Flume Plugin上传与下载数据
Console控制台查看数据上传通道相关信息。 步骤4:从DIS获取数据 基于数据下载业务开发应用程序,并运行程序,实现数据下载功能。 父主题: 入门
IS)提供的一个sdk,支持原本使用Kafka Client上传数据的用户以类似原来的操作将数据上传到DIS,目前只支持Java版本。 父主题: 使用Kafka Adapter上传与下载数据
DIS Flink Connector是数据接入服务(DIS)提供的一个sdk,支持将DIS作为数据源创建Stream对接Flink。 父主题: 使用DIS Flink Connector上传与下载数据
DIS Spark Streaming概述 准备DIS Spark Streaming的相关环境 自定义SparkStreaming作业 父主题: 使用DIS
[{'partition_id': 'shardId-0000000001', 'sequence_number': '15'}]} 父主题: 使用SDK(Python)
持续查询文本文件,实时收集增量数据按分隔符解析并上传到DIS通道(通道源数据类型为BLOB/JSON/CSV)。 DIS Agent安装流程如图1所示。 图1 安装流程 父主题: 使用Agent上传数据
数据接入服务提供了REST(Representational State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 父主题: 使用前必读
Plugin概述 安装DIS Flume Plugin前准备 安装Plugin 配置Plugin 验证Plugin 卸载Plugin(可选) 父主题: 使用DIS
kStreaming。dis-spark-streaming使用流程如图1所示。 图1 DIS Spark Streaming使用流程 父主题: 使用DIS Spark Streaming下载数据
支持的全部操作请参见API概览。 在调用数据接入服务API之前,请确保已经充分了解数据接入服务相关概念,详细信息请参见“产品介绍”。 父主题: 使用前必读
创建APP 删除APP 查询APP详情 查询APP列表 新增Checkpoint 查询Checkpoint 变更分区数量 获取数据游标 父主题: 使用SDK
设置转发目标,转发至服务选择“数据接入服务DIS”。 有关创建 IoTDA数据转发规则的更多信息,请参见 IoTDA数据转发规则。 父主题: 使用DIS
Graphs(DAG)。在这一情景中,一个或多个DIS应用程序可将数据添加到一个DIS数据通道进行进一步处理,以便于进行通道处理器的后续阶段。 父主题: 一般性问题