-
使用Kafka Adapter上传与下载数据 - 数据接入服务 DIS
使用Kafka Adapter上传与下载数据 Kafka Adapter概述 准备环境 上传数据 数据下载的消费模式 下载数据之消费位移 与原生KafkaConsumer接口适配说明 父主题: 使用DIS
-
事件通知 - 数据接入服务 DIS
事件通知 事件通知概述 订阅事件通知 查看事件
-
转储至DLI - 数据接入服务 DIS
转储至DLI 源数据类型JSON/CSV 表1 转储相关配置参数 参数 说明 取值 任务名称 用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。 - DLI数据库 单击“选择”,在“选择DLI数据库”窗口选择一个数据库。
-
转储至DWS - 数据接入服务 DIS
转储至DWS 源数据类型JSON/CSV 表1 转储相关配置参数 参数 说明 取值 任务名称 用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。 - DWS集群 存储该通道数据的DWS集群名称。
-
验证DIS Agent - 数据接入服务 DIS
log 显示如下信息,表示Agent正常运行。 Agent: Startup completed in xx ms Agent运行异常,常见问题原因和处理方法如下: HttpClientErrorException: 400 Bad Request 可能原因:配置DIS Agent
-
应用场景 - 数据接入服务 DIS
数据接入备份 将大量滚动日志文件传输到云端做备份,用于数据丢失或异常后的恢复和故障分析。同时大量小文本文件可合并转储为大文件,提高数据处理性能。 图3 场景示例图 IOT分析应用 通过在车载设备中集成IoTDA,并配置数据转发到DIS,实时上传车辆状态、监控数据,采用云上数据分析
-
什么是数据接入服务DIS - 数据接入服务 DIS
数据接入服务(Data Ingestion Service)为处理或分析流数据的自定义应用程序构建数据流管道,主要解决云服务外的数据实时传输到云服务内的问题。数据接入服务每小时可从数十万种数据源(如IoT数据采集、日志和定位追踪事件、网站点击流、社交媒体源等)中连续捕获、传送和存储数TB数据。
-
上传数据 - 数据接入服务 DIS
connection 参数 支持 限制客户端在单个连接上能够发送的未响应请求的个数,默认值为100(Kafka默认为5)可提高发送性能,但可能出现数据顺序不一致的问题。如需严格保证顺序,建议此值设置为1 block.on.buffer.full 参数 支持 同Kafka默认设置(false)。
-
DIS SDK能做什么 - 数据接入服务 DIS
数据接入服务(Data Ingestion Service)为处理或分析流数据的自定义应用程序构建数据流管道,主要解决云服务外的数据实时传输到云服务内的问题。数据接入服务每小时可从数十万种数据源(如日志和定位追踪事件、网站点击流、社交媒体源等)中连续捕获、传送和存储数TB数据。 云服务实现了在
-
上传数据 - 数据接入服务 DIS
connection 参数 支持 限制客户端在单个连接上能够发送的未响应请求的个数,默认值为100(Kafka默认为5)可提高发送性能,但可能出现数据顺序不一致的问题。如需严格保证顺序,建议此值设置为1 block.on.buffer.full 参数 支持 同Kafka默认设置(false)。
-
转储至MRS - 数据接入服务 DIS
batch_sort:表示在一个node下,内存排序后直接生成CarbonData文件,不再进行node下的全排序;使用该配置,可以提升加载速度,但查询性能不如LOCAL_SORT; - 父主题: 管理转储任务
-
配置DIS Agent - 数据接入服务 DIS
该配置项生效。 .COMPLETED sendingThreadSize 否 发送线程数。默认单线程发送。 须知: 使用多线程会导致如下问题: 数据发送不保证顺序。 程序异常停止并重新启动时会丢失部分数据。 1 fileEncoding 否 文件编码格式,支持UTF8, GBK
-
使用DIS采集增量驾驶行为日志数据 - 数据接入服务 DIS
该配置项生效。 .COMPLETED sendingThreadSize 否 发送线程数。默认单线程发送。 须知: 使用多线程会导致如下问题: 数据发送不保证顺序。 程序异常停止并重新启动时会丢失部分数据。 1 fileEncoding 否 文件编码格式,支持UTF8, GBK