-
配置DIS Agent - 数据接入服务 DIS
Windows服务器上配置DIS Agent 使用文件管理器进入安装包解压后的目录,例如“C:\dis-agent-X.X.X”。 使用编辑器打开“agent.yml”文件,根据实际情况修改各配置项的值并保存。 “agent.yml”文件为linux格式,建议使用通用文本编辑器工具编辑文件。
-
数据下载的消费模式 - 数据接入服务 DIS
此过程的关键日志说明如下 Heartbeat {"state":"JOINING"} Heartbeat表示心跳请求,每10s发起一次,用于和服务端保持连接。如果超过1分钟服务端没有收到心跳,会认为消费端已离线,消费组会重新分配。若心跳结果为JOINING表示消费者需要重新加入消费组,若为STABLE表示消费组稳定。
-
数据下载的消费模式 - 数据接入服务 DIS
此过程的关键日志说明如下 Heartbeat {"state":"JOINING"} Heartbeat表示心跳请求,每10s发起一次,用于和服务端保持连接。如果超过1分钟服务端没有收到心跳,会认为消费端已离线,消费组会重新分配。若心跳结果为JOINING表示消费者需要重新加入消费组,若为STABLE表示消费组稳定。
-
安装DIS Logstash Plugin前准备 - 数据接入服务 DIS
安装DIS Logstash Plugin前准备 检查依赖 确认Logstash已安装并能正常运行。 确认使用的Java版本为1.8.0及以上版本。执行如下命令查看Java版本。 java -version 确认使用的JRuby版本为9.0.0.0及以上版本。执行如下命令查看JRuby版本。
-
安装DIS Flume Plugin前准备 - 数据接入服务 DIS
Flume 确认使用的Java版本为1.8.0及以上版本。执行如下命令查看java版本。 java -version 检查DIS通道 使用注册账户登录DIS控制台。 单击管理控制台左上角的,选择区域和项目。 在左侧列表栏中选择“通道管理”。 确认有通道用于数据上传且通道状态为“运行中”。
-
修订记录 - 数据接入服务 DIS
查询Checkpoint 变更分区数量 2018-06-12 第五次正式发布。 修改了如下内容: 开通DIS服务 DIS服务端错误码 2018-05-11 第四次正式发布。 修改了如下内容: 开通DIS通道 DIS服务端错误码 Uquery更名为数据湖探索(DLI,Data Lake Insight)。
-
如何校验软件包完整性? - 数据接入服务 DIS
-
数据接入服务 DIS - 数据接入服务 DIS
数据接入服务-成长地图 | 华为云 数据接入服务 数据接入服务(Data Ingestion Service,简称DIS)面向IoT、互联网等实时数据,提供高效采集、传输、分发能力,支持多种IoT协议,提供丰富的接口,帮助您快速构建实时数据应用。 产品介绍 图说DIS 图说ECS 立即使用
-
DIS Flume Plugin概述 - 数据接入服务 DIS
Flume Plugin是数据接入服务(DIS)为Flume开发的插件,包含DIS Source与DIS Sink。DIS Source用于从DIS服务下载数据到Flume Channel,DIS Sink用于将Flume Channel中的数据上传到DIS服务。DIS Flume Plugin安装流程如图1所示。
-
DIS Logstash Plugin概述 - 数据接入服务 DIS
Logstash Plugin是数据接入服务(DIS)为Logstash开发的插件,包含DIS Input与DIS Output。DIS Input用于从DIS服务下载数据到Logstash,DIS Output用于将Logstash中的数据上传到DIS服务。DIS Logstash Plugin安装流程如图1所示。
-
内容导航 - 数据接入服务 DIS
SDK进行二次开发过程中涉及到的资源信息。 开通DIS服务 介绍DIS服务和DIS通道的开通方式。 获取认证信息 介绍使用DIS SDK进行二次开发前需要进行的初始化工作。 Python:准备环境~~获取数据游标 介绍使用DIS SDK进行的常用操作(匹配python)。 Java:准备环境~~变更分区数量
-
使用SDK - 数据接入服务 DIS
使用SDK 使用SDK(Java) 使用Kafka Adapter上传与下载数据 使用SDK(Python)
-
DIS有哪些功能 - 数据接入服务 DIS
Insight,简称DLI)。 服务维护 负责服务的安装、升级。 负责服务的配置、巡检、日志收集与分析、运行监控。 负责服务工单处理。 用户SDK 提供Java接口,供用户上传与下载数据。 提供数据加密功能。 关键能力 无限扩展:DIS数据通道的吞吐量每小时可从数MB扩展到数TB,PUT记录每秒钟可从数千次扩展到数百万。
-
在线安装DIS Logstash Plugin - 数据接入服务 DIS
前提条件 已安装PuTTY工具。 安装logstash-input-dis 使用PuTTY工具(或其他终端工具)远程登录Logstash服务器。 进入到Logstash的安装目录。 cd ${LOGSTASH_HOME} 执行安装命令。 bin/logstash-plugin install
-
安装Plugin - 数据接入服务 DIS
安装Plugin 前提条件 已安装PuTTY工具。 操作步骤 使用PuTTY工具(或其他终端工具)远程登录Flume服务器。 进入到Flume的安装目录。 cd ${FLUME_HOME} 上传“dis-flume-plugin-X.X.X.zip”安装包到此目录下。 解压安装包。 unzip dis-flume-plugin-X
-
DIS Agent概述 - 数据接入服务 DIS
Agent是数据接入服务(DIS)提供的一个客户端程序,具有如下功能: 持续查询文本文件,实时收集增量数据按分隔符解析并上传到DIS通道(通道源数据类型为BLOB/JSON/CSV)。 DIS Agent安装流程如图1所示。 图1 安装流程 父主题: 使用Agent上传数据
-
验证DIS Logstash Plugin - 数据接入服务 DIS
据可以正常上传到指向的通道,表示上传正常。 登录DIS控制台,等待2分钟后,查看表2中“streamName”配置的通道的监控。如果显示有数据上传(绿色线条),表示DIS Logstash Output运行成功。 父主题: 使用DIS Logstash Plugin上传与下载数据
-
管理源数据Schema - 数据接入服务 DIS
创建,参见图2。 创建通道时,关闭“Schema开关”。待通道创建成功后,选择“通道管理”页签,单击已创建的通道名称,进入所选通道的管理页面。选择“转储任务”页签,单击“添加转储任务”按钮,在弹出的“添加转储任务”页面进行创建,参见图3。 图1 创建Schema1 图2 创建Schema2
-
离线安装DIS Logstash Plugin - 数据接入服务 DIS
已安装PuTTY工具。 操作步骤 使用PuTTY工具(或其他终端工具)远程登录Logstash服务器。 进入到Logstash的安装目录。 cd ${LOGSTASH_HOME} 上传“dis-logstash-plugins-X.X.X.zip”安装包到此目录下。 解压安装包。
-
卸载Plugin(可选) - 数据接入服务 DIS
卸载Plugin(可选) 操作步骤 使用PuTTY工具远程登录Flume所在服务器。 停止Flume程序。 进入DIS Flume Plugin插件所在的目录。 cd ${FLUME_HOME} cd dis-flume-plugin 卸载DIS Flume Plugin。 dos2unix