检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
由于华为云各服务之间存在业务交互关系,数据接入服务的权限依赖其他服务的权限实现功能。因此给用户授予数据接入服务的权限时,需要同时授予依赖的权限,数据接入服务的权限才能生效。
步骤3:发送数据到DIS 基于数据上传业务开发应用程序,并运行程序,实现数据上传功能。数据上传过程中可在Console控制台查看数据上传通道相关信息。 步骤4:从DIS获取数据 基于数据下载业务开发应用程序,并运行程序,实现数据下载功能。
父主题: 使用DIS Spark Streaming下载数据
设置为最旧的值 void seekToEnd(Collection<TopicPartition> partitions) 接口 支持 分区的offset设置为最新的值 long position(TopicPartition partition) 接口 支持 获取分区当前已消费数据的
- 生命周期(小时) 存储在DIS中的数据保留的最长时间,超过此时长数据将被清除。 取值范围:24~72的整数。 24 源数据类型 BLOB:存储在数据库管理系统中的一组二进制数据。“源数据类型”选择“BLOB”,则支持的“转储服务类型”为“OBS”、“MRS”。
retention_period Integer 数据保留时长,单位是小时。 stream_id String 通道唯一标识符。 data_type String 源数据类型。 BLOB:存储在数据库管理系统中的一组二进制数据。
用户使用接入通道上传数据的时候,如果数据涉及敏感信息,请使用DIS SDK提供的加密配置进行加密或者自行加密。
管理通道 通道列表简介 查看通道监控信息 变更源数据类型 管理源数据Schema 管理通道标签 管理App 授权管理 调试通道 弹性伸缩分区 删除通道
DIS对于从数据生产者快速移出数据,然后进行持续处理非常有用。以下是使用DIS的典型场景: 加速日志和数据传送获取:您无需等待批量处理数据,而是让数据生产者在生成数据后立即输入DIS数据通道,防止因数据生产者出现故障导致的数据损失。
附录 错误码 状态码 获取项目ID 介绍如何在控制台或者调用API获取项目ID。
API说明 通道管理 App管理 Checkpoint管理 数据管理 转储任务管理 监控管理 标签管理
步骤3:发送数据到DIS 基于数据上传业务开发应用程序,并运行程序,实现数据上传功能。数据上传过程中可在Console控制台查看数据上传通道相关信息。 步骤4:从DIS获取数据 基于数据下载业务开发应用程序,并运行程序,实现数据下载功能。 父主题: 入门
JSON:一种开放的文件格式,以易读的文字为基础,用来传输由属性值或者序列性的值组成的数据对象。 CSV:纯文本形式存储的表格数据,分隔符默认采用逗号。 缺省值:BLOB。
父主题: 使用DIS Logstash Plugin上传与下载数据
单条消息计量不超过25KB,即用户每次上传的单条数据超过25KB是按多条消息计算,不足25KB时,按单条消息计算。 说明: 只有DIS普通通道涉及此计费因子,高级通道不按消息数量收费,只根据使用分区时长计费。 分区时间 使用分区的时长,时长从创建DIS分区开始计入。
父主题: 使用DIS Flink Connector上传与下载数据
设置为最旧的值 void seekToEnd(Collection<TopicPartition> partitions) 接口 支持 分区的offset设置为最新的值 long position(TopicPartition partition) 接口 支持 获取分区当前已消费数据的
单击“Browse”按钮,根据实际情况选择“dis-sdk-demo”样例工程的存储位置,勾选样例工程,如图5所示。 图5 Import Maven Projects 单击“Finish”完成项目导入。 配置Demo工程。 配置项目编码为“UTF-8”。
父主题: 使用DIS Logstash Plugin上传与下载数据
使用DIS 检查与配置DNS信息 使用Agent上传数据 使用DIS Flume Plugin上传与下载数据 使用DIS Logstash Plugin上传与下载数据 使用Kafka Adapter上传与下载数据 使用DIS Spark Streaming下载数据 使用DIS Flink