检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
附录 错误码 状态码 获取项目ID 介绍如何在控制台或者调用API获取项目ID。
在左侧文本框中单击,可删除左侧文本框中已输入或导入的源数据样例。 在左侧文本框中单击,可在右侧文本框中根据源数据样例生成Avro schema。 在右侧文本框中单击,可删除已生成的Avro schema。 在右侧文本框中单击,可修改已生成的Avro schema。 仅当“Schema配置开关”配置为“开启”:时需要配置此参数。
本节定义了数据接入服务上报云监控的监控指标的命名空间,监控指标列表和维度,用户可以通过云监控检索数据接入服务产生的监控指标和告警信息。 命名空间 SYS.DAYU 监控指标 DIS通道支持的监控指标如表1所示。 表1 DIS的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象
向input指向的通道上传数据,如果Logstash没有报错且output端能正常获取到数据,表示下载正常。 登录DIS控制台,等待2分钟后,查看表1中“streams”配置的通道的监控。如果显示有数据下载(蓝色线条),表示DIS Logstash Input运行成功。 验证DIS Logstash
Unauthorized 在客户端提供认证信息后,返回该状态码,表明服务端指出客户端所提供的认证信息不正确或非法。 402 Payment Required 保留请求。 403 Forbidden 请求被拒绝访问。 返回该状态码,表明请求能够到达服务端,且服务端能够理解用户请求,但是拒绝
cloudtable-demo CloudTable表类型 HBase和openTSDB两种。 HBase CloudTable数据表 CloudTable数据表:单击“选择”,在“选择CloudTable数据表”窗口选择一个数据表。 此处路径仅支持选择,不可手动输入。 说明: 配
卸载DIS Logstash Plugin。 bash uninstall.sh –p ${LOGSTASH_HOME} 出现类似如下提示,表示卸载成功。 Uninstall dis-logstash-plugins successfully. 父主题: 使用DIS Logstash
Flume Plugin。 dos2unix install.sh bash install.sh uninstall 出现类似如下提示,表示卸载成功。 Uninstall dis-flume-plugin successfully. 父主题: 使用DIS Flume Plugin上传与下载数据
动删除。 查看企业项目 通道创建成功后,您可以在通道列表和通道基本信息页面查看通道关联的企业项目。用户只能查询到有访问权限的项目下的通道资源。 在通道管理页面的列表中,查看通道所属的企业项目。 图1 查看企业项目 在通道列表中,单击通道名称,进入通道“基本信息”页面,可以查看与通
在“订阅设置”区域,设置订阅基本信息及事件过滤。 “订阅事件”区域显示系统根据订阅设置筛选出的事件。 表1 订阅参数 参数名 参数解释 启用消息通知 设置是否开启事件订阅。 表示开启事件订阅,表示关闭事件订阅,默认为关闭状态。关闭后停止发送已订阅事件的通知消息,不会删除该订阅。 订阅名称
单击管理控制台左上角的,选择区域和项目。 在左侧列表栏中选择“通道管理”。 单击需要查看监控信息的通道名称,进入监控页面。 根据实际情况在“通道管理”页面选择“通道监控”或“分区监控”页签,查看各监控项情况。监控信息参数说明如表1所示。其中,通道基本信息的参数说明请参见表1。 表1 DIS监控信息参数说明
设置为1 block.on.buffer.full 参数 支持 同Kafka默认设置(false)。 true表示当发送缓冲区满,send一直阻塞不超时; false表示发送缓冲区满后根据max.block.ms的时间阻塞,超过时间则抛出异常。 max.block.ms 参数 支持
auto.commit 参数 支持 同kafka的默认设置,默认为true true表示启用自动提交,每隔${auto.commit.interval.ms}的时间提交一次offset; false表示不自动提交offset auto.commit.interval.ms 参数 支持
auto.commit 参数 支持 同kafka的默认设置,默认为true true表示启用自动提交,每隔${auto.commit.interval.ms}的时间提交一次offset; false表示不自动提交offset auto.commit.interval.ms 参数 支持
请注意,将SQL语句中的“csv”修改为转储到OBS的文件格式,OBS路径修改为实际存放数据的OBS路径。 单击“执行”,创建表,如图3所示。 图3 创建表 表中的各字段含义请参见表4。 表4 表字段含义 列名称(en) 数据类型 说明 DeviceID string 设备ID DataTime string
#待删除的APP名称 配置好以上参数,执行deleteApp_sample.py文件调用deleteApp_test方法,响应204表示删除成功。 父主题: 使用SDK(Python)
设置为1 block.on.buffer.full 参数 支持 同Kafka默认设置(false)。 true表示当发送缓冲区满,send一直阻塞不超时; false表示发送缓冲区满后根据max.block.ms的时间阻塞,超过时间则抛出异常。 max.block.ms 参数 支持
#创建的APP名称 配置好以上参数,执行createApp_sample.py文件调用createApp_test方法,响应201表示创建成功。 父主题: 使用SDK(Python)
一个数据库包含一个或多个命名的模式,模式又包含表。模式还包含其他命名的对象,包括数据类型、函数,以及操作符。同一个对象名可以在不同的模式里使用而不会导致冲突。 - DWS数据表 存储该通道数据的DWS数据库模式下的数据表。 - 数据分隔符 用户数据的字段分隔符,根据此分隔符分隔用户数据插入DWS数据表的相应列。 取值范围:不可为空
conf/agent.yml命令,打开DIS Agent配置文件“agent.yml”,根据实际情况修改各配置项的值并保存,配置项说明请参见表1。 表1 agent.yml配置文件说明 配置项 是否必填 说明 默认值 region 是 DIS服务所在区域。 说明: 获取DIS区域请参见终端节点及区域说明。