检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户轻松构建DIS应用程序,用以读取和处理来自DIS数据通道的数据。 Project:用于将OpenStack的资源(计算资源、存储资源和网络资源)进行分组和隔离。Project可以是一个部门或者一个项目组。一个账户中可以创建多个Project。账户是租户对应的账号。一个Regi
查看事件 介绍用户如何查找通道或转储任务发生的事件。 在“事件管理”页面中单击“事件”,默认显示当前所有通道或转储任务已发生的事件。 在事件列表右上方的下拉列表中通过选择不同的筛选条件搜索事件。可从事件级别和事件源两个维度进行筛选。 在下拉列表中选择“所有事件级别”、“正常”或“警告”。
在云服务器详情页面中,单击“网卡”,打开相应的下拉菜单,查看弹性云服务器的子网名称。 在云服务器详情页面中,单击“虚拟私有云”的VPC名称/ID,进入“网络控制台”。 在“虚拟私有云”详情页面中单击“VPC名称/ID”对应的虚拟私有云名称,进入虚拟私有云详情页面。 在页面左侧选择“子网”,在子
“Run 'DISFlinkStreamingSinkJavaExample'”,即可启动作业。 如果没有其他错误,可以到DIS控制台通道监控页面查看数据是否上传成功。 在本地运行作业验证无误之后,请把pom.xml中的<scope>provided</scope>解除注释(防止
operties ”,进入“Properties for dis-sdk-demo”页面。 左侧页签栏选择“Resource”,右侧对话框显示“Resource”页面。 在“Text file encoding”栏中选择“Other”,单击下拉框选择“UTF-8”。 单击“Apply
logstash-plugins 运行安装程序,需要指定Logstash的安装目录。 bash install.sh –p ${LOGSTASH_HOME} 安装完成后,显示类似如下内容,表示安装成功。 Install dis-logstash-plugins successfully. 父主题: 使用DIS Logstash
源数据类型:BLOB、JSON、CSV。 生命周期(小时):存储在DIS中的数据保留的最长时间,超过此时长数据将被清除。取值范围:24~72的整数。单位:小时。 创建时间:显示通道创建的时间。格式为:yyyy/MM/dd HH:mm:ss GMT。其中,yyyy表示年份,MM表示月份,dd表示日期,HH表示小时,
参数为true/on,当数据导入时,若数据源文件中一行数据的最后一个字段缺失,则把最后一个字段的值设置为NULL,不报错。 参数为false/off,如果最后一个字段缺失会显示如下错误信息。 ignore_extra_data 数据源文件中的字段比外表定义列数多时,是否忽略多出的列。该参数只在数据导入过程中使用。
as Project”,作为工程打开。 单击“New Window”,在新窗口打开此工程。 等待IntelliJ IDEA构建工程,完成之后会显示目录与文件 检查认证信息 检查AK/SK AK/SK (Access Key ID/Secret Access Key)是用户调用接口的访问密钥。
as Project”,作为工程打开。 单击“New Window”,在新窗口打开此工程。 等待IntelliJ IDEA构建工程,完成之后会显示目录与文件 检查认证信息 检查AK/SK AK/SK (Access Key ID/Secret Access Key)是用户调用接口的访问密钥。
用户可以在创建通道时为通道选择所属的企业项目,从而将DIS通道与企业项目进行关联,详情请参见步骤1:开通DIS通道。在选择“企业项目”的下拉列表中,将显示用户在企业项目服务中已创建的项目。系统还内置了一个缺省的企业项目“default”,如果用户没有为通道选择企业项目,将使用缺省项目“default”。
毫秒)。 retries 参数 支持,但是参数名改为exception.retries Kafka默认设置为0,DIS默认设置为8。 出现网络/服务端异常的重试次数,尽量保证数据上传成功 其他参数 参数 不支持 - 父主题: 使用Kafka Adapter上传与下载数据
毫秒)。 retries 参数 支持,但是参数名改为exception.retries Kafka默认设置为0,DIS默认设置为8。 出现网络/服务端异常的重试次数,尽量保证数据上传成功 其他参数 参数 不支持 - 父主题: 使用Kafka Adapter上传与下载数据
aseShell访问集群。 在HBase shell客户端执行create 'tbl1',{NAME => 'i'}命令,创建数据表。界面显示如下表示创建成功。 申请DIS通道 请参见开通DIS通道创建通道。 添加转储任务 使用注册账户登录DIS控制台。 在左侧列表栏中选择“通道管理”。
单击“分区计算”,弹出“计算所需分区数量”对话框。 根据实际需求填写“平均记录大小”、“最大写入记录数”和“消费程序数量”,“预估所需分区数量”选项框中将显示所需的分区数量,此值不可修改。 说明: 所需分区计算公式: 按流量计算所需写分区数:(所得数值需向上取整后作为分区数) 普通通道:平均记录
打开DISSparkStreamingExample文件,如果IDEA提示“No Scala SDK in module”,请单击旁边的“Setup Scala SDK”,会显示Scala SDK列表(如果没有可以创建一个并关联scala路径),选择2.11版本的即可。 在pom.xml上单击右键,选择“Maven
单击“分区计算”,弹出“计算所需分区数量”对话框。 根据实际需求填写“平均记录大小”、“最大写入记录数”和“消费程序数量”,“预估所需分区数量”选项框中将显示所需的分区数量,此值不可修改。 说明: 所需分区计算公式: 按流量计算所需写分区数:(所得数值需向上取整后作为分区数) 普通通道:平均记录
单击“分区计算”,弹出“计算所需分区数量”对话框。 根据实际需求填写“平均记录大小”、“最大写入记录数”和“消费程序数量”,“预估所需分区数量”选项框中将显示所需的分区数量,此值不可修改。 说明: 所需分区计算公式: 按流量计算所需写分区数:(所得数值需向上取整后作为分区数) 普通通道:平均记录