检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DirectKafka:直接通过RDD读取Kafka每个Partition中的数据,数据高可靠。 从实现上来看,DirectKafka的性能更好,实际测试上来看,DirectKafka也确实比其他两个API性能好了不少。因此推荐使用DirectKafka的API实现接收器。 数据接收器作为一
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名
名;不选中单选框时是不带路径的文件名。 boolean 否 不选中 验证输入字段 是否检验输入字段与值的类型匹配情况,值为“NO”,不检查;值为“YES”,检查。若不匹配则跳过该行。 enum 是 YES 输入字段 配置输入字段的相关信息: 位置:源文件每行被列分隔符分隔后,目标字段对应的位置,从1开始编号。
RCHAR”时实际长度不足则不补齐。 map 是 无 数据处理规则 按照输入字段的长度依次截取源文件,生成字段。 当字段的值与实际的类型不匹配时,该行数据会成为脏数据。 配置字段分割长度,大于原字段值的长度,则数据分割失败,当前行成为脏数据。 样例 源文件如下图: 配置“固定宽度
All Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 修改代码匹配的IoTDBServer节点IP、端口、登录用户名和密码。 编译方式有以下两种。 方法一 选择“Maven > 样例工程名称 > Lifecycle
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“hdfs-connector”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表1 输入设置参数 参数名
责处理一项简单特定的任务。Storm的目标是提供对大数据流的实时处理,可以可靠地处理无限的数据流。 Storm有很多适用的场景:实时分析、在线机器学习、持续计算和分布式ETL等,易扩展、支持容错,可确保数据得到处理,易于构建和操控。 Storm有如下几个特点: 适用场景广泛 易扩展,可伸缩性高
数目。 支持日志在线检索和日志收集。 支持在线检索ClickHouse日志内容。 登录FusionInsight Manager界面,访问“运维 > 日志 > 在线检索”,在“服务”中选择“ClickHouse”,“检索内容”填写日志检索关键字,通过“检索”在线检索ClickHouse日志内容。
配置history server是否使用SSL。 true spark.files.overwrite 当目标文件存在时,且其内容与源的文件不匹配。是否覆盖通过SparkContext.addFile()添加的文件。 false spark.yarn.cluster.driver.extraClassPath
配置history server是否使用SSL。 true spark.files.overwrite 当目标文件存在时,且其内容与源的文件不匹配。是否覆盖通过SparkContext.addFile()添加的文件。 false spark.yarn.cluster.driver.extraClassPath
JDK,请确保Eclipse中的JDK配置为Oracle JDK。 不同的Eclipse不要使用相同的workspace和相同路径下的示例工程。 准备一个应用程序运行测试的Linux环境。 准备运行调测环境 在弹性云服务器管理控制台,申请一个新的弹性云服务器,用于用户应用程序开发、运行、调测。 弹性云服务器
All Maven Projects”,进行maven项目依赖import。 图1 reimport projects 编译运行程序。 修改代码匹配的IoTDBServer节点IP、端口、登录用户名和密码。 编译方式有以下两种。 方法一 选择“Maven > 样例工程名称 > Lifecycle
amily>','column',=,'binary:<value>')"} 回答 由于HBase的可扩展性,在查询表的时候,默认情况下会匹配被查询列的所有版本的值,即使被删除或被修改的值也可以查询出来。对于命中列失败的行(即在某一行中不存在该列),HBase会将该行查询出来。
节点。增加任务的并行度,充分利用集群机器的计算能力,一般并行度设置为集群CPU总和的2-3倍。 操作步骤 并行度可以通过如下三种方式来设置,用户可以根据实际的内存、CPU、数据以及应用程序逻辑的情况调整并行度参数。 在会产生shuffle的操作函数内设置并行度参数,优先级最高。 testRDD
单击“创建数据连接”,在弹出的页面中选择数据连接类型,参考表1填写信息,单击“确定”,完成数据连接创建。创建完成后,可在对应数据连接的“操作”列对数据连接进行编辑、测试、删除等操作。 表1 创建数据连接信息 参数名称 参数描述 示例 数据连接类型 选择数据连接的类型,包含HDFS、Kafka、Redis。
任意输入类型步骤中,原数据包含字段的个数小于配置字段的个数,或者原数据字段值与配置字段的类型不匹配时,全部数据成为脏数据。 “CSV文件输入”步骤中,“验证输入字段”检验输入字段与值的类型匹配情况,检查不匹配时跳过该行,当前行成为脏数据。 “固定宽度文件输入”步骤中,“固定长度”指定字段分割
安全模式驱动设置 连接设置。 安全模式(开启Kerberos认证的集群): 在创建新连接页面的“常规”页签,输入2中创建的用户名和密码,单击“测试链接”,连接成功后,单击“确定”,再单击“完成”。可单击“连接详情(名称、类型...)”修改连接名称。 图3 安全模式“常规”参数设置 普
在“连接”区域,单击“添加”新建一个的连接,在“连接器”中选择“sftp-connector”,单击“添加”,输入配置连接参数,单击“测试”验证连接是否可用,待提示“测试成功”后单击“确定”。Loader支持配置多个SFTP服务器操作数据,单击“添加”可增加多行SFTP服务器的配置信息。 表1