检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
终端用户每次请求一个广告后,会生成广告请求事件,保存到kafka的adRequest topic中。 请求一个广告后,可能用于多次展示,每次展示,会生成广告展示事件,保存到kafka的adShow topic中。 每个广告展示,可能会产生多次点击,每次点击,会生成广告点击事件,保存到kafka的adClick
终端用户每次请求一个广告后,会生成广告请求事件,保存到kafka的adRequest topic中。 请求一个广告后,可能用于多次展示,每次展示,会生成广告展示事件,保存到kafka的adShow topic中。 每个广告展示,可能会产生多次点击,每次点击,会生成广告点击事件,保存到kafka的adClick
集群。可参考购买自定义集群。 已配置网络,使日志生成节点与流集群互通。 使用Flume客户端(MRS 3.x之前版本) 普通集群不需要执行2-6。 安装Flume客户端。 可参考安装MRS 3.x之前版本Flume客户端在日志生成节点安装Flume客户端,例如安装目录为“/opt
、Kafka等组件的流式集群。可参考购买自定义集群。 已配置网络,使日志生成节点与流集群互通。 使用Flume客户端 普通集群不需要执行2-6。 安装Flume客户端。 可参考安装Flume客户端在日志生成节点安装Flume客户端,例如安装目录为“/opt/Flumeclient
SDK概述 本文介绍了MRS服务提供的SDK语言版本,列举了最新版本SDK的获取地址。 在线生成SDK代码 API Explorer能根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 您可以在API Explorer中具体API页面的“代码示例”页签查看对应编程语言类型的SDK代码,如图1所示。
放路径,omm用户需拥有该目录的读、写与执行权限。 如未修改保存路径,文件生成后将默认保存在集群主OMS节点的“/tmp/FusionInsight-Client”。 不勾选“仅保存到如下路径”:文件生成后将自动下载并保存至本地,安装客户端时需将其上传至待安装客户端节点的指定目录。
Storm样例程序是在Linux环境下运行,需要将IntelliJ IDEA中的代码打包成jar包。 打包Strom样例工程应用 打包业务 将IntelliJ IDEA代码生成的jar包与工程依赖的jar包,合并导出可提交的source.jar。 打包Strom应用业务 提交拓扑 指导用户将开发好的程序提交运行。
如果初始密码由系统随机生成,需要直接重置密码。 修改该密码会导致已经下载的用户凭证不可用,请修改该密码后重新下载认证凭据并替换旧凭据。 MRS 3.x及之后版本,组件运行用户,根据初始密码是否是系统随机生成,可分为两类: 密码随机生成的,用户类型为“机机”用户。 密码不是随机生成的,用户类型为“人机”用户。
配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。 样例 通过“CSV文件输入”算子,生成三个字段A、B和C。 源文件如下: 配置“字符串空格清除转换”算子,生成三个新字段D、E和F。 转换后,依次输出这六个字段,结果如下: 父主题: Loader转换类算子
Storm样例程序是在Linux环境下运行,需要将IntelliJ IDEA中的代码打包成jar包。 打包Storm样例工程应用 打包业务 将IntelliJ IDEA代码生成的jar包与工程依赖的jar包,合并导出可提交的source.jar。 打包Storm业务 提交拓扑 指导用户将开发好的程序提交运行。 提交Storm拓扑
配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。 样例 通过“CSV文件输入”算子,生成三个字段A、B和C。 源文件如下: 配置“字符串空格清除转换”算子,生成三个新字段D、E和F。 转换后,依次输出这六个字段,结果如下: 父主题: 转换算子
当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 已执行生成Storm应用Jar包步骤,生成storm-examples-1.0.jar,并放置到/opt/jartarget/。 操作步骤 安全模式下,请先进行安全认证,参见准备Linux客户端环境。
导入并配置Flink样例工程 操作场景 Flink针对多个场景提供样例工程,包含Java样例工程和Scala样例工程等,帮助客户快速学习Flink工程。 针对Java和Scala不同语言的工程,其导入方式相同。 以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程
在安装集群时,系统将自动生成加密密钥key值以对集群的部分安全信息(例如所有数据库用户密码、密钥文件访问密码等)进行加密存储。在集群安装成功后,如果原始密钥不慎意外泄露或者需要使用新的密钥,系统管理员可以通过以下操作手动更改密钥值。 对系统的影响 更新集群密钥后,集群中新增加一个随机生成的新密钥
放路径,omm用户需拥有该目录的读、写与执行权限。 如未修改保存路径,文件生成后将默认保存在集群主OMS节点的“/tmp/FusionInsight-Client”。 不勾选“仅保存到如下路径”:文件生成后将自动下载并保存至本地,安装客户端时需将其上传至待安装客户端节点的指定目录。
Flink对接云搜索服务(CSS)样例程序(Java) 功能介绍 当前基于随机数生成器实现了一个持续产生长度为4字符串的数据源用于写入数据。 样例代码 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.flink.examples。 public class
按需计费变更为包年/包月会生成新的订单,用户支付订单后,包年/包月资源将立即生效。 假设用户于2023/06/18 15:29:16购买了一个按需计费的MRS集群,由于业务需要,于2023/06/18 16:30:30执行按需转包年/包月操作,生成类型为“按需转包年/包月”的订
应用终止到重启完成这段时间内(B段时间)进入Kafka数据生成的任务,最后再处理应用重启完成后(C段时间)进入Kafka数据生成的任务。并且对于B段时间进入Kafka的数据,Spark将按照终止时间(batch时间)生成相应个数的任务,其中第一个任务读取全部数据,其余任务可能不读取数据,造成任务处理压力不均匀。
应用终止到重启完成这段时间内(B段时间)进入Kafka数据生成的任务,最后再处理应用重启完成后(C段时间)进入Kafka数据生成的任务。并且对于B段时间进入Kafka的数据,Spark将按照终止时间(batch时间)生成相应个数的任务,其中第一个任务读取全部数据,其余任务可能不读取数据,造成任务处理压力不均匀。
表4 Kafka作业参数 参数名称 示例 Link kafkalink 单击“确定”,完成Kafka作业参数配置。 作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。