检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
此处创建表的方式不支持创建View,HBase(CloudTable/MRS)表、OpenTSDB(CloudTable/MRS)表、DWS表、RDS表和CSS表等跨源连接表。可通过SQL方式创建View和跨源连接表,具体请参考《数据湖探索SQL语法参考》。
在Redis客户端中执行如下命令,向不同的key中插入数据,以hash形式存储: HMSET redisSource order_id 202103241000000001 order_channel webShop order_time "2021-03-24 10:00:00"
select_statement 否 用于CTAS命令,将源表的select查询结果或某条数据插入到新创建的OBS表中。 示例1:创建OBS非分区表 示例说明:创建名为table1的OBS非分区表,并用STORED AS关键字指定该表的存储格式为orc格式。
在Redis客户端中执行如下命令,向不同的key中插入数据,以hash形式存储: HMSET redisSource order_id 202103241000000001 order_channel webShop order_time "2021-03-24 10:00:00"
例如时间窗口的间隔时间是 30 分钟,当其不活跃的时间达到30分钟后,若观测到新的记录,则会启动一个新的会话时间窗口(否则该行数据会被添加到当前的窗口),且若在 30 分钟内没有观测到新纪录,这个窗口将会被关闭。
例如时间窗口的间隔时间是 30 分钟,当其不活跃的时间达到30分钟后,如果观测到新的记录,则会启动一个新的会话时间窗口(否则该行数据会被添加到当前的窗口),且如果在 30 分钟内没有观测到新纪录,这个窗口将会被关闭。
select_statement 否 用于CTAS命令,将源表的select查询结果或某条数据插入到新创建的OBS表中。 表2 OPTIONS参数描述 参数 是否必选 描述 path 否 指定的表路径,即OBS存储路径。
false hoodie.run.compact.only.inline 通过Sql执行run compaction命令时,是否只执行压缩操作,压缩计划不存在时直接退出。
write.index_bootstrap.tasks 否 环境默认并行度 Integer “index.bootstrap.enabled”开启后有效,增加任务数提升启动速度,默认值为环境默认并行度。
在CDM“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行可开启。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数,适当的抽取并发数可以提升迁移效率,配置原则请参见性能调优。这里保持默认值“1”。
start_time 否 Long 作业启动时间。 user_id 否 String 作业所属用户标识。 queue_name 否 String 队列名称。长度限制:1-128个字符。 project_id 否 String 作业所属项目标识。
图20 模拟实时数据流 发送命令如下: sh kafka_2.11-2.3.0/bin/kafka-console-producer.sh --broker-list KafKa连接地址 --topic Topic名称 示例数据如下: {"order_id":"202103241000000001
开发指南 跨源访问其他数据源 提供跨源访问CSS、DWS、HBase、OpenTSDB、RDS、Redis、Mongo等样例代码和开发指导。 增强型跨源API参考 提供增强型跨源相关API接口指导。
scan.startup.timestamp-millis 否 无 Long 在scan.startup.mode参数指定为'timestamp'模式下生效,指定启动位点时间戳。
6379") .set("spark.redis.auth", "######") .set("spark.driver.allowMultipleContexts","true")) spark.driver.allowMultipleContexts:true 表示在启动多个
初始状态显示为“启动中”。 如果作业运行成功则作业状态显示为“已成功”,单击“操作”列“更多”下的“Driver日志”,显示当前作业运行的日志。
-7.7.2.jar crypter-0.0.6.jar json4s-core_2.11-3.5.3.jar solr-solrj-7.7.2.jar curator-client-4.2.0.jar json4s-jackson_2.11-3.5.3.jar spark-avro
初始状态显示为“启动中”。 如果作业运行成功则作业状态显示为“已成功”,通过以下操作查看创建的数据库和表。 可以在DLI控制台,左侧导航栏,单击“SQL编辑器”。在“数据库”中已显示创建的数据库“test_sparkapp”。
在执行SQL作业时,您可以在控制台选择执行SQL所在的catalog,如图2所示,或在SQL命令中指定catalogName。catalogName是DLI控制台的数据目录映射名。