检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建DLI程序包 DLI支持用户通过批处理方式将程序包提交至通用队列中运行。 如果用户需要更新程序包,可以使用相同的程序包或文件上传至DLI的同一个位置(同一个分组),直接覆盖原有的程序包或文件。 前提条件 所使用的程序包需提前上传至OBS服务中保存。 创建程序包步骤 在管理控制
弹性资源池关联队列 操作场景 参考创建弹性资源池并添加队列创建完弹性资源池后,您可以将已有的队列关联至弹性资源池,即可将弹性资源池的资源用于后续作业的运行 您可以在弹性资源池页面通过“关联队列”将队列添加到弹性资源池。还可以在队列管理页面分配队列至弹性资源池。 弹性资源池Flink版本只支持1
fka的地址-->测试)。若能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,并提交运行,其代码如下: create table kafkaSource( id BIGINT, name STRING, description
已参考初始化DLI客户端完成客户端DLIClient的初始化,参考队列相关完成队列创建等操作。 创建数据库 DLI提供创建数据库的接口。您可以使用该接口创建数据库,示例代码如下: 1 2 3 4 5 6 7 private static Database createDatabase(DLIClient client)
在DLI控制台删除数据库 根据实际使用情况,您可以通过删除数据库。 注意事项 具有正在运行中的作业的数据库或者表不能删除。 管理员用户、数据库的所有者和具有删除数据库权限的用户可以删除数据库。 数据库和表删除后,将不可恢复,请谨慎操作。 删除数据库 在管理控制台左侧,单击“数据管理”>“库表管理”。
定成功;否则表示未成功 创建flink opensource sql作业,并选择flink版本为1.15,选择保存日志,然后提交并运行,其SQL代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,开启checkpoint,并提交运行,其代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
scala样例代码 pyspark样例代码 java样例代码 Hbase源表 Hbase结果表 Hbase维表 - CloudTable OpenTSDB 创建OpenTSDB关联表 插入数据 查询数据 scala样例代码 pyspark样例代码 java样例代码 - - CSS
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.15版本,并提交运行,其代码如下: CREATE TABLE kafkaSource ( id bigint, name string, description
返回结果 状态码 请求发送以后,您会收到响应,包含状态码、响应消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于获取用户Token接口,如果调用后返回状态码为“201”,则表示请求成功。 响应消息头 对应请求
OpenSource作业,创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。该作业脚本将Kafka作业数据源,将DWS作为结果表。 注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业
分组名称:自定义分组或选择已有的分组名称。 图4 创建clinet.jks 将示例代码打包,在DLI控制台,打开“数据管理 > 程序包管理”,单击“创建”,创建Flink Jar对应的程序包。代码样例请参考Kafaka ToKafakaExample.java样例、•SinkKafkaProducer
能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.12版本,并提交运行,其代码如下: create table kafkaSource( id bigint, name string, description
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,开启checkpoint,并提交运行,其代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
作业的状态信息,包括如下。 启动中:正在启动 运行中:正在执行任务 已失败:session已退出 已成功:session运行成功 恢复中:正在恢复任务 创建时间 每个作业的创建时间,可按创建时间顺序或倒序显示作业列表。 最后修改时间 作业运行完成的时间。 操作 编辑:可修改当前作业配置,重新执行作业。
需要一定的技术能力完成代码编译、集群搭建、配置、运维。 用户需要自己编写完整代码并进行编译。 用户需要登录集群使用命令进行提交,且需要维护集群。 用户需要在代码里写入checkpoint才能开启。 作业模板 内置多个常见Flink SQL通用场景模板,帮助您快速了解和构建作业代码 暂无 企业安全
对接DWS scala样例代码 pyspark样例代码 java样例代码 父主题: 使用Spark作业跨源访问数据源
fka的地址-->测试)。若能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,并提交运行,其代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
对接Redis scala样例代码 pyspark样例代码 java样例代码 故障处理 父主题: 使用Spark作业跨源访问数据源
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.15,并提交运行,其代码如下: CREATE TABLE kafkaSource ( id bigint, name string, description