检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
接到Kyuubi服务器。 步骤3:配置Power BI使用ODBC连接到Kyuubi:在BI工具中创建一个新的数据连接,使用ODBC作为数据源,通过ODBC连接Kyuubi。 步骤1:安装并配置Kyuubi连接DLI 如需使用外网访问Kyuubi请确保弹性云服务器绑定弹性公网IP
* 从 Kafka brokers 中的 consumer 组(consumer 属性中的 group.id 设置)提交的偏移量中开始读取分区。 * 如果找不到分区的偏移量,那么将会使用配置中的 auto.offset.reset 设置。
展。 用户使用自定义镜像功能需要具备Docker相关的基础知识。 使用限制 创建自定义镜像必须使用DLI提供的基础镜像。 不能随意修改基础镜像中DLI相关组件及目录。 仅支持Spark jar作业、Flink jar作业,即jar包作业。 使用流程 图1 自定义镜像使用流程 获取DLI基础镜像。
操作场景 在实际作业运行中,由于作业的重要程度以及紧急程度不同,需要重点保障重要和紧急的作业正常运行,因此需要满足它们正常运行所需的计算资源。 DLI提供的设置作业优先级功能,可以对每个SQL设置作业优先级,当资源不充足时,可以优先满足优先级较高的作业的计算资源。 使用须知 运行在基础版
创建非弹性资源池队列(废弃,不推荐使用) 非弹性资源池模式的队列是DLI的上一代计算资源管理方式,按使用需求购买和释放资源,需要预先估计资源使用需求再进行购买。 优先推荐使用弹性资源池队列,提高资源使用的灵活性和资源利用效率。购买弹性资源池并在弹性资源池中添加队列请参考创建弹性资源池并添加队列。
Spark作业操作步骤 在“Spark参数”中配置如下参数,其中x为优先级取值。 spark.dli.job.priority=x 登录DLI管理控制台。 单击“作业管理 > Spark作业”。 选择待配置的作业,单击操作列下的编辑。 在“Spark参数”中配置spark.dli.job.priority参数。
细信息。 详细信息中即包含“SQL执行计划”项,单击查看,系统从DLI作业桶中查询对应作业的SQL执行计划并展示在控制台页面。 如果DLI作业桶中的SQL执行计划已经删除,那么点击查看后可能由于源文件缺失无法正常显示。 图1 查看SQL执行计划 父主题: 使用DLI提交SQL作业
面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。运行完成后显示“已完成”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信
Flink作业字节输出总数 展示用户Flink作业字节的输出总数。单位:字节。 Flink作业CPU使用率 展示用户Flink作业的CPU使用率。单位:%。 Flink作业内存使用率 展示用户Flink作业的内存使用率。单位:%。 Flink作业最大算子延迟 展示用户Flink作业的最大算子延迟时间,单位ms。
存。 停止作业过程中,在作业列表的“状态”列中将显示作业状态,说明如下: 如果在“状态”中显示“停止中”,表示正在停止作业。 如果在“状态”中显示“已停止”,表示停止作业成功。 如果在“状态”中显示“停止失败”,表示停止作业失败。 删除作业 当用户不再需要使用某个作业时,可以参考
设置Flink Jar作业优先级 在“优化参数”中配置如下参数,其中x为优先级取值。 flink.dli.job.priority=x 登录DLI管理控制台。 单击“作业管理 > Flink作业”。 选择待配置的作业,单击操作列下的编辑。 在“优化参数”中输入如下语句。先开启动态扩缩容功能,再设置作业优先级。
Spark作业的实际资源使用情况 查看Spark作业原始资源配置 登录DLI 控制台,单击左侧“作业管理”>“Spark作业”,在作业列表中找到需要查看的Spark作业,单击“作业ID”前的,即可查看对应Spark作业的原始资源配置参数。 在创建Spark作业时,配置了“高级配置”中的参数,此
启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。 如果作业状态为“提交失败”或“运行异常”,表示作业提交或运行失败。用户可以在作业列表中的“状态”列中,将鼠标移动到状态图标上查看错误信息,单击可以
在“SQL模板”页面,可在右上方搜索框中输入模板名称关键字,查找与之匹配的模板。 修改SQL作业模板 修改模板仅支持对自定义模板进行操作,具体步骤如下: 在“SQL模板”页面,单击“自定义模板”,选中需修改的模板,单击“操作”列的“修改”。 在弹出的“修改模板”对话框中,根据需要修改模板的名称、语句和描述。
使用DLI的跨源认证管理数据源访问凭证 跨源认证概述 创建CSS类型跨源认证 创建Kerberos跨源认证 创建Kafka_SSL类型跨源认证 创建Password类型跨源认证 跨源认证权限管理 父主题: 配置DLI读写外部数据源数据
TaskManager中托管内存总量 flink_jobmanager_Status_JVM_Threads_Count JobManager中活动的线程总数 flink_taskmanager_Status_JVM_Threads_Count TaskManager中活动中的线程总数 f
SMN-创建主题。 在“主题名称”框中,输入主题名称,在“显示名”框中输入相关描述。 订阅主题。 要接收发布至主题的消息,您必须向该主题添加订阅者。 登录SMN管理控制台。 在左侧导航栏,选择“主题管理 > 主题”。进入主题页面。 在主题列表中,选择您要向其添加订阅者的主题,在右侧“操作”栏单击“添加订阅”。
如何自定义SMN主题,请参见《消息通知服务用户指南》中“创建主题”章节。 检查IAM权限。 如果SMN主题已经存在,但仍然提示不存在,请进入统一身份认证服务(IAM),选择对应子账户所在的用户组,确保该用户组已添加相应Region的SMN策略。 确认主题名称和区域。 确保您在DLI中配置的SMN主题名称和区
12版本的作业支持开启动态扩缩容。 使用须知 在Flink作业进行动态扩缩容时如果队列资源被抢占,剩余资源不满足作业启动所需资源则可能存在作业无法正常恢复的情况。 在Flink作业进行动态扩缩时后台作业需要停止继而从savepoint恢复,因此未恢复成功前,作业无法处理数据。 因扩缩容过程中需要触发sa
使用CDM迁移数据到DLI,迁移作业日志上报UQUERY_CONNECTOR_0001:Invoke DLI service api failed错误 问题现象 在CDM迁移数据到DLI,迁移作业提交后,在CDM作业迁移日志中查看作业执行失败,具体日志有如下报错信息: org.apache