-
如何在DLI中运行复杂PySpark程序? - 数据湖探索 DLI
对于JVM语言系的程序,通常会把程序打成Jar包并依赖其他一些第三方的Jar,同样的Python程序也有依赖一些第三方库,尤其是基于PySpark的融合机器学习相关的大数据分析程序。
-
StreamingML - 数据湖探索 DLI
StreamingML 异常检测 时间序列预测 实时聚类 深度学习模型预测 父主题: Flink SQL语法参考(不再演进,推荐使用Flink OpenSource SQL)
-
使用Spark-submit提交Spark Jar作业 - 数据湖探索 DLI
all:跳过所有资源文件的上传和加载 app:跳过Spark应用程序文件的上传和加载 deps:跳过所有依赖文件的上传和加载 -h,--help - 打印命令帮助 命令举例: .
-
StreamingML - 数据湖探索 DLI
StreamingML 异常检测 时间序列预测 实时聚类 深度学习模型预测 父主题: Flink SQL语法参考(不再演进,推荐使用Flink OpenSource SQL)
-
查询作业模板列表 - 数据湖探索 DLI
executorCores Integer Spark应用每个Executor的CPU核数。该配置项会替换sc_type中对应的默认参数。 numExecutors Integer Spark应用Executor的个数。该配置项会替换sc_type中对应的默认参数。
-
Flink Jar作业设置backend为OBS,报错不支持OBS文件系统 - 数据湖探索 DLI
重启clusteragent应用集群升级后的配置。 去掉OBS依赖,否则checkpoint会写不进OBS。 父主题: Flink Jar作业相关问题
-
创建批处理作业 - 数据湖探索 DLI
appId 否 String 批处理作业的后台app ID。 name 否 String 创建时用户指定的批处理名称,不能超过128个字符。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。
-
EdgeHub输出流(EOS) - 数据湖探索 DLI
边缘作业依赖于智能边缘平台(Intelligent EdgeFabric, IEF),IEF通过纳管用户的边缘节点,提供将云上应用延伸到边缘的能力,联动边缘和云端的数据,同时,在云端提供统一的设备/应用监控、日志采集等运维能力,为企业提供完整的边缘计算解决方案。
-
EdgeHub输入流(EOS) - 数据湖探索 DLI
边缘作业依赖于智能边缘平台(Intelligent EdgeFabric, IEF),IEF通过纳管用户的边缘节点,提供将云上应用延伸到边缘的能力,联动边缘和云端的数据,同时,在云端提供统一的设备/应用监控、日志采集等运维能力,为企业提供完整的边缘计算解决方案。
-
Python开发环境配置 - 数据湖探索 DLI
图1 检验配置是否成功 python安装应用包时出现错误类似错误“error: Microsoft Visual C++ xx.x is required.
-
CloudTable HBase输入流 - 数据湖探索 DLI
表格存储服务(CloudTable),是基于Apache HBase提供的分布式、可伸缩、全托管的KeyValue数据存储服务,为DLI提供了高性能的随机读写能力,适用于海量结构化数据、半结构化数据以及时序数据的存储和查询应用,适用于物联网IOT应用和通用海量KeyValue数据存储与查询等场景
-
CloudTable HBase输入流 - 数据湖探索 DLI
表格存储服务(CloudTable),是基于Apache HBase提供的分布式、可伸缩、全托管的KeyValue数据存储服务,为DLI提供了高性能的随机读写能力,适用于海量结构化数据、半结构化数据以及时序数据的存储和查询应用,适用于物联网IOT应用和通用海量KeyValue数据存储与查询等场景
-
区域和可用区 - 数据湖探索 DLI
如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 区域和终端节点 当您通过API使用资源时,您必须指定其区域终端节点。有关区域和终端节点的更多信息,请参阅地区和终端节点。
-
最佳实践内容概览 - 数据湖探索 DLI
数据分析 DLI应用于海量的日志数据分析和大数据ETL处理,助力各行业使能数据价值。当前数据分析最佳实践内容如下: 使用DLI进行车联网场景驾驶行为数据分析,具体请参考使用DLI进行车联网场景驾驶行为数据分析。
-
DWS Connector概述 - 数据湖探索 DLI
DWS数据库内核兼容PostgreSQL,PostgreSQL数据库可存储更加复杂类型的数据,支持空间信息服务、多版本并发控制(MVCC)、高并发,适用场景包括位置应用、金融保险、互联网电商等。 DWS的更多信息,请参见《数据仓库服务管理指南》。
-
Flink作业重启后,如何判断是否可以从checkpoint恢复 - 数据湖探索 DLI
应用场景 我们列举了一些常见的从checkpoint恢复的场景供您参考,如表1所示。 更多场景你可以使用从checkpoint恢复的原则结合实际情况进行判断。
-
使用Spark作业访问DLI元数据 - 数据湖探索 DLI
编辑“应用程序”,选择1上传的OBS地址。 图11 配置应用程序 Spark 3.3以下版本: 分别上传Jar包到OBS和DLI下。 登录OBS控制台,将生成的Jar包文件上传到OBS路径下。 将Jar包文件上传到DLI的程序包管理中,方便后续统一管理。
-
Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 - 数据湖探索 DLI
SELECT PG_TERMINATE_BACKEND(pid) from pg_stat_activity WHERE state='idle'; 检查应用程序是否未主动释放连接,导致连接残留。建议优化代码,合理释放连接。
-
创建Spark作业 - 数据湖探索 DLI
当应用程序类型为“.jar”时,主类名称不能为空。 应用程序参数 用户自定义参数,多个参数请以Enter键分隔。 应用程序参数支持全局变量替换。
-
CloudTable OpenTSDB输出流 - 数据湖探索 DLI
表格存储服务(CloudTable),是基于Apache HBase提供的分布式、可伸缩、全托管的KeyValue数据存储服务,为DLI提供了高性能的随机读写能力,适用于海量结构化数据、半结构化数据以及时序数据的存储和查询应用,适用于物联网IOT应用和通用海量KeyValue数据存储与查询等场景