检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Flink的功能对比如表1所示。 表1 DLI Flink与MRS Flink功能对比 类型 特点 DLI Flink MRS Flink 特色能力 产品模式 全托管(无需人力运维集群) 半托管(需要人力运维集群) 弹性扩缩容 支持集群容器化部署。 用户可以根据业务负载进行弹性扩缩容,
IPv4地址:192.168.x.x · IPv4+端口号:192.168.x.x:8080 · 域名:domain-xxxxxx.com · 域名+端口号:domain-xxxxxx.com:8080 图1 测试地址连通性 单击“测试”。 如果测试地址可连通,页面上将提示地址可达。
长期占用资源,资源浪费严重,成本高。 弹性扩缩容能力 基于容器化Kubernetes,具有极致的弹性伸缩能力。 无。 免运维 运维成本 即开即用,Serverless架构。 需要较强的技术能力进行搭建、配置、运维。 高可用 具有跨AZ容灾能力。 无 高易用 学习成本 学习成本低,包含1
key-delimiter 否 _ String 连接复合主键的拼接符,默认为_。 failure-handler 否 fail String 对Elasticsearch请求失败时的故障处理策略。有效的策略是: fail: 如果请求失败并因此导致作业失败,则抛出异常。 ignore: 忽略失败并丢弃请求。
复合键的分隔符(默认为"_"),例如,指定为"$"将导致文档 ID 为"KEY1$KEY2$KEY3"。 failure-handler 否 fail String 对 Elasticsearch 请求失败情况下的失败处理策略。有效策略为: fail:如果请求失败并因此导致作业失败,则抛出异常。 ignore:忽略失败并放弃请求。
Flink作业怎样设置“异常自动重启”? 场景概述 DLI Flink作业具有高可用保障能力,通过设置“异常自动重启”功能,可在周边服务短时故障恢复后自动重启。 操作步骤 登录DLI控制台,选择“作业管理”>“Flink作业”。 在Flink作业编辑页面,勾选“异常自动重启”。例如,图1所示。
config' = 'xx', -- dew凭据管理中的key,其值如:org.apache.kafka.common.security.plain.PlainLoginModule required username=xx password=xx; 'format' = 'json'
OPTIONS (PATH 'obs://dli-demo/detail-records/'); 使用该案例时,需将上述SQL语句中的文件路径修改为实际存放详单数据的OBS路径。 单击“执行”,创建详单表detail_records,请参见图3。 图3 创建详单表 执行以下SQL
DLI对接LakeFormation 操作场景 LakeFormation是企业级一站式湖仓构建服务,提供元数据统一管理能力,支持无缝对接多种计算引擎及大数据云服务,便捷高效地构建数据湖和运营相关业务,加速释放业务数据价值。 在DLI的Spark作业和SQL作业场景,支持对接La
HBase的使用,通过HBase shell在HBase中创建相应的表,表名为order,表中只有一个列族detail,创建语句如下: create 'order', {NAME => 'detail'} 参考创建Flink OpenSource作业,创建flink opensource sql
Teradata函数 以下函数提供Teradata SQL的能力。 字符串函数 char2hexint(string) 描述:返回字符串的UTF-16BE编码的十六进制表示形式。 index(string, substring) 描述:同strpos() 函数。 日期函数 本节中的函数使用与Teradata
以按需付费的方式继续使用。 存储套餐的额度每个小时会重置。其他类型套餐包额度按月重置。 DLI存储资源使用约束限制 DLI提供了存储资源的能力,用于存储数据库和DLI表,DLI存储按存储数据量计费。 DLI资源相关约束限制 更多资源相关约束限制请参考数据管理。 表5 DLI资源相关约束限制
HBase的使用,通过HBase shell在HBase中创建相应的表,表名为order,表中只有一个列族detail,创建语句如下: create 'order', {NAME => 'detail'} 参考创建Flink OpenSource作业,创建flink opensource sql
EXPLAIN 语法 EXPLAIN [ ( option [, ...] ) ] statement 其中选项可以是以下选项之一: FORMAT { TEXT | GRAPHVIZ | JSON } TYPE { LOGICAL | DISTRIBUTED | VALIDATE
概述 DLI支持原生Spark的DataSource能力,并在其基础上进行了扩展,能够通过SQL语句或者Spark作业访问其他数据存储服务并导入、查询、分析处理其中的数据,目前支持的DLI跨源访问服务有:表格存储服务CloudTable,云搜索服务CSS,分布式缓存服务DCS,文
使用Notebook实例提交DLI作业 Notebook是基于开源JupyterLab进行了深度优化的交互式数据分析挖掘模块,提供在线的开发和调试能力,用于编写和调测模型训练代码。完成DLI对接Notebook实例后,您可以基于Notebook提供的Web交互的开发环境同时完成代码的编写
使用自定义镜像增强作业运行环境 自定义镜像应用场景 通过下载DLI提供的基础镜像再按需制作自定义镜像,将作业运行需要的依赖(文件、jar包或者软件)、私有能力等内置到自定义镜像中,以此改变Spark作业和Flink作业的容器运行环境,增强作业的功能、性能。 例如,在自定义镜像中加入机器学习相关的
`obs://bucket_name/tbl_path` ADD CONSTRAINT constraint_name CHECK(boolExpression) 参数描述 表1 ADD CONSTRAINT参数描述 参数 描述 database_name Database名称,由字母、数字和下划线(_)组成。
CONSTRAINT 命令功能 DROP CONSTRAINT 命令删除 CHECK 约束。 命令格式 ALTER TABLE [database_name.]table_name|DELTA.`obs://bucket_name/tbl_path` DROP CONSTRAINT constraint_name
源配置不足、数据倾斜、网络问题或任务过多导致的。 解决方案: 设置并发数:通过设置合适的并发数,可以启动多任务并行运行,从而提高作业的处理能力。 例如访问DWS大批量数据库数据时设置并发数,启动多任务的方式运行,避免作业运行超时。 具体并发设置可以参考对接DWS样例代码中的par