正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业编辑窗口常用语法采用不同颜色突出显示。 支持单行注释和多行注释。以“--”开头,后续内容即为注释。 使用SQL编辑器创建并提交SQL作业 登录DLI管理控制台,选择“SQL编辑器”页面。 进入“SQL编辑器”页面后,系统会提示“创建DLI临时数据桶”,用于存储使用DLI服务产生的
programming interface)管理方式来访问DLI,又可以通过JDBC客户端连接DLI服务端。 管理控制台方式 提交SQL作业、Spark作业或Flink作业,均可以使用管理控制台方式访问DLI服务。 登录管理控制台,从主页选择“EI企业智能”>“EI大数据”>“数据湖探索”。
改。 创建DLI访问DEW的委托并完成委托授权。详细步骤请参考自定义DLI委托权限。 在DEW创建通用凭证。详细操作请参考创建通用凭据。 登录DEW管理控制台 选择“凭据管理”,进入“凭据管理”页面。 单击“创建凭据”。配置凭据基本信息 DLI Flink jar作业编辑界面设置作业参数。
dli_management_agency委托包含的权限 适用场景 委托名 权限说明 基础使用 IAM ReadOnlyAccess DLI对未登录过DLI的用户进行授权时,需获取IAM用户相关信息。因此需要IAM ReadOnlyAccess权限。 IAM ReadOnlyAcces
最小CU之和=128-32-64=32CU。 因为两个队列的优先级相同,则剩余32CU随机分配给两个队列。 弹性资源池队列扩缩容策略配置 登录DLI控制台,参考创建弹性资源池创建一个最小CU数为128CU和最大CU数为256CU的弹性资源池。 单击“资源管理 > 弹性资源池”,在
数据类型映射 HBase以字节数组存储所有数据,在读和写过程中要序列化和反序列化数据。 Flink的HBase连接器利用HBase(Hadoop) 的工具类org.apache.hadoop.hbase.util.Bytes进行字节数组和Flink数据类型转换。 Flink的HBase连接器
SQL语句大小限制 须小于500000字符。 须小于1MB。 其他约束限制 DLI配额相关约束限制请参考配额管理操作指导。 建议使用支持的浏览器登录DLI服务。 Google Chrome : 43.0及更高版本 Mozilla FireFox : 38.0及更高版本 Internet
目录设置为当前目录,然后才能查询视图。这可以通过表 API 中的 tableEnv.useCatalog(...) 或 USE CATALOG ...在 SQL 客户端中。 Hive 和 Flink SQL 具有不同的语法,例如不同的保留关键字和文字。确保视图的查询与 Flink 语法兼容。 示例 使用Spark
数据类型映射 HBase以字节数组存储所有数据。在读和写过程中要序列化和反序列化数据。 Flink的HBase连接器利用HBase(Hadoop) 的工具类 org.apache.hadoop.hbase.util.Bytes 进行字节数组和 Flink 数据类型转换。 Flink的HBas
ros认证,则必须设置。 properties.connector.kerberos.principal 否 无 String 安全集群的登录用户名。如果开启了kerberos认证,则必须设置。 properties.connector.kerberos.keytab 否 无 String
startingOffsets = params.get("startOffset"); // 消费组标识,同一个消费组下的不同客户端可以同时消费同一个通道 String groupId = params.get("groupId"); //