检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
PyFile:用户Python文件。 File:用户文件。 ModelFile:用户AI模型文件。 状态 创建程序包的状态。 上传中(Uploading):表示程序包正在上传。 已成功(Finished):表示程序包已经上传。 已失败(Failed):表示程序包上传失败。 创建时间 创建程序包的时间。 更新时间
增强型跨源连接绑定队列失败怎么办? 问题现象 客户创建增强型跨源连接后,在队列管理测试网络连通性,网络不通,单击对应的跨源连接查看详情,发现绑定队列失败,报错信息如下: Failed to get subnet 86ddcf50-233a-449d-9811-cfef2f603213. Response code
配置数据连接的信息。 DISPLAY NAME:自定义数据连接名称。 SQL ALCHEMY URI:配置数据连接的URL。 数据连接URL的格式: dli://<accesskey_id>:<accesskey_secret>@<region_id>/?projectid=<pro
local_infile字符集 MySQL通过local_infile导入数据时,可配置编码格式。 utf8 驱动版本 CDM连接关系数据库前,需要先上传所需关系数据库的JDK8版本.jar格式驱动。MySQL的驱动请从https://downloads.mysql.com/archives/c-j/选择5
IllegalArgumentException: requirement failed: Are you sure you would like to vacuum files with such a low retention period? 根因分析:RETAIN 保留期过短(少于168小时),需要确认是否
窗口函数的使用限制如下: 窗口函数只能出现在select语句中。 窗口函数中不能嵌套使用窗口函数和聚合函数。 窗口函数不能和同级别的聚合函数一起使用。 命令格式 lead(<expr>[, bigint <offset>[, <default>]]) over([partition_clause]
分区表合并需要设置参数spark.sql.forcePartitionPredicatesOnPartitionedTable.enabled为false。 命令格式 MERGE INTO [database_name.]table_name AS target_alias USING (sub_query
SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.15”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。 语法格式 CREATE CATALOG myhive WITH ( 'type' = 'hive', 'default-database'
子句包含窗口表值函数或窗口聚合产生的 window_start 和 window_end。 否则优化器无法翻译。 更多介绍和使用请参考开源社区文档:窗口Top-N。 语法格式 SELECT [column_list] FROM ( SELECT [column_list], ROW_NUMBER()
sasl.mechanism' = 'GSSAPI或者PLAIN'、 'properties.sasl.jaas.config' = 'org.apache.kafka.common.security.plain.PlainLoginModule required username=\"xxx\"
2</version> </dependency> </dependencies> 图6 修改pom.xml文件 在工程路径的“src > main > java”文件夹上鼠标右键,选择“New > Package”,新建Package和类文件。 图7 新建Package Packa
"projects": [ { "domain_id": "65382450e8f64ac0870cd180d14e684b", "is_domain": false, "parent_id": "
以此来实现不同数据源的联合查询分析。 元数据 元数据(Metadata)是用来定义数据类型的数据。主要是描述数据自身信息,包含源、大小、格式或其它数据特征。数据库字段中,元数据用于诠释数据仓库的内容。 SQL作业 在SQL作业编辑器执行的SQL语句、导入数据和导出数据等操作,在
'TableName'='hbtest','RowKey'='id:5','Cols'='location:info.location,city:detail.city') "); 插入数据 1 sparkSession.sql("insert into testhbase values('12345'
静态流图:提供静态资源预估功能和流图展示功能。如图5所示。 简化流图: 展示source到sink的数据处理流程。如图4所示。 格式化:对SQL语句进行格式化。 设为模板:将新创建的作业设置为作业模板。 主题设置:设置页面主题,可以设置字体大小,自动换行和页面风格。 帮助:跳转至帮助中心,为用户提供SQL语法参考。
15版本、且已在作业中配置允许DLI访问DEW的委托信息。 在DLI管理控制台新建“增强型跨源连接”配置DLI与数据源的网络连通。 具体操作请参考增强型跨源连接。 语法格式 create table tableName( attr_name attr_type (',' attr_name attr_type)*
DEW管理凭证。配置文件或者环境变量中密文存放,使用时解密,确保安全。Flink Opensource SQL使用DEW管理访问凭据 语法格式 create table dataGenSource( attr_name attr_type (',' attr_name attr_type)*
窗口函数的使用限制如下: 窗口函数只能出现在select语句中。 窗口函数中不能嵌套使用窗口函数和聚合函数。 窗口函数不能和同级别的聚合函数一起使用。 命令格式 lag(<expr>[, bigint <offset>[, <default>]]) over([partition_clause] orderby_clause)
如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式 1 2 3 4 5 6 7 8 9 10 11 12 13 create table dwsSink ( attr_name
如果使用SASL_PLAINTEXT类型,且使用Kerberos认证,则需要同时配置以下参数: 'properties.sasl.mechanism' = 'GSSAPI' 'properties.security.protocol' = 'SASL_PLAINTEXT' 具体的建表操作指导请参考DLI