检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 分组资源文件的类型。 jar:用户jar文件。 pyFile:用户python文件。 file:用户文件。 modelFile:用户AI模型文件。 说明: 上传的同一组资源包含不同文件类型时,均选择“file”类型作为这次上传文件的类型。 group 是 String 将要创建的分组名。
status 否 String 上传分组资源状态。 resources 否 Array of strings 该模块包含的资源包名列表。 details 否 Array of body 分组资源包的详细信息。具体请参考表4。 create_time 否 Long 模块上传的unix时间戳。
更新表分区信息(只支持OBS表) 功能描述 更新表在元数据库中的分区信息。 语法格式 1 MSCK REPAIR TABLE table_name; 或 ALTER TABLE table_name RECOVER PARTITIONS; 关键字 PARTITIONS:分区。
sasl.mechanism' = 'GSSAPI或者PLAIN'、'properties.sasl.jaas.config' = 'org.apache.kafka.common.security.plain.PlainLoginModule required username=\"xxx\"
辅助命令语法 DESCRIBE DESCRIBE FORMATTED COLUMNS DESCRIBE DATABASE| SCHEMA EXPLAIN 父主题: HetuEngine SQL语法
forEachRemaining(credentialProviders::add); if (credentialProviders.size() != 1) { throw new RuntimeException("Failed to obtain
String 当前登录的用户名。 g:ProjectName 全局级 String 当前登录的Project。 g:DomainName 全局级 String 当前登录的Domain。 g:ResourceTag 全局级 StringEquals 资源标签键值。 父主题: 权限管理
创建连接时,用户自定义的连接名称。 status 否 String 连接状态,包括以下两种状态: ACTIVE:已激活 DELETED:已删除 available_queue_info 否 Array of Objects 各个队列创建跨源连接的信息,详细信息请参考表3。 dest_vpc_id
<manifest> <mainClass>com.huawei.dli.GetUserConfigFileDemo</mainClass> </manifest>
Q:若Flink作业日志中有如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org.postgresql.util.PSQLException: The connection attempt failed.
Q:若Flink作业日志中有如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org.postgresql.util.PSQLException: The connection attempt failed.
IllegalArgumentException: requirement failed: Are you sure you would like to vacuum files with such a low retention period? 根因分析:RETAIN 保留期过短(少于168小时),需要确认是否
column_constraint: : NOT NULL [[ENABLE|DISABLE] [VALIDATE|NOVALIDATE] [RELY|NORELY]] table_constraint: : [CONSTRAINT constraint_name] PRIMARY
指定文件类型。包括以下文件类型: jar:用户jar文件。 pyFile:用户python文件。 file:用户文件。 modelFile:用户AI模型文件。 tags 否 String 指定标签过滤。 请求消息 无请求参数。 响应消息 表3 响应参数说明 参数名称 是否必选 参数类型
2</version> </dependency> </dependencies> 图6 修改pom.xml文件 在工程路径的“src > main > java”文件夹上鼠标右键,选择“New > Package”,新建Package和类文件。 图7 新建Package Packa
2</version> </dependency> </dependencies> 图6 修改pom.xml文件 在工程路径的“src > main > java”文件夹上鼠标右键,选择“New > Package”,新建Package和类文件。 图7 新建Package Packa
"projects": [ { "domain_id": "65382450e8f64ac0870cd180d14e684b", "is_domain": false, "parent_id": "
镜像。 custom:表示使用用户自定义的Spark镜像。 ai:表示使用DLI提供的AI镜像。 spark_version 否 String 作业使用spark组件的版本号,在“feature”为“basic”或“ai”时填写,若不填写,则使用默认的spark组件版本号2.3.2。
调用接口出错后,将不会返回上述结果,而是返回错误码和错误信息,更多介绍请参见错误码。 表5 错误码 错误码 错误信息 DLI.0999 Queue plans create failed. The plan plan_A can not generate a scale plan, please check all time
ROLL_BACK CLUSTERING CLEANING COMPACTION SHOW_COMMIT_FILES SHOW_FS_PATH_DETAIL SHOW_LOG_FILE SHOW_INVALID_PARQUET 父主题: DLI Hudi SQL语法参考