检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"", field_delimiter = "", offset= ""); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 数据源类型,“dis”表示数据源为数据接入服务。 region 是 数据所在的DIS区域。 ak 否 访问密钥ID(Access
"", field_delimiter = "", offset= ""); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 数据源类型,“dis”表示数据源为数据接入服务。 region 是 数据所在的DIS区域。 ak 否 访问密钥ID(Access
doublef:CF1.doublef')") ZKHost、RowKey、Cols三个参数详情讲解可参考表1。 TableName:CloudTable中的表名,在保存时如果没有表名,系统会自动创建。 构造schema 1 2 3 4 5 6 7 8 9 schema = Stru
field_delimiter = '', version_id = "" ); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 数据源类型,“obs”表示数据源为对象存储服务。 region 是 对象存储服务所在区域。 encode 否 数据的编码格式,
field_delimiter = '', version_id = "" ); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 数据源类型,“obs”表示数据源为对象存储服务。 region 是 对象存储服务所在区域。 encode 否 数据的编码格式,
SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数 注意事项 LIMIT 查询需要有一个 ORDER BY 字句 示例 SELECT * FROM Orders ORDER BY orderTime LIMIT 3;
SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数 注意事项 LIMIT查询需要有一个ORDER BY 示例 SELECT * FROM Orders ORDER BY orderTime LIMIT 3; 父主题:
option("password", auth).load().show() 操作结果 通过SQL API 访问 创建DLI关联跨源访问 Redis的关联表。 sparkSession.sql( "CREATE TEMPORARY VIEW person (name STRING, age
SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数 注意事项 LIMIT 查询需要有一个 ORDER BY 字句 示例 SELECT * FROM Orders ORDER BY orderTime LIMIT 3;
SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数 注意事项 LIMIT查询需要有一个ORDER BY 示例 SELECT * FROM Orders ORDER BY orderTime LIMIT 3; 父主题:
SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数 注意事项 LIMIT 查询需要有一个 ORDER BY 字句 示例 SELECT * FROM Orders ORDER BY orderTime LIMIT 3;
数据迁移与传输方式概述 导入数据至OBS DLI支持在不迁移数据的情况下,直接访问OBS中存储的数据进行查询分析。 您只需将本地数据导入OBS即可开始使用DLI进行数据分析。 导入数据的具体操作请参考上传对象。 迁移数据至DLI 为了将分散在不同系统中的数据迁移到DLI,确保数据
98端口。具体操作请参考添加安全组规则。 ECS需安装Java JDK,JDK版本建议为1.8。配置Java环境变量JAVA_HOME。 查询弹性云服务器ECS详细信息,获取ECS的“私有IP地址”。 使用增强型跨源连接打通DLI队列和Livy实例所在的VPC网络。具体操作可以参考增强型跨源连接。
com:9200', 'es.nodes.wan.only'='true', 'resource' '/mytest/css')") 表1 创建表参数 参数 说明 es.nodes CSS的连接地址,需要先创建跨源连接。具体操作请参考《数据湖探索用户指南》。 创建经典型跨源连接后,使用经典型跨源连接中返回的连接地址。
kafka_topic = "", encode = "json" ); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 数据源类型,“Kafka”表示数据源。 kafka_bootstrap_servers 是 Kafka的连接端口,需要确保能连通
] ) CUBE ( column [, ...] ) ROLLUP ( column [, ...] ) 描述 从零个或多个表中检索行数据。 查询stu表的内容。 SELECT id,name FROM stu; 父主题: DQL 语法
SQL作业相关API 提交SQL作业(推荐) 取消作业(推荐) 查询所有作业 预览SQL作业查询结果 导出查询结果 查询作业状态 查询作业详细信息 检查SQL语法 查询作业执行进度信息
若编码格式为“json”,则需配置“json_config”属性。 当编码格式为"blob"时,表示不对接收的数据进行解析,当前表仅能有一个且为Array[TINYINT]类型的表字段。 若编码格式为“user_defined”,则需配置“encode_class_name”和
队列相关API(推荐) 创建队列 删除队列 查询所有队列 查询队列详情 重启/扩容/缩容队列 创建指定地址连通性测试请求 查询指定地址连通性测试详情
若编码格式为“json”,则需配置“json_config”属性。 当编码格式为"blob"时,表示不对接收的数据进行解析,当前表仅能有一个且为Array[TINYINT]类型的表字段。 若编码格式为“user_defined”,则需配置“encode_class_name”和