-
Spark Python脚本如何引用Python脚本?
__name__ == '__main__': # 创建一个名为"myj"的SparkSession对象 odps = create_spark_session() odps.execute_sql=execute_sql # 执行sql # sql_str="""select
来自:帮助中心 -
SQL、DML和DDL
-
pyodps中的apply用法
-
自定义参数说明
自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name
来自:帮助中心 -
张小白DataX踩坑记(一)
-
【mrs产品】【hive功能】springboot启动可以登录zk,hive连接执行语句报错
-
认识DataX及简单入门
-
DataX-OBS数据同步工具
-
全量数据迁移
-
DataX对接OBS
-
方案概述
-
增量数据迁移
-
[云市场] 北京数倍软件科技有限公司入驻华为云市场,助力云服务,异构数据的交换,整合,迁移
-
HBase数据表基本操作
-
查询所有表(废弃)
-
快速搭建DataX数据库迁移环境
-
HBase数据表基本操作
-
dataX是阿里开源的离线数据库同步工具的使用
-
大数据DataX(一):DataX的框架设计和插件体系
-
《Java并发编程的艺术》 —1.3 资源限制的挑战
-
原来区别在这!