内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • ExportData 导出数据 - API

    该API属于DLI服务,描述: 该API用于将数据导出到文件。支持数据从DLI表中导出到文件。接口URL: "/v1.0/{project_id}/jobs/export-table"

  • ImportData 导入数据 - API

    该API属于DLI服务,描述: 该API用于将数据从文件导入DLI或OBS表,目前仅支持将OBS上的数据导入DLI或OBS中。接口URL: "/v1.0/{project_id}/jobs/import-table"

  • ImportDatabaseData 导入数据 - API

    该API属于eiHealth服务,描述: 导入数据接口URL: "/v1/{project_id}/eihealth-projects/{eihealth_project_id}/databases/{database_id}/data"

  • ListDatabaseData 查询数据 - API

    该API属于eiHealth服务,描述: 查询数据接口URL: "/v1/{project_id}/eihealth-projects/{eihealth_project_id}/databases/{database_id}/data"

  • RunCheckData 检查数据 - API

    该API属于ImageSearch服务,描述: 检查指定服务实例中的对应数据,支持指定ID检查和条件检查。接口URL: "/v2/{project_id}/mms/{service_name}/data/check"

  • importDataUsingPOST 导入数据 - API

    该API属于APIHub22050服务,描述: 导入数据接口URL: "/ec/companyoutput/importData"

  • commitDataUsingPOST 提交数据 - API

    该API属于APIHub22050服务,描述: 提交数据接口URL: "/ec/companyoutput/commitData"

  • ImportTable 导入数据 - API

    该API属于DLI服务,描述: 该API用于将数据从文件导入DLI或OBS表,目前仅支持将OBS上的数据导入DLI或OBS中。接口URL: "/v1.0/{project_id}/jobs/import-table"

  • 发布数据

    发布数据集 企业A和大数据厂商B分别将自己的csv数据文件上传到自己的计算节点上,通过“数据管理”模块创建各自的数据集。 企业A的数据集如下: 大数据厂商B的数据集如下: 创建数据集后单击“发布”按钮即可将数据的元数据信息发布到tics联盟侧,供其他合作方参考。

  • 发布数据

    发布数据集 企业A和大数据厂商B分别将自己的csv数据文件上传到自己的计算节点上,通过“数据管理”模块创建各自的数据集。 企业A的数据集如下: 大数据厂商B的数据集如下: 创建数据集后单击“发布”按钮即可将数据的元数据信息发布到tics联盟侧,供其他合作方参考

  • 使用DLI将CSV数据转换为Parquet数据

    使用DLI将CSV数据转换为Parquet数据

  • 数据源配置

    数据源配置

  • 步骤6:数据开发

    历史数据到源数据表,使用数据集成将历史数据从OBS导入到SDI贴源层的原始数据表。 历史数据清洗,使用数据开发的MRS Hive SQL脚本将源数据表清洗之后导入DWI层的标准出行数据表。 将基础数据插入维度表中。 将DWI层的标准出行数据导入DWR层的事实表中。

  • 步骤6:数据开发

    历史数据到源数据表,使用数据集成将历史数据从OBS导入到SDI贴源层的原始数据表。 历史数据清洗,使用数据开发的MRS Hive SQL脚本将源数据表清洗之后导入DWI层的标准出行数据表。 将基础数据插入维度表中。 将DWI层的标准出行数据导入DWR层的事实表中。

  • 发布数据

    发布数据集 企业B分别自己的csv数据文件上传到自己的计算节点上,通过“数据管理”模块创建各自的数据集,并点击“发布”。 企业B的数据集如下: 创建数据集后点击“发布”按钮即可将数据的元数据信息发布到tics联盟侧,供其他合作方参考。

  • 发布数据

    发布数据集 企业A将自己的需要预测的csv数据文件上传到自己的计算节点上,通过“数据管理”模块创建用于预测的数据集。 企业A预测数据集如下: 大数据厂商B仍使用训练时的提供的全量数据作为预测数据集,没有发布新的数据集。

  • 租户数据迁移

    租户数据迁移 当租户数据量增多,或者资源需求提升,目前资源环境不适合租户使用时,需要将租户数据从物理数据库中迁移。 行隔离-数据分片迁移 schema隔离-schema迁移 数据库隔离-整体数据迁移

  • 创建数据

    创建数据源 在IoTA Console页面左侧导航栏,选择“数据源”,在右侧选择“IoTDA实时数据源”,点击下方“添加数据源”按钮,如下图所示 在弹出对话框中输入"数据源名称", 选择“共享实例”,同时勾选“灯”产品类型,点击确定。 添加数据源后如下图所示:

  • 发布数据

    发布数据集 企业A和企业B分别将自己的csv数据文件上传到自己的计算节点上,通过“数据管理”模块创建各自的数据集,并单击“发布”。 以企业A为例,数据集信息如下: 隐私求交场景需要将求交的字段设置为“非敏感”的唯一标识。

  • 按条件更新数据

    按条件更新数据 功能介绍 按条件更新数据,该接口为同步接口。 在此之前需要先创建对象以及待更新的数据记录。 URI PUT AstroZero域名/