检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
这种类型能够存储最多4GB的数据。当字符集发生转换时,这种类型会受到影响。 不支持 不支持 bfile 可以在数据库列中存储一个oracle目录对象和一个文件名,用户可以通过它来读取这个文件。 不支持 不支持 其他类型 rowid 实际上是数据库表中行的地址,它有10字节长。 不支持 不支持 urowid 是一
生成一个新的Signer,输入AppKey和AppSecret。 // 认证用的ak和sk编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; // 本示例以ak和sk保存在环境变量中来实现身份验证为例,运行本示例前请先在本地环境中设置环境变量SDK_AK和SDK_SK。
单击作业目录中的,选择“显示复选框”。 图1 显示作业复选框 勾选需要配置失败重试的作业,单击 > 作业配置,进入作业配置窗口。 对于CDM Job作业,建议仅选择文件类的CDM Job作业或启用了导入阶段表的数据类CDM Job作业。未启用导入阶段表的数据类CDM Job作业可能因作业失败重试引起数据重复写入,导致迁移前后的数据不一致。
作业并执行作业。 表4 Job 参数 是否必选 参数类型 描述 job_type 是 String 作业类型: NORMAL_JOB:表/文件迁移。 BATCH_JOB:整库迁移。 SCENARIO_JOB:场景迁移。 from-connector-name 是 String 源端连接类型,对应的连接参数如下:
作业列表,请参见jobs数据结构说明。 表4 Job 参数 是否必选 参数类型 描述 job_type 是 String 作业类型: NORMAL_JOB:表/文件迁移。 BATCH_JOB:整库迁移。 SCENARIO_JOB:场景迁移。 from-connector-name 是 String 源端连接类型,对应的连接参数如下:
作业列表,请参见jobs数据结构说明。 表4 Job 参数 是否必选 参数类型 描述 job_type 是 String 作业类型: NORMAL_JOB:表/文件迁移。 BATCH_JOB:整库迁移。 SCENARIO_JOB:场景迁移。 from-connector-name 是 String 源端连接类型,对应的连接参数如下:
用户名、密码:Oracle数据库的登录用户名和密码,该用户需要拥有Oracle元数据的读取权限。 单击“保存”回到连接管理界面。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从Oracle导出数据到云搜索服务的任务。 图4 创建Oracle到云搜索服务的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。
节点执行失败后,是否重新执行节点。 是:重新执行节点,请配置以下参数。 最大重试次数 重试间隔时间(秒) 否:默认值,不重新执行节点。 说明: 建议仅对文件类作业或启用了导入阶段表的数据库作业配置自动重试,避免自动重试重复写入数据导致数据不一致。 如果调度CDM迁移作业时使用了参数传递,不能在
结果。系统支持可以预览所调试的SQL信息。 Flink SQL作业调试仅支持MRS集群,进行调试前请先选择MRS集群。OBS桶必须选择并行文件桶,可以在工作空间进行默认配置,请参见Flink调试OBS桶,支持在Flink SQL作业调试时修改。 查看脚本执行结果时,双击任意一行的
WebUI界面,给计算实例添加如下自定义参数:参数名为“protocol.v1.alternate-header-name”,值为“Presto”,参数文件为“coordinator.config.properties”和“worker.config.properties”。 注意,通过输入框
本规格,执行调度批处理作业或者启动实时作业时就会提示作业节点调度次数/天超过配额。 [3] 技术资产数量:该规格指的是数据目录中表和OBS文件的数量,可以通过“技术资产数量增量包”进行扩容,如何购买请参考购买技术资产数量增量包。 [4] 数据模型数量:该规格指的是数据架构中逻辑模
设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将会再次重试。 失败重试 如果作业执行失败,可选择自动重试三次或者不重试。推荐值:不重试。 建议仅对文件类作业或启用了导入阶段表的数据库作业配置自动重试,避免自动重试重复写入数据导致数据不一致。 说明: 如果通过DataArts Studio
到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 单击“保存”完成创建连接。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从Oracle导出数据到DWS的任务。 图4 创建Oracle到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。
系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择提前准备好的.pdm格式的物理模型。单击“上传文件”,上传完成后,自动跳转到“上次导入”页签,查看已导入的数据。单击“关闭”退出该页面。 导出 在物理表列表中,
到数据节点。如果需要通过Internet访问DWS,只能使用COPY模式。 COPY 单击“保存”完成创建连接。 创建迁移作业 选择“表/文件迁移 > 新建作业”,开始创建从MySQL导出数据到DWS的任务。 图4 创建MySQL到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。
(fd653968-864b-45f6-9842-2b125d2dbfb7)查询导出结果,查询中返回的是导出状态,导出结束后返回的是二进制文件。 GET https://{endpoint}/v2/{project_id}/design/export-result?uuid=fd
String obs公共配置。 total_row_count String 总行数。 fields_name Array of strings 文件列表。 table_name String 表名。 sample String 样本。 update_date String 修改时间。 row_count
Storm Storm的Topology权限: Submit Topology:提交拓扑 File Upload:上传文件 File DownLoad:下载文件 Kill Topology:删除拓扑 Rebalance:Rebalance权限 Activate:激活权限 Deactivate:去激活权限
数据开发组件:作业,作业目录,脚本,脚本目录和资源。 数据质量组件:质量作业和对账作业。 数据目录组件:技术资产中的表(Table)和文件(File)类型资产,以及元数据采集任务。 数据服务组件:数据服务集群,API和APP。 数据安全组件:敏感数据发现任务,脱敏策略,静态脱敏任务和数据水印任务。
败。 STANDALONE IP与主机名映射 运行模式选择“EMBEDDED”、“STANDALONE”时,该参数有效。 如果HDFS配置文件使用主机名,需要配置IP与主机的映射。格式:IP与主机名之间使用空格分隔,多对映射使用分号或回车换行分隔。 10.1.6.9 hostname01