检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
令,在本地生成已下载SDK包的SHA256值,其中,“D:\java-sdk.zip”为SDK包的本地存放路径和SDK包名,请根据实际情况修改。 certutil -hashfile D:\java-sdk.zip SHA256 命令执行结果示例,如下所示: SHA256 的 D:\java-sdk
令,在本地生成已下载SDK包的SHA256值,其中,“D:\java-sdk.zip”为SDK包的本地存放路径和SDK包名,请根据实际情况修改。 certutil -hashfile D:\java-sdk.zip SHA256 命令执行结果示例,如下所示: SHA256 的 D:\java-sdk
使用CDM迁移文件的时候,可以使用过滤器来过滤文件。支持通过通配符或时间过滤器来过滤文件。 选择通配符时,CDM只迁移满足过滤条件的目录或文件。 选择时间过滤器时,只有文件的修改时间晚于输入的时间才会被传输。 例如用户的“/table/”目录下存储了很多数据表的目录,并且按天进行了划分DRIVING_BEHAVIO
"ecs:servers:get", "ecs:servers:list", "ecs:servers:stop", "ecs:servers:start", "ecs:flavors:get"
FACT_LOGIC_TABLE: 事实表 FACT_MEASURE: 事实表度量 FUNCTION: 函数 INFO_ARCH: 信息架构(批量修改主题使用) MODEL: 模型 QUALITY_RULE: 质量规则 SECRECY_LEVEL: 密级 STANDARD_ELEMENT:
使用CDM迁移文件的时候,可以使用过滤器来过滤文件。支持通过通配符或时间过滤器来过滤文件。 选择通配符时,CDM只迁移满足过滤条件的目录或文件。 选择时间过滤器时,只有文件的修改时间晚于输入的时间才会被传输。 例如用户的“/table/”目录下存储了很多数据表的目录,并且按天进行了划分DRIVING_BEHAVIO
响应参数 状态码: 500 表3 响应Body参数 参数 参数类型 描述 errCode String 错误码。 externalMessage String 错误描述。 请求示例 DELETE /v1.1/1551c7f6c808414d8e9f3c514a170f2e/cl
如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后,系统支持再重试。 当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改此策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计
仅当配置“按表分区抽取”时,按表分区分片。 SAP HANA 支持按表字段分片。 不支持按表分区分片。 分库 每个后端连接一个子作业,子作业支持按主键分片。 NoSQL 分布式缓存服务(DCS) 不支持分片。 Redis 不支持分片。 文档数据库服务(DDS) 不支持分片。 MongoDB 不支持分片。 Cassandra
参见如何配置安全组规则章节。 此外,您还必须确保DWS集群与DataArts Studio工作空间所属的企业项目必须相同,如果不同,您需要修改工作空间的企业项目。 创建DWS集群后,您需要在管理中心创建DWS连接,然后通过数据开发组件新建数据库、数据库模式,再执行SQL来创建DWS表。操作步骤如下:
设置好以后,请到Spark SQL作业界面的基本信息或Spark SQL脚本界面,单击右上角的去查看所配置的默认运行程序参数,预置的默认参数置灰,不能修改。 用户根据需要也可以自定义运行程序参数,最终Spark SQL作业/脚本运行时,设置的模板参数可以允许作业/脚本参数进行覆盖。 Hive
FACT_LOGIC_TABLE: 事实表 FACT_MEASURE: 事实表度量 FUNCTION: 函数 INFO_ARCH: 信息架构(批量修改主题使用) MODEL: 模型 QUALITY_RULE: 质量规则 SECRECY_LEVEL: 密级 STANDARD_ELEMENT:
String 标签描述。 tag_id String 标签id。 create_time Long 创建时间。 update_time Long 修改时间。 create_user String 创建人。 domain_id String 用户domainId。 instance_id String
在API网关服务共享版控制台上查看所发布的API。 系统为API网关共享版的默认分组自动分配一个内部测试用的调试域名,此调试域名唯一且不可更改,此调试域名每天最多可以访问1000次。如果您不希望与其他API共享此规格,可以在APIG共享版控制台新建一个API分组(详情请参考创建A
approver_name 是 String 审批人姓名。 user_id 是 String 审批人ID。 email 否 String 邮箱地址。 phone_number 否 String 电话号码。 email_notify 否 Boolean 邮件通知。 sms_notify
integer 任务类型。 1:作业 2:脚本 3:资源 update_type 否 integer 变更类型,默认值1。 1:新增 2:修改 3:删除 表6 发布包审批信息的参数说明 参数名 是否必选 参数类型 说明 user_id 否 String 发布包审批人id。 user_name
上表中非云服务的数据源,例如MySQL,既可以支持用户本地数据中心自建的MySQL,也可以是用户在ECS上自建的MySQL,还可以是第三方云的MySQL服务。 整库迁移支持的数据源类型 整库迁移适用于将本地数据中心或在ECS上自建的数据库,同步到云上的数据库服务或大数据服务中,适用于数据库离线迁移场景,不适用于在线实时迁移。
ATTRIBUTE: 属性自定义项 SUBJECT: 主题自定义项 METRIC: 业务指标自定义项 ordinal Integer 系统排序字段,新建、修改时不需要填写。 description String 自定义项描述。 create_by String 创建人,只读。 update_by
8。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 total Integer 总数。 publish_messages Array of ApiPublishDTO objects 发布信息列表。 表5 ApiPublishDTO 参数 参数类型 描述
8。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 total Integer 总数。 publish_messages Array of ApiPublishDTO objects 发布信息列表。 表5 ApiPublishDTO 参数 参数类型 描述