检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"Action=ListUsers&Version=2010-05-08", "demo"); 给请求添加header头,内容为具体参数数据。如果有需要,添加需要签名的其他头域。 1 2 request->addHeader("x-stage", "RELEASE");
params.query_str = query_str; params.payload = payload; 给请求添加header头,内容为具体参数数据。如果有需要,添加需要签名的其他头域。 sig_headers_add(¶ms.headers, "x-stage", "RELEASE");
操作场景 云搜索服务(Cloud Search Service)为用户提供结构化、非结构化文本的多条件检索、统计、报表,本章节介绍如何通过CDM将本地Elasticsearch整库迁移到云搜索服务中,流程如下: 创建CDM集群并绑定EIP 创建云搜索服务连接 创建Elasticsearch连接
data Object 返回的数据信息。 请求示例 根据传入的参数,删除维度,只支持删除状态为草稿、已下线、已驳回的维度。 DELETE https://{endpoint}/v2/{project_id}/design/dimensions { "ids" : [ "1227990857618227200"
指定每次请求获取的行数,根据数据源端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 连接属性 可选参数,单击“添加”可增加多个指定数据源的JDBC连接器的属性,参考对应数据库的JDBC连接器说明文档进行配置。 常见配置举例如下: connectTime
查看用户所属的用户组。 图2 用户所属的用户组 在左侧导航窗格中,选择“用户组”,单击用户所属的用户组后面“操作”列的“授权”。 在授权界面,选择需要给用户组添加的权限,搜索需要的权限名称,请配置为OBS OperateAccess或OBS Administrator。 图3 给用户组授权 单击“下
指定每次请求获取的行数,根据数据源端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 连接属性 可选参数,单击“添加”可增加多个指定数据源的JDBC连接器的属性,参考对应数据库的JDBC连接器说明文档进行配置。 常见配置举例如下: connectTime
Object 返回的数据信息。 请求示例 根据传入的参数,删除复合指标,只支持删除状态为草稿、已下线、已驳回的复合指标。 DELETE https://{endpoint}/v2/{project_id}/design/compound-metrics { "ids" : [
个人生物识别信息(指纹、面部特征) 个人身份信息(身份证、社保卡、驾驶证) 其他信息(宗教信仰、精准定位) 敏感数据的保护方式 敏感数据识别与添加标签 从海量数据中将数据进行分类分级,方便进行不同粒度和级别的安全管理。 数据泄露检测与防护 如果出现频繁访问敏感数据的异常行为,可以及时进行风险告警。
data Object 返回的数据信息。 请求示例 根据传入的参数,删除维度表,只支持删除状态为草稿、已下线、已驳回的维度表。 DELETE https://{endpoint}/v2/{project_id}/design/atomic-indexs { "ids" : [ "1227990857618227200"
参数为--conf时,参数值可配置为spark.dynamicAllocation.maxExecutors。 单击“新建”进入参数模板配置界面。 输入“模板名称”。 单击“添加参数”。配置参数值和参数名称,参数值可以设置默认值、最大值、最小值。可以对配置的参数进行修改和删除。 如果该模板参数允许作业参数覆盖,则勾
导入作业时,如果作业中存在“锁定”状态的标签,则作业导入会失败。 当作业导入失败需要自动生成标签时,如果标签已存在且被锁定,则导入失败的作业不会添加上该标签。 在导入作业过程中,若作业关联的数据连接、dis通道、dli队列、GES图等在数据开发模块系统中不存在时,系统会提示您重新选择。
Object 返回的数据信息。 请求示例 根据传入的参数,删除衍生指标,只支持删除状态为草稿、已下线、已驳回的衍生指标。 DELETE https://{endpoint}/v2/{project_id}/design/derivative-indexs { "ids" : [
String API请求协议类型。 枚举值: PROTOCOL_TYPE_HTTP:HTTP协议请求 PROTOCOL_TYPE_HTTPS:HTTPS协议请求 publish_type String 发布类型(已弃用)。 枚举值: PUBLISH_TYPE_PUBLIC:公开 P
ter”,为Spark作业提供运行所需的物理资源。 获取Spark作业代码 本示例使用的Spark作业代码来自maven库(下载地址:https://repo.maven.apache.org/maven2/org/apache/spark/spark-examples_2.10/1
CloudTable或HBase作为源端时,CDM会读取表的首行数据作为字段列表样例,如果首行数据未包含该表的所有字段,用户需要自己手工添加字段。 由于HBase的无Schema技术特点,CDM无法获知数据类型,如果数据内容是使用二进制格式存储的,CDM会无法解析。 从HBas
斜的数据并相应地优化连接算法来提高性能) spark.sql.mergeSmallFiles.enabled(启用合并小文件功能,可以通过将小文件合并成较大的文件来提高性能,可以减少处理许多小文件的时间,并通过减少需要从远程存储中读取的文件数量来提高数据本地性。) 如果不使用的话
PC子网与CDM管理网重叠,从而无法访问对端VPC中数据源的情况。推荐使用公网做跨VPC数据迁移,或联系管理员在CDM后台为VPC对等连接添加特定路由。 当CDM集群与其他云服务所在的区域不一致时,则需要通过公网或者专线打通网络。通过公网互通时,需确保CDM集群已绑定EIP、CD
原因分析:由于ssh session超时断开了,因此Shell节点失败。 解决办法 编辑ECS的/etc/ssh/sshd_config文件,添加或者更新如下两个值。 ClientAliveInterval 300 ClientAliveCountMax 3 ClientAliveI
error_msg String 错误信息。 data Object 返回的数据信息。 请求示例 根据ID删除模型工作区。 DELETE https://{endpoint}/v2/{project_id}/design/workspaces?ids=1231989920109842432