检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
CDM可以通过批量导入的功能,实现批量创建作业,方法如下: 手动创建一个作业。 导出作业,将作业的JSON文件保存到本地。 编辑JSON文件,参考该作业的配置,在JSON文件中批量复制出更多作业。 将JSON文件导入CDM集群,实现批量创建作业。 您也可以参考通过CDM算子批量创建分表迁移作业,配合For
EXPDP PLUGGABLE DATABASE 功能描述 导出PDB的全部物理文件。 EXPDP PLUGGABLE DATABASE语法用于细粒度备份恢复,由备份恢复工具调用,直接调用可能提示目录不存在等报错,不推荐用户直接调用该SQL。 语法格式 EXPDP PLUGGABLE
问题现象 TypeScript任务检查失败,日志显示404。 处理方法 请检查上传的项目文件中是否包含“package-lock.json”文件。 如果包含,则删除“package-lock.json”文件,重新Push代码进行检查。 如果不包含,则联系技术支持工程师。 父主题: 技术类问题
实体类型、抽取函数及抽取前后的数据字段,才能进行配置信息映射、配置知识融合等操作。 基本概念 信息抽取是从基础数据中抽取待创建图谱的实体、属性信息以及实体间的相互关系。目的是从原始数据(包括结构化数据或非结构化数据)中抽取结构化的信息。 配置方式 信息抽取分为结构化抽取和非结构化抽取,其适用范围和抽取方式如表1所示。
操作步骤 查看文件详情 单击“文件名称”,显示对应文件的详细信息。可在文件详情页编辑“标签”和“自定义属性”。 说明: “标签”和“自定义属性”可经过数据处理产生,此外“标签”可在数据服务标签管理处创建,“自定义属性”也是在通用存储的自定义属性中创建。 界面右侧显示文件的可视化,支
提交工单,申请技术客服协助解决问题 500 LIVE.103011017 Failed to synchronize data to CDN. 同步数据到CDN失败 确认域名是否已经备案并向有关部门申请取得许可;如果确认域名合法依然失败,请提交工单,申请技术客服协助解决问题 500 LIVE
超时时间*最大重试次数+检查间隔*(最大重试次数-1) 健康检查失败时间窗 = 超时时间*3+检查间隔*(3-1) 举例说明: 检查间隔设置为4s,超时时间设置为2s。 健康检查检测到终端节点从正常到失败状态,健康检查失败时间窗 = 超时时间*3+检查间隔*(3-1)= 2*3+4*(3-1)=14s。 支持区域:
未定义”。 原因分析 由于解决方案中存在多个csproj文件,生成时使用默认构建命令指定OutputPath=../buildResult/Release/bin会造成所有的csproj生成时在一个文件夹中,造成obj文件等发生链接冲突。 处理方法 在构建命令中删除“OutputPath=
Plan一个一个去执行,一直到全部都执行完。 对于Merge-On-Read表,数据使用列式Parquet文件和行式Avro文件存储,更新被记录到增量文件,然后进行同步/异步compaction生成新版本的列式文件。Merge-On-Read表可减少数据摄入延迟,因而进行不阻塞摄入的异步Compaction很有意义。
/data1/script/tpcds-kit/tpcds1000X mkdir -p /data2/script/tpcds-kit/tpcds1000X 从官网获取TPC-DS数据构建工具dsdgen最新版本,并通过SFTP工具上传到ECS的/data1/script/tpcds-kit目录。 执行
迁移失败。查看迁移日志、列举对象、获取元数据都是成功的,但在获取对象(getObject)时报404,No such key。 问题分析 出现该问题,是因为源端阿里云待迁移OSS桶的“基础设置>静态页面”选项中设置了默认首页,设置后OMS在获取对象名称中带"/"的对象时,会在对象名称后加上index
个jsonl格式的文件下载至本地。 导入应用。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。 平台将自动解析jsonl文件。如果解析的文件在平台中已存在,勾选该文件将自动覆盖平台现有文件。 单击“导入”,导入成功的应用将在“工作台
是 Integer 函数执行超时时间,超时函数将被强行停止,范围3~259200秒。 handler 是 String 函数执行入口 规则:xx.xx,必须包含“. ” 举例:对于node.js函数:myfunction.handler,则表示函数的文件名为myfunction.j
将输入算子的字段配置信息关联到输出算子中。 编辑操作 编辑算子配置参数中的字段信息。 导入操作 通过算子导出文件或算子模板文件将字段配置信息导入到算子中。 导出操作 将算子的字段配置信息以json文件导出保存到本地。 前提条件 获取登录“Loader WebUI”的账户和密码。 操作步骤 关联操作 登录“Loader
查询应用实例列表 功能介绍 获取用户实例列表。 URI GET /v3/{project_id}/ai-mgr/pods 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID 表2 Query参数 参数 是否必选
选项,并配置安全认证命令。配置前,需要您手动将包含认证密钥的.keytab文件上传至执行机。 keytab文件地址:输入.keytab文件在执行机的存放地址。 keytab文件用户名:输入.keytab文件对应的用户名。 执行命令 可以通过设置Beeline或Spark-sql命令行参数,对数据进行处理。
project_id字段可以从“我的凭证”中获取。 图4 获取参数值 请求成功(状态码201)后,从响应的Header中拿到x-subject-token的值即为Token的值。 获取的Token的有效期为24小时。建议进行缓存,避免频繁调用。 获取访问地址 访问地址为 {公网地址}
是否自动回收超时连接。 自动回收的超时时间 如果池中连接被获取且超过该时长未被还回,则回收该连接。 自动回收的超时连接数量 超时连接回收次数。 最小空闲时间 池中连接可空闲的最小时间。 连接有效性检测时间 检查池中连接空闲周期。 异常 异常类 发生异常的类。 异常类型 异常类型。 数量 该异常的发生次数。
分段上传的主要目的是解决大文件上传或网络条件较差的情况。 通过使用UploadPartRequest.setOffset和UploadPartRequest.setPartSize来设置每段的起始结束位置。 下面的示例代码展示了如何使用分段上传并发上传大文件。 1 2 3
public-read-delivered:设在桶上,所有人可以获取该桶内对象列表、桶内多段任务、桶的元数据,可以获取该桶内对象的内容和元数据。 public-read-write-delivered:设在桶上,所有人可以获取该桶内对象列表、桶内多段任务、桶的元数据、上传对象、删除对象