检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
原因 描述 处理方法 Ecs.0319 check capacity: capacity is not enough. 用户ecs配额不足 申请扩大容量,增加配额。更多信息查询:弹性云服务器 ECS错误码 Vpc.0702 query privateIps error. 参数错误 请根据实际返回的Error
请释放不需要的ECS配额或者提工单向ECS服务申请增加账号配额。 SMS-Workflow.0309 您的账号CPU配额不足,当前工作流所需新增的CPU配额为x,账号剩余配额为y。 请释放不需要的资源或者提工单向ECS服务申请增加账号配额。 SMS-Workflow.0310
在数据处理中,如果遇到极大值或极小值,Hive可能无法以标准数值格式表示这些极端数值,而是将它们显示为 “Infinity”(表示无限大)或 “-Infinity”(表示无限小)。这些值并不是有效的数字,因此在进行数值转换或计算时,可能会引发异常。 在校验过程中,Hive和Spark对这些无法表示的数值有默认的处理方式:
3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤 登录迁移中心控制台。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。在页
sed工具:用于编辑和修改/etc/hosts文件内容。 setsid命令:用于在SSH连接中避免交互需求(通常用于避免密码输入时的交互)。 mktemp命令:用于创建临时文件或目录。 执行权限和用户权限配置 用户权限配置:确保执行脚本的用户具有对日志目录、CSV文件和hosts文件的读写权限。 脚本执行权限
告。 Bypass:不阻止任何脚本的执行,不会显示任何警告或提示。 如果执行策略为Restricted或AllSigned,请通过以下命令临时更改策略,以允许运行本地创建的脚本和已签名的远程脚本。 Set-ExecutionPolicy RemoteSigned -Scope Process
进行大数据数据迁移时,部分表迁移失败,报错:no more field nodes for for field %s and vector %s 解决方法 基于源端表创建临时表,使用临时表进行数据迁移。 父主题: 大数据数据迁移
3特性和jar程序访问DLI元数据特性,请联系DLI服务的技术支持人员申请开通。 (可选)开通DLI服务Spark生命周期白名单 如果待迁移的元数据有生命周期表(即DDL带有LIFECYCLE字段),请联系DLI服务的技术支持人员申请开通Spark生命周期特性白名单。 (可选)开通100网段白名单
10000 = 4.76837158203125 TB,否则可能会导致迁移失败。 在迁移过程中,系统将自动在目的端桶创建一个名为“oms”的临时文件夹。严禁手动操作此文件夹,包括但不限于修改、删除或添加内容。对该文件夹进行的任何手动操作都可能导致迁移流程中断或失败。 登录迁移中心管理控制台。