检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"C:\Users\Public\Hosts_Script_Logs" 描述:日志目录路径,用于存放运行日志、错误日志和总结日志的文件夹路径。 参数默认值: C:\Users\Public\Hosts_Script_Logs 修改建议:修改为当前用户具有写入权限的目录路径。 修改示例:$logDir
LOG_DIR="/var/log/update_hosts" 描述:日志目录路径,用于存放运行日志、错误日志和总结日志的文件夹路径。 参数默认值: /var/log/update_hosts 修改建议:修改为当前用户具有写入权限的目录路径。 修改示例:LOG_DIR="/home
Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“
本文介绍在应用详情内,对应用中的主机资源进行性能采集的操作方法。 使用须知 开始采集后,默认每5分钟进行一次数据采集。 建议采集时长≥1小时,若采集时长不足,将无法获取7天和30天最大值以及平均值数据。 采集周期默认为7天,7天后会自动停止采集;采集周期内可以进行停止采集和重启采集操作;重启采集后,采集周期重新计算。
能负载推荐目的端主机CPU核数、内存大小等性能规格。 使用须知 开始采集后,默认每5分钟进行一次数据采集。 建议采集时长≥1小时,若采集时长不足,将无法获取7天和30天最大值以及平均值数据。 采集周期默认为7天,7天后会自动停止采集;采集周期内可以进行停止采集和重启采集操作;重启采集后,采集周期重新计算。
请检查所用凭证和所选区域是否正确。 配置文件格式不正确 使用上传正确的文件格式。 获取Nacos的accessToken失败 请检查配置信息中填写的用户名和密码是否正确。 解析Nacos鉴权信息失败 请联系技术支持人员或提交工单。 分页查询域名失败。 请参考阿里云资源管理产品文档进行API Des
properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 interval 否 采集间隔时间,单位为m(分钟),1m≤取值范围≤30m,取整数,不设置默认为1m。 time 否 当app_only设置为false时,该参数必填。
properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 timeout 否 单次采集持续时间,单位为s(秒),1<取值范围<period值,取整数,不设置默认为period值的一半。 max_count 否
pplication-config\config\rules.properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 path 是 填写应用配置文件(yaml文件)的存储路径。 父主题: 采集器参数配置说明
在校验过程中,Hive和Spark对这些无法表示的数值有默认的处理方式: 当数值为 Infinity 或 -Infinity 时,会被默认处理并显示为 -1。 当数值为 NaN(Not a Number,非数字)时,会被默认处理并显示为 0。 父主题: 大数据校验
Zookeepeer连接端口 填写连接到目的端Zookeepeer的端口。默认为2181。 HBase 版本 选择目的端HBase版本。 表3 ClickHouse组件参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称 默认创建名称为“ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。
批量添加:适用于主机数量较多的场景。 单击待迁移主机列表上方的“批量绑定凭证”按钮,下载批量绑定凭证模板文件。打开模板文件,填写所有待迁移主机的凭证信息(用户名/密码)后保存。 将保存后的凭证模板文件导入与MgC控制台连接的Edge上,系统将自动为主机绑定迁移代理和凭证。 为主机添加凭证后,您还可以单击
app-discovery-k8s\config\rules.properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 config_path 是 填写配置文件(yaml文件)的存储路径。 注意: 配置文件所
Spark应用每个Executor的CPU核数。该配置项会替换“sc_type”中对应的默认参数。 numExecutors 1-100 Spark应用Executor的个数。该配置项会替换“sc_type”中对应的默认参数。 executorMemory 1-16 G Spark应用的Executor内存,参数配置例如:2G
overy-k8s-pod-net\config\rules.properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 period 是 采集间隔时间,单位为s(秒)/m(分钟),1s<取值范围≤30m,取整数。
地址。 数据库端口 填写连接到源端Doris集群部署的服务器的端口。默认为3306。 数据库名 填写源端Doris数据库名称。 表2 HBase连接参数配置说明 参数 配置说明 所属源 选择源端。 连接名称 默认创建名称为“HBase-4位随机数(字母和数字)”,也可以自定义名称。
填写连接MetaStore的IP地址。 MetaStore Thrift服务端口 填写连接MetaStore的端口,默认为9083。 表3 Doris连接参数配置说明 参数 配置说明 所属源 仅需在源端创建元数据连接。 连接名称 默认创建名称为“Doris-4位随机数(字母和数字)”,也可以自定义名称。 迁移工具
单文件SQL条数:每个需要校验的表会产生一条SQL用以获取数据摘要,每批提交给集群处理的数据文件中所包含的SQL条数。默认为10,推荐取值范围:1~50。 超时时间:每个SQL语句在大数据集群上执行时的最大允许时长,单位为秒(s)。默认为600,推荐取值范围:600~ 7200。 发送SMN通知:选择是否使用SMN消
问题分析 出现该问题的原因为接入端口不正确。 解决方法 检查迁移准备度配置参数中的“端口”填写是否正确。Windows主机默认为5985端口,Linux主机默认22端口,可根据实际情况修改。 如果端口填写错误,请修改为正确端口后重试。 如果端口填写正确,请继续执行步骤2.。 在安装
设置大表条件,当符合大表的条件时,将自动按分区拆分迁移子任务。建议保持默认,也可根据实际需求修改。 小表规则 设置小表条件,当符合小表的条件时,自动将多个小表合并到一个迁移子任务中,提高迁移效率。建议保持默认,也可根据实际需求修改。 并发连接数 设置迁移并发数。默认为3,1≤取值范围≤10。 单文件SQL数