检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
一般默认情况下,mongod的wiredTiger引擎可以使用整个机器内存减一的50%(3.2的版本)或者60%(3.4以后的版本)。 解决方案 如果mongod服务是单独部署在一台机器上,则在迁移过程中最好不要执行会大量消耗内存的操作,比如:创建索引,排序查询等。 如果mong
tables where table_schema='db_name' and table_name = 'table_name'\G; 解决方案 针对表空间膨胀的问题,可以进行表空间优化整理,从而缩小空间,执行如下SQL命令: optimize table table_name;
启动之前执行,initContainer 发出的请求会被重定向到尚未启动的 Sidecar 上,这会导致 initContainer 执行期间出现流量丢失。 解决方案 可以通过以下任意方式来防止流量丢失: 使用 runAsUser 将 Init 容器的 uid 设置为 1337。 1337 是 Sidecar
配置DDoS高防服务后,部分攻击者会记录源站使用过的IP,存在绕过高防直接攻击源站IP的情况,建议更换源站IP。 图1 源站IP暴露典型原因 解决方案 以弹性云服务器为例,通过为弹性云服务器实例重新分配弹性公网IP(Elastic IP,简称EIP),将已暴露的EIP更换为未暴露的EIP,实现修改源站IP的目的。
自增主键的字段取值达到上限,无法继续增长,导致新插入的数据生成的自增主键值与表中上一条数据相同,因为自增主键的值不可重复,插入失败报错。 解决方案 如果数据变化较多,表中实际数据量远小于自增主键的容量,则可以考虑将该表的数据全量导入新表,删除原表,然后rename将新表名改回原表名
中选择两次不同的Region(一个是华为云Console所在的Region,一个是客户真实想要部署的Region),最终导致部署失败。 解决方案 去掉自动部署模板中的Region属性,当需要Region的时候动态查询当前Console所在的Region。 操作步骤 去掉模板中的Region属性
CDM迁移数据到DWS时如何选取分布列? 问题描述 CDM迁移数据到DWS时如何选取分布列? 解决方案 在使用CDM迁移数据到数据仓库服务(DWS)或者FusionInsight LibrA,且CDM在DWS端自动创建一个新表时,在创建作业的字段映射界面,需要选择分布列,如图1所示。
度是节点级别的,但是在云监控界面配置告警规则时选择的维度是文档数据库实例,二者的监控维度不一致,所以就查看不到CPU使用率的监控指标。 解决方案 DDS支持实例级别和节点级别的指标监控,需要根据监控指标支持的维度在告警规则页面设置对应的维度。不同的指标他的维度是不同,详情请参见文档数据库支持的监控指标。
服务场景 服务场景 场景简介与服务价值 数据孤岛严重,数据共享难 企业中各业务链条难打通,数据冗余现象严重,通过主数据治理解决方案,提升数据处理效率,减少人工操作;提升公司战略协同力,打通部门、系统壁垒,制定统一的数据规范和标准为驱动,规划构建出职责清晰、流程规范、模式合理的管理体系。
性能,可能需要对业务进行少量改动,尤其是传统Oracle的存储过程互相嵌套的开发模式,如果要保证高性能,需要进行业务修改及对应的适配。 解决方案: 如遇到此类问题,请参考《数据仓库服务数据库开发指南》中的“优化查询性能”章节。 或者,请联系技术人员进行业务适配的修改调优。 父主题:
doesn't allow iam:agencies:listAgencies to be performed.”,可能是权限不足引起的。 解决方案 则需要使用账号给当前用户添加“查看委托列表”的权限。 先创建自定义策略(查询指定条件下的委托列表),再通过给用户组授予自定义策略来进行精细的访问控制。
CDM迁移数据到DWS时如何选取分布列? 问题描述 CDM迁移数据到DWS时如何选取分布列? 解决方案 在使用CDM迁移数据到数据仓库服务(DWS)或者FusionInsight LibrA,且CDM在DWS端自动创建一个新表时,在创建作业的字段映射界面,需要选择分布列,如图1所示。
官方文档。 当MySQL检查到死锁的表时,会进行事务的回滚。其影响范围不仅是某个表,还会影响外键所在的表,最终导致数据库相关操作变慢。 解决方案 建议排查并优化死锁表相关的业务,业务上合理使用外键,避免更新冲突,避免产生死锁。 父主题: 性能资源类
释放page的过程中会去获取page所在索引根节点的SX锁,导致select语句无法获取到根节点page的rw-lock,一直在等待。 解决方案 该场景为正常现象,等待purge操作完成后即可恢复正常。 扩大实例规格,提高purge效率。 调整优化业务,避免突然删除大量数据。如果
Linux主机没有关闭“密钥对”登录方式。 与“网防G01”软件、服务器版360安全卫士存在冲突。 没有关闭Selinux防火墙。 解决方案 确认待开启双因子认证的主机,是否已开启主机安全防护。 是:请执行2。 否:请将待开启双因子认证的主机开启主机安全防护。 确认开启双因子认证后,是否已等待5分钟。
应用服务器可调用此接口解冻设备,解除冻结后,设备可以连接上线。该接口仅支持解冻单个设备,如需批量解冻设备,请参见 创建批量任务。 调用方法 请参见如何调用API。 URI POST /v5/iot/{project_id}/devices/{device_id}/unfreeze 表1 路径参数
使用。 处理方法 用户停止业务并执行业务迁移。 执行业务迁移后,根据故障信息收集收集故障信息后联系技术支持处理。 父主题: 显卡故障诊断及处理方法
DRS同步实例创建成功后,可在“源库及目标库”页面获取DRS同步实例的弹性公网IP。 在选择公网网络进行同步时,如果没有开启SSL安全连接加密同步链路的功能,请确保待同步的数据为非机密数据,再进行数据同步。 表2 支持的网络类型 同步方向 源数据库 目标数据库 VPC网络 公网网络 VPN、专线网络
入过的行中的Value。 MAX:保留最大值。 MIN:保留最小值。 Unique模型 在某些多维分析场景下,用户更关注的是如何保证Key的唯一性,即如何获得Primary Key唯一性约束。因此,引入了Unique数据模型。 读时合并 Unique模型的读时合并实现完全可以用A
so,而使用系统自带的libssl.so(因为hadoop native目录没有带该包) 。由于这两个库版本不匹配,导致了python文件运行时出现段错误。 解决方案 方案一: 修改Spark2x客户端conf目录下spark-default.conf文件,清空(直接赋值为空) 配置项spark.driver