检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
无 设置备份策略失败 NoSQLSetBackupPolicyFailed 重要 一般是由于数据库连接异常导致。 重新重试设置备份策略操作。 无 创建手动备份失败 NoSQLCreateManualBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。
target.db = -1 # 将所有数据迁移到目标端GeminiDB Redis的指定数据库上,若设置为-1,则迁移后的数据库和源实例的DB保持相同的映射关系。 按需选配是否覆盖目标端数据。
增量迁移:设置value值大小为1KB,迁移速度约为7000qps。 父主题: 数据迁移
根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将云数据库 GeminiDB资源委托给更专业、高效的其他华为账号或者云服务,这些账号或者云服务可以根据权限进行代运维。
数据库密码需重新设置。 其他参数,用户可修改,具体请参见快速入门中购买实例的内容。 已有实例 选择目标实例,单击“确定”。 当前数据库实例已被删除时,若存在手动备份,可以恢复到已有实例,否则不可恢复到已有实例。 恢复到已有实例会导致实例数据被覆盖,且恢复过程中实例将不可用。
高压缩率 传统HBase:只能按列族设置压缩算法,且仅支持Gzip,SNAPPY,LZO,LZ4四种压缩算法。
如果您有冷热数据分离的需求,请先创建冷存储,然后通过设置冷热数据分界线,来指定热数据的保存时长,这样热数据超过保存时长后将被自动归档到冷存储中。 GeminiDB Influx新实例和已有实例都支持创建冷存储,本章节将详细介绍创建冷存储的方法。 使用须知 冷数据不支持写入。
使用集群方式连接GeminiDB Redis集群 使用前需要设置:config set CompatibleMode ClusterClient Python 3.7.4 (default, Jan 30 2021, 09:00:44) [GCC 7.3.0] on linux
解决方法:请将您的浏览器设置为允许弹出窗口,然后重试。 父主题: 实例连接及管理
(环境变量名称请根据自身情况进行设置)EXAMPLE_USERNAME_ENV和EXAMPLE_PASSWORD_ENV。
默认取值: 如果不传datastore_type参数,自动忽略该参数设置,传入datastore_type时,该参数必填。 product_type 否 String 参数解释: 产品类型。 约束限制: 不涉及。
python内置的bitmap类型进行数据验证(可选) bm = BitMap(max_bits) for i in index_list: bm.set(i) print('BitMap.count(): ' + str(bm.count())) # 调用redis命令校验是否设置正确
后台异步持久化下盘,为默认的Write Concern设置。 父主题: 副本集
GeminiDB高级命令 ExHash类型 使用场景:GeminiDB支持为Hash Key的每个Field设置过期时间,适用于构建频控、购物车等业务。 命令列表:请参考ExHash命令列表。 使用方式:请参考广告频控业务ExHash方案。
业务使用Redis时往往存在给key设置过期时间,迁移时key过期行为会影响数据一致性,如果检验结果不一致,可能是由于key过期时间不一致导致。 云厂商DTS在迁移过程中会往目标端Redis写入临时探活key,校验时可能发现非业务数据,属于正常现象。
业务使用Redis时往往存在给key设置过期时间,迁移时key过期行为会影响数据一致性,如果检验结果不一致,可能是由于key过期时间不一致导致。 云厂商DTS在迁移过程中会往目标端Redis写入临时探活key,校验时可能发现非业务数据,属于正常现象。
若未设置LTS日志流,不返回该字段。详情请参考表8。 表6 LogInstanceInfo 参数 参数类型 描述 id String 实例ID。 name String 实例名称。 status String 实例状态。取值: normal,表示实例正常。
业务使用Redis时往往存在给key设置过期时间,迁移时key过期行为会影响数据一致性,如果检验结果不一致,可能是由于key过期时间不一致导致。 云厂商DTS在迁移过程中会往目标端Redis写入临时探活key,校验时可能发现非业务数据,属于正常现象。
masterauth:Pika主库的密码(如Pika主库没有设置密码则不填)。
另外,由于用户无法设置Lua超时时间(config set lua-time-limit),因此在任意时刻执行SCRIPT KILL都能直接终止脚本,而不是等待脚本超时后才终止。