检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过Redis-Shake迁移工具将自建Redis迁移到GeminiDB Redis 使用Redis-Shake工具将RDB文件/AOF文件 导入到GeminiDB Redis 使用数据导入功能将RDB文件恢复到GeminiDB Redis(推荐) Kvrocks到GeminiDB Redis的迁移 Pika到GeminiDB
eminiDB Redis 6 RDB文件 GeminiDB Redis 使用Redis-Shake工具将RDB文件/AOF文件 导入到GeminiDB Redis 7 RDB文件 GeminiDB Redis 使用数据导入功能将RDB文件恢复到GeminiDB Redis(推荐)
压缩导出的JSON文件。 gzip exportfile.json 压缩是为了方便网络传输,压缩后生成“exportfile.json.gz”文件。 将数据导入至目标GeminiDB Mongo 登录到已准备的弹性云服务器或可访问GeminiDB Mongo 数据库的设备。 将要导入的数据上
本文介绍了使用 Pipeline 访问 GeminiDB Redis 的原理以及注意事项。 Pipeline 简介 Redis 是一个请求/响应模型的服务,通常执行一个命令的流程为: 图1 Redis 命令执行流程 客户端发送命令到 Redis 服务器。 Redis 服务器收到命令,排队等待处理。
Mongo副本集实例的管理员密码。 ${threadNum}为运行测试的并发线程数,本次测试的并发数为128。 测试模型 workload模型 表2 workload模型 workload模型编号 workload模型 S1 100% insert S2 90% update ,10% read S3 65%
GeminiDB Cassandra支持将备份文件存放到目标区域或者OBS存储,用户可以在异地区域使用目标区域的备份文件恢复到新的GeminiDB Cassandra实例,用来恢复业务。 实例开启跨区域备份策略后,会根据自动备份策略将该实例创建的自动备份文件备份到目标区域。您可以在管理控制台
景。 数据秒级闪回、PITR等数据恢复能力,构筑极高的数据可靠性。 超高性能 宽表模型,支持结构化/半结构化数据的PB级存储。 超强写入性能,数倍纯读性能提升,2倍读写性能提升。 解决开源痛点 解决了开源Cassandra数据一致性和GC的问题。 存储秒级扩缩容,业务完全无感知。
图18 清空命令 常见问题 问题:在实例列表的操作列单击“连接Redis”时或者在“基本信息”页面单击“连接Redis”时,无法跳转至DAS页面怎么办? 解决方法:请将您的浏览器设置为允许弹出窗口,然后重试。 父主题: 实例连接及管理
luxDB的tsm以及wal文件写入到行协议(Line Protocal)文件中,最终将行协议文件数据解析并迁移至目标端。 整个迁移过程分为导出和导入阶段两个阶段。 导出阶段会并发解析社区版InfluxDB的tsm文件,并将解析数据写入到内存中。 导入阶段会将读取数据发送至GeminiDB
数据库连接 使用GeminiDB Mongo时,可能会遇到因为mongod连接数用满了,导致客户端无法连接的问题。mongod的服务模型是每个网络连接由一个单独的线程来处理,每个线程配置了1MB的栈空间,当网络连接数太多时,过多的线程会导致上下文切换开销变大,同时内存开销也会上涨。
常见问题 问题:在实例列表的操作列单击“连接InfluxDB”时或者在“基本信息”页面单击“连接InfluxDB”时,无法跳转至DAS页面怎么办? 解决方法:请将您的浏览器设置为允许弹出窗口,然后重试。 父主题: 连接实例
设计规范 规则1:禁止在数据库中存储图片、文件等大数据。图片或文件等大数据建议存储到对象存储服务中。 规则2:单行key和value数据大小最大不能超过64KB,平均大小不超过10KB。 规则3:任何表的设计都要考虑到数据的删除策略,表中的数据不能无限地增长而不删除。 规则4:设计分区
读扩散和写扩散对比 针对用户消息较多的场景,如何保证消息传递的可靠性、一致性并且有效的降低服务器或者客户端的压力。其中,采用何种读写模型对IM系统至关重要,这里介绍两种模型:读扩散和写扩散。 图3 读扩散 如上图所示,用户B与每个聊天的人(A1,A2,A3)都有一个信箱(一种数据结构的抽象,
tgz 进入安装包的“bin”文件夹下,获取客户端工具。 cd mongodb-linux-x86_64-rhel70-4.0.27/bin 其中,常用工具包含如下: MongoDB客户端mongo。 数据导出工具mongoexport。 数据导入工具mongoimport。 使
时延敏感类型业务。 数据降本:双重数据压缩,100G特征数据压缩后只占不到50G,解决长期成本痛点。 FastLoad极速入库:FastLoad支持将Spark/Hadoop TB级特征数据极速导入到GeminiDB,比社区Redis逐条命令方案提速10倍。 Hash Field过期:支持为Hash
ika主库没有设置密码则不填)。 binlog文件为log/log_db0目录下记录了所有操作的同步日志文件,这部分文件在增量同步数据阶段使用 将全量数据写入到Redis这段时间可能耗时很长,而导致Pika主库原先的binlog文件被清理。需要在Pika主库上保留足够的binlo
具有灾备关系的主备实例间,节点传输文件按照总文件大小切分。 具有灾备关系的主备实例间,增加多连接并行传输文件。 具有灾备关系的主备实例间,增加限速模块。 具有灾备关系的主备实例间,增加异常时消息重试。 2022-10-30 新特性及性能优化: Lucene分页查询优化,增加补偿机制, 解决Lucene
数据库对象的名称需要以小写字母开头,使用字母或者数字组合,长度不能超过32个字节。 数据库对象的名称长度:<数据库名>.<RP名称>.<MEASUREMENT名称> 总长度不能超过120个字符。 数据库对象的名称不能使用系统保留关键字。 系统保留关键字详情如下:ALL,ALTER
上,准备好配置文件,启动迁移即可自动完成全量与增量的迁移。 全量迁移对RocksDB数据进行快照,然后扫描整个数据库,将数据打包成GeminiDB Redis识别的格式,发送到GeminiDB Redis,具有很高的迁移效率。 增量迁移解析RocksDB的wal文件,将Rocks
新建工单”,提交工单让运维处理。 无法备份数据。 创建自动备份失败 NoSQLCreateAutomatedBackupFailed 重要 一般是备份文件导出失败或上传失败等原因导致。 您可以在管理控制台右上角,选择“工单 > 新建工单”,提交工单让运维处理。 无法备份数据。 实例运行状态异常