检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
元数据Metadata 元数据文件:{OSC-Package}/metadata.yaml,配置的是服务包的基本信息,包括名称、版本、描述等相关信息。
高效开发,自动运维 容器化只是服务云原生化的第一步,服务部署之后需要治理,不仅包括监控、日志、告警等基本运维能力,还包括弹性伸缩、数据备份恢复、故障迁移、故障恢复等高级运维能力,这些能力是服务高SLA的必要条件,严重依赖云平台的能力,对开发者而言都是重复开发工作,高效快速地赋予服务这些能力是开发者面临的一个难题
如何清理集群中OSC冗余插件数据 使用场景 用户使用OSC平台部署了相关OSC服务后,因为自身原因需要将集群中的OSC等插件信息清理掉,可以参考此章节进行处理。 使用前提 确保集群可以执行kubectl命令,以避免无法执行清理命令。
您可以理解为集群是“同一个子网中一个或多个弹性云服务器(又称:节点)”通过相关技术组合而成的计算机群体,为容器运行提供了计算资源池。 命名空间 命名空间是对一组资源和对象的抽象整合。
治理:容器化只是服务云原生化的第一步,服务部署之后需要治理,不仅包括监控、日志、告警等基本运维能力,还包括弹性伸缩、数据备份恢复、故障迁移、故障恢复等高级运维能力,这些能力是服务高可靠、高可用、高SLA的必要条件。
SFS文件存储:适用于媒体处理、内容管理、大数据分析、分析工作负载等多读多写的场景。
在左侧导航栏选择“节点管理”,选择“节点”页签,选择节点,找到IP地址栏中标有弹性公网的ip节点地址。 登录上节点后台,登录节点密码为用户购买节点时填写的密码。
还可用来查询数据和图形化展示数据趋势。
monitor_config.yaml #【可选】监控对接的默认配置,参见如何配置监控 │ ├─ log_config.yaml #【可选】日志对接的默认配置,参见对接配置日志 │ └─ xxx_config.yaml #【可选】未来支持更多公共能力,如自定义指标、弹性伸缩
它需要实例的状态块中的输出格式: status: [PATH_TO_THE_FIELD]: [FIELD_VALUE] 例子: - description: 开启公网访问后,可通过弹性公网IP访问,集群模式暂不支持 displayName: CCE集群内访问地址
hwDnatElbAccess(公网访问):支持通过弹性公网IP访问实例。 hidden(字段隐藏):支持对基于CRD自动生成控件的字段表单隐藏。 statusDescriptors: text(展示文本): 实例的状态字段一般文本展示。
配置示例: - description: 开启公网访问后,可通过弹性公网IP访问Redis,集群模式暂不支持。
创建服务实例(第三方场景) 弹性负载均衡 ELB 服务提供外部访问地址时,依赖ELB为服务创建外部访问方式。 创建外部访问方式,支持用户通过公网访问服务提供的管理界面 应用运维管理 AOM OSC依赖AOM的日志采集能力展示服务实例的日志。
优势 更高效的利用华为云基础设施 OSC作为开发者与华为云基础设施的桥梁,提供了统一的对接方式,开发者可以通过配置文件赋予服务云原生能力,如全域分发、弹性伸缩、智能调度、监控运维等。
在创建数据类追踪器后,系统开始记录用户对OBS桶中数据的操作。云审计服务管理控制台会保存最近7天的操作记录。
执行实例运维动作(可选) 服务在运行过程中,一般会对关键数据进行备份操作,在服务异常后可通过备份数据进行恢复,在云原生服务中心中称之为运维动作。服务如定义了独立的运维动作,则会在实例详情界面展示出一个“Action”页签,单击可展示服务实例当前可执行的运维操作。
使用场景 用户在上传私有服务时,云原生服务中心将会在容器镜像仓库新建一个独立的组织用于存储上传的数据包。因此用户使用此仓库时需要确保容器镜像仓库允许创建至少一个组织,以避免上传服务包失败。 操作步骤 登录容器镜像服务SWR控制台,在左侧导航栏单击“组织管理”。
Big Data: 大数据。 Database: 数据库。 Monitoring:监控。 Security:安全。 Streaming & Messaging:流媒体&消息。 Integration & Delivery:集成交付。 Logging & Tracing: 日志。
表1 筛选条件 筛选条件 简介 类型 按照服务功能进行分类,目前有“全部”、“运行时”、“流媒体&消息”、“集成交付”、“数据库”、“日志”、“监控”、“大数据”、“开发工具”、“网络”、“安全”、“AI/机器学习”、“其他”。
对于Kafka实例/集群而言,需要依托于zookeeper进行构建,zookeeper用作Kafka集群的元数据管理,每个Kafka实例在各节点上会有一个zookeeper实例与其对应,存储broker内的消息、topic等数据。