检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
漏洞(CVE-2024-21626)。由于内部文件描述符泄漏,攻击者可通过控制容器进程的工作目录,或命令路径,将其设置为文件描述符的父级目录下的路径,读写主机任意文件,实现容器逃逸。 表1 漏洞信息 漏洞名称 CVE-ID 漏洞级别 披露/发现时间 runC漏洞 CVE-2024-21626
CORS 当一个资源向该资源所在服务器的不同的域发起请求时,就会产生一个跨域的HTTP请求。出于安全原因,浏览器会限制从脚本发起的跨域HTTP请求。通过跨域资源共享CORS机制可允许Web应用服务器进行跨域访问控制,使跨域数据传输安全进行。 YAML设置如下: apiVersion:
表1 漏洞信息 漏洞名称 CVE-ID 漏洞级别 披露/发现时间 HTTP/2 协议拒绝服务漏洞 CVE-2023-44487 高 2023-10-10 漏洞影响 此漏洞为拒绝服务类型漏洞,不影响数据安全,但恶意攻击者可能通过此漏洞造成服务器拒绝服务,导致服务器宕机。 漏洞修复方案
漏洞公告 HTTP/2协议拒绝服务漏洞公告(CVE-2023-4487) runC漏洞对UCS服务的影响说明(CVE-2024-21626)
raly网络相关介绍与操作请参见Cilium。 支持 附着集群 附着集群 需支持underlay网络 取决于附着集群网络类型 常见问题 若检测结果显示集群间节点或容器访问不通,请排查以下项目: 表3 排查项 排查方法 解决方案 确认集群版本是否在1.21及以上 进入集群详情页查看。
169.254.70.2/30 对端隧道接口地址 配置在用户侧设备上的tunnel接口地址。 169.254.70.1/30 检测机制 用于多链路场景下路由可靠性检测。 说明: 功能开启前,请确认对端网关支持ICMP功能,且对端接口地址已在对端网关上正确配置,否则会导致VPN流量不通。
服务路由 服务路由概述 创建服务路由 更新服务路由 服务路由协议 重试 重写 请求超时 流量镜像 CORS 头域控制 故障注入 父主题: 流量治理
B)中的Service时,请求将会被路由到源集群的服务后端,从而实现跨集群服务发现及访问。 MCS的使用流程 MCS的使用流程见图2,具体的使用流程如下: 检测集群间的节点网络互通与容器网络互通,若未互通则需按照要求打通。具体操作请参见设置集群网络。 在集群联邦中提前部署可用的工作负载和服务。具体操作请参见准备工作。
通过分布式调度管理,实现百万级节点算力协同,随时、随地提供应用所需的算力资源,让应用感受不到跨云限制。 应用流量治理新模式 通过分布式流量控制,实现智能流量分发调度,实时跨域、按需调配应用访问流量,让应用感受不到流量限制。 功能介绍 跨云、跨地域集群统一接入,统一管理 支持跨云、跨地域的集群统一接入、统一管理,
错误的端口、应用未实现健康检查协议等。 公共参数说明 表1 公共参数说明 参数 参数说明 检测周期(periodSeconds) 探针检测周期,单位为秒。 例如,设置为30,表示每30秒检测一次。 延迟时间(initialDelaySeconds) 延迟检查时间,单位为秒,此设置与业务程序正常启动时间相关。
sh。究其原因是集群在执行容器里的程序时,不在终端环境下。 公共参数说明 表1 公共参数说明 参数 参数说明 检测周期(periodSeconds) 探针检测周期,单位为秒。 例如,设置为30,表示每30秒检测一次。 延迟时间(initialDelaySeconds) 延迟检查时间,单位为秒,此设置与业务程序正常启动时间相关。
为容器提供网络互通:Cilium通过为每个容器分配一个独特的IP地址来实现容器间的网络互通,同时支持多种网络协议。 具备网络安全检测能力:Cilium支持通过集成第三方的网络安全检测服务,如Snort等,来进行网络流量分析和检测。 自动进行容器安全策略管理:Cilium通过基于Kubernetes 的自定义资源定义(
命名空间 命名空间(Namespace)是对集群中一组资源和对象的抽象整合,可通过集群资源配额实现多个用户之间的资源划分,适用于多个团队或项目共享一个集群资源的场景。 创建命名空间 登录UCS控制台,在左侧导航栏中选择“容器舰队”。 在“容器舰队”页签下找到已开通集群联邦的舰队,单击名称进入详情页。
命名空间 命名空间(Namespace)是对一组资源和对象的抽象整合。在同一个集群内可创建不同的命名空间,不同命名空间中的数据彼此隔离。使得它们既可以共享同一个集群的服务,也能够互不干扰。例如可以将开发环境、测试环境的业务分别放在不同的命名空间。 命名空间按创建类型分为两大类:集群默认创建、用户创建。
实现基于网络QoS优先级调度、地理亲和等能力,同时借助网格能力可支持自动化灰度发布,服务拓扑可视化,服务调用链等能力,使得用户可以实现实时跨域、按需调配应用访问流量。 数据随应用一键迁移 UCS分别针对存储设施层、容器集群层、中间件数据层提供应对不同业务场景的数据复制能力。提供跨
多集群服务接入和流量管理,实现智能流量分发调度,实时跨域、按需调配应用访问流量。 通过云解析服务DNS,用户的访问流量可根据运营商、地域等维度进行切分,对同一域名的访问请求进行不同的解析响应,指向不同的后端集群,从而解决了跨域、跨网访问延迟高的问题。 图1 流量管理示意图 前提条件
负载均衡器可以将来自所有Node节点(包括Master节点)上的kubelet等进程的访问流量分发到三台Master主机上,并支持自动检测并隔离不可用的进程,从而提高业务的服务能力和可用性。用户可以使用云厂商提供的负载均衡器或相关的LB硬件设备,还可以通过Keepalived
请分别登录到规划的节点执行上述操作。 主机最小化安装要求 不使用的软件包不允许存在系统中 遵循最小化安装原则,只安装业务需要的软件包与服务组件。减少系统漏洞,降低系统遭受攻击风险。 用于生产环境的系统中不允许保留开发和编译工具 系统中不允许存在如下开发工具和编译工具: 'cpp' (/usr/bin/cpp)
GPU调度概述 工作负载支持使用节点GPU资源,GPU资源使用可以分为如下两种模式: GPU静态分配(共享/独享):按比例给Pod分配GPU显卡资源,支持独享(分配单张/多张显卡)和共享(部分显卡)方式。 GPU虚拟化:UCS On Premises GPU采用xGPU虚拟化技术
controller设置了以下功能: 稳定窗口 在监控到指标数据达到期待值(即满足伸缩标准)时,HPA controller会在所设定的稳定窗口期内持续检测,如果检测结果显示该时间段内的指标数据持续达到期待值,才会进行伸缩。默认扩容稳定窗口时长为0秒,缩容稳定窗口时长为300秒,支持修改。在实际配置