检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
tes资源权限的方法,操作流程如图1所示。 UCS的集群操作权限设置仅对非华为云集群生效。对于华为云集群(CCE集群、CCE Turbo集群)的操作权限以IAM权限或者CCE RBAC权限为准。 授权流程 图1 给用户授予Kubernetes资源权限流程 创建用户。 管理员账号在IAM控制台创建一个用户。
ReadOnlyAccess权限(IAM服务的只读权限),用于获取IAM用户列表。 UCS FullAccess + IAM ReadOnlyAccess 只读权限 查看权限列表或详情 UCS ReadOnlyAccess + IAM ReadOnlyAccess 策略中心 管理员权限
kubectl get pod -n default 当要获取全部命名空间下的Pod时,使用如下命令: kubectl get pod --all-namespaces 这样就可以看到集群下所有的Pod了。 $ kubectl get pod --all-namespaces NAMESPACE
群节点数 * Pod规模”的计算值进行插值查找,向上取最接近规格的申请值及限制值。 例如2000节点和2w个Pod的场景下,“目标节点数 * 目标Pod规模”等于4000w,向上取最接近的规格为700/7w(“集群节点数 * Pod规模”等于4900w),因此建议CPU申请值为4000m,限制值为5500m。
注册集群。 例如,将集群“ccecluster01”、“ccecluster02”添加至UCS,并查看集群是否处于正常运行状态。 在添加至UCS的两个集群中分别创建一个工作负载。 为展示流量切换的效果,本实践中两个集群的容器镜像版本不同。 集群“ccecluster01”:示例应用版本号为1
管理员权限 创建、删除舰队 注册华为云集群(CCE集群、CCE Turbo集群)、本地集群或附着集群 注销集群 将集群加入、移出舰队 为集群或舰队关联权限 开通集群联邦、联邦管理相关操作(如创建联邦工作负载、创建域名访问等) UCS FullAccess 只读权限 查询集群、舰队的列表或详情
later 问题原因:联邦需要访问CCE集群的5443端口,但是CCE集群的控制面安全组入方向规则不允许120.46.145.12(源地址)访问CCE集群的5443端口。 解决方案:修改CCE控制面入方向安全组,允许120.46.145.12(源地址)访问CCE集群的5443端口。 现象
(可选)对于本地集群来说,注销集群成功后,您可以手动执行卸载命令,在本地主机环境中删除集群,清理资源: ./ucs-ctl delete cluster [集群名称] 如果命令执行失败,请参考如何手动清理本地集群节点?处理。 删除舰队 如果容器舰队不再使用,可以将其删除。删除时有两个限
Service是Kubernetes中的一种资源对象,定义了一组Pod的访问方式。Service为Pod提供了一个稳定的IP地址和DNS名称,使得应用程序可以通过该IP地址或DNS名称来访问这些Pod,从而自动发现和连接到可用的Pod。在多集群场景下,为了满足数据主权、状态管理、可伸缩性等
k8sblocknodeport 基本信息 策略类型:合规 推荐级别:L1 生效资源类型:Service 参数:无 作用 不允许Service为NodePort类型。 策略实例示例 apiVersion: constraints.gatekeeper.sh/v1beta1 kind:
微软云集群(aks) azure 亚马逊云集群(eks) aws 谷歌云集群(gke) googlecloud 腾讯云集群(tke) tencentcloud OpenShift集群(openshift) openshift 自建集群(privatek8s) privatek8s 父主题:
内部域名”访问。集群内部域名格式为“<自定义的访问方式名称>.<工作负载所在命名空间>.svc.cluster.local”,例如“nginx.default.svc.cluster.local”。 添加方式 您可以在创建工作负载时设置访问方式,也可以在工作负载创建完成后添加访问方式。
查看,选择日志策略配置的日志流名称,即可查看上报到云日志服务(LTS)的日志。 开启华为云集群控制面审计日志 创建集群时开启 登录云容器引擎(CCE)控制台。 在控制台上方导航栏,选择集群,单击“购买”。 在“插件配置”页面中,“控制面审计日志”模块勾选“审计日志采集”。 已有集群中开启
authorization.k8s.io/aggregate-to-edit: "true" name: system:aggregate-to-edit rules: - apiGroups: - "" resources: - pods/attach - pods/exec
authorization.k8s.io"] kinds: ["RoleBinding"] parameters: allowedRoles: - cluster-role-1 符合策略实例的资源定义 ClusterRole关联到cluster-role-1
k8srequiredannotations 基本信息 策略类型:合规 推荐级别:L1 生效资源类型:* 参数: annotations: 键值对数组,key/ allowedRegex key: a8r.io/owner # Matches email address
kind: K8sRequiredLabels metadata: name: all-must-have-owner spec: match: kinds: - apiGroups: [""] kinds: ["Namespace"]
GPU 设备显存与算力进行划分,提高 GPU 资源利用率 GPU资源使用模式: 整卡模式:单个Pod独享整张显卡,可填1-10,取决于节点显卡数量。 共享模式:多个Pod共享显卡,此处配置单个Pod使用显卡的百分比。不支持跨GPU分配,如50%单显卡只会分配到一张卡上。 GPU虚拟化模式:
VPC服务系统策略所有执行权限 NAT FullAccess NAT网关服务系统策略所有执行权限 DNS FullAccess DNS服务系统策略所有执行权限 VPCEndpoint FullAccess VPCEP服务系统策略所有执行权限 LTS FullAccess LTS服务系统策略所有执行权限
spec: match: namespaces: ["kube-system"] kinds: - apiGroups: [""] kinds: # You can optionally add "Pod" here, but it is