检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
伸缩负载 本节主要讲解工作负载弹性伸缩和手动伸缩的配置方式。请根据实际业务选择。 弹性伸缩:支持告警、定时、周期三种策略。配置完成后可基于资源变化、固定时间、固定周期自动触发实例的增减。 手动伸缩:配置完成后立即触发实例的增减。 对于挂载了云硬盘存储卷的Pod,实例缩容时不会同步
T启动命令,详细内容请参见容器启动命令。 配置管理:容器支持挂载ConfigMap和Secret。ConfigMap和Secret的创建请参见使用ConfigMap和使用Secret。 单击“下一步:定时规则”,进行任务高级配置。 并发策略 Forbid:在前一个任务未完成时,不创建新任务。
添加极速文件存储卷 创建极速文件存储过程中需要创建单独的虚拟机,耗时较长。因此当前仅支持使用已有的极速文件存储卷。 挂载子路径为极速文件存储根路径下的子路径,如果不存在会自动在文件存储中创建。该路径必须为相对路径。 解关联极速文件存储卷 导入极速文件存储卷成功后,如果不需要使用极速文件存储,您可以
com/devg-cci/cci_05_0007.html。 安装coredns:coredns插件为您的其他负载提供内部域名解析服务,如果不安装coredns则无法通过“服务名称:负载访问端口”访问负载。 负载端口配置 协议:访问负载的通信协议,可选择TCP或UDP。 负载访问端口:负载提供的访问端口。
5核,内存 1GiB。 容器配置 在“我的镜像”选择上传的2048。 图1 容器配置 配置负载访问信息。 选择负载访问方式,有如下3种选项。 不启用:负载不提供外部访问方式,适合一些计算类场景,只需计算完存储结果即可,无需与外部通信。 内网访问:内网访问将为当前负载配置一个负载域名或内网域
的段。 示例: 上图中用户A通过13个100字节的段发送1k字节的数据,每个段具有20字节的TCP头,总计是13个段。在接收端,用户B接收了段1,2,4,6,8-13,而段3,5和7丢失,B没有接收到。 通过使用ACK号,用户B告诉A,他需要段3,用户A读取到B接收到2后没有收到
CCI记录的审计日志会上报到CTS,供用户查询和分析,详细介绍和配置方法,请参见查看云审计日志。 日志 CCI为用户提供日志管理功能,用户可配置容器的日志路径和日志上报地址,Pod中集成的fluentbit插件会从日志路径采集日志,并上报到LTS,详细介绍和配置方法,请参见日志管理。 整体上CCI的安全
本章节将介绍如何在CCI命名空间中,部署Prometheus,实现对Pod实例的监控。 首先需要完成两步配置,一是访问CCI并使用“用户名/密码”或“AK/SK”的方式配置IAM认证信息,二是使用ConfigMap管理Prometheus配置。两个ConfigMap资源创建成功之
创建PyTorchJob。 PyTorchJob即PyTorch任务,是基于PyTorch开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现PyTorch的训练。 URI POST /apis/kubeflow.org/v1/namespaces/{n
建、释放等动作,而只需要申明您需要何种类型的存储资源、多大的存储空间。 在实际使用中,您可以通过Pod中的Volume来关联PVC,通过PVC使用持久化存储,如图1所示。 图1 使用持久化存储 创建PVC 通过如下定义创建PVC,这个定义申请了一块大小为100G的SAS型云硬盘。
优势 使用容器化的方式做此类人工智能训练与推理有如下优势: 容器化消除环境差异,不需要自己安装各种软件和配套版本,如python,tensorflow,cuda toolkit等软件。 GPU驱动免安装。 低成本,按秒计费。 serverless带来的免VM运维。 镜像制作 ten
华北-北京四 NVIDIA Tesla V100 16G显卡 NVIDIA Tesla V100 16G x 1,CPU 4核,内存32GiB NVIDIA Tesla V100 16G x 2,CPU 8核,内存64GiB NVIDIA Tesla V100 16G x 4,CPU 16核,内存128GiB
日志出现重复/丢失的原因 日志出现重复 原因一:日志文件转储,且转储文件仍被匹配到。 详细说明:如果配置日志路径文件名中有通配符,如配置为/tmp/*.log,当/tmp/test.log文件转储为/tmp/test.001.log后,因仍被通配规则匹配到,会被视为新文件,则会被重新采集。
创建MXJob 功能介绍 创建MXJob。 MXJob即MXNet任务,是基于MXNet开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现MXNet的训练。MXNet开源框架的信息详见:https://mxnet.incubator.apache.org/。
创建TFJob。 TFJob即Tensorflow任务,是基于Tensorflow开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现Tensorflow的单机或分布式训练。Tensorflow开源框架的信息详见:https://www.tensorflow
(GPU型命名空间下使用)。具体的规格信息请参考约束与限制中的“Pod规格”。 容器配置 一个Pod可以包含一个或多个运行不同镜像的容器,通常情况下一个Pod中只有一个容器,如果您的应用程序需要多个容器,请单击“添加容器”,然后选择镜像。 同一个Pod实例中的不同容器如果监听了相
GPU加速型Pod提供NVIDIA TeslaV100 32G显卡、NVIDIA TeslaV100 16G显卡和NVIDIA Tesla T4显卡,具体的规格有如下所示。 NVIDIA Tesla V100 32G显卡: NVIDIA TeslaV100 32G x 1,CPU 4核,内存32GB
使用“Service”方式访问:该方式适合CCI中同一个命名空间中的负载相互访问。 使用ELB(私网)访问:该方式适合云服务内部资源(云容器实例以外的资源,如ECS等)且与负载在同一个VPC内互相访问,另外在同一个VPC不同命名空间的负载也可以选择此种方式。通过内网域名或ELB的“IP:Port”为内
进入容器执行命令 功能介绍 exec接口无法通过curl或者postman进行调试,推荐使用kubectl进行调试,请参见kubectl配置指南。 调用方法 请参见如何调用API。 URI GET /api/v1/namespaces/{namespace}/pods/{name}/exec
进入容器执行命令 功能介绍 exec接口无法通过curl或者postman进行调试,推荐使用kubectl进行调试,请参见kubectl配置指南。 调用方法 请参见如何调用API。 URI POST /api/v1/namespaces/{namespace}/pods/{name}/exec