检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ances配置为100%、grayProcess为FINISHED并部署成功后,才算灰度结束了;中间一个阶段部署成功了不算结束灰度,只算这一阶段部署成功了,此时仍然算在灰度升级过程中。 灰度过程中,不允许业务再执行普通部署,不允许在管理台上修改配置,只能通过IaC部署修改。 多阶
和推理方向。 大语言模型 大语言模型是一种能够理解和生成人类语言的人工智能模型。这些模型通常使用大量的数据进行训练,以便它们能够识别语言中的模式和规律。大语言模型的应用范围非常广泛,包括自然语言处理、机器翻译、语音识别、智能问答等领域。 向量化模型 向量化模型是将文本数据转换为数
配置demo # resources.yaml - name: sdkCluster type: WiseCloud::MicroService::NuwaContainer properties: microserviceName: WiseCloudNuwaSDK
开发完成的应用软件包,通过流水线发布,可以发布至运维中心的部署服务中,使用部署服务完成应用部署。 操作步骤 在“服务环境管理”页面,单击待变更环境所在行“操作”列的“更新”,进入“更新环境”页面。 配置变更参数。 完成“变更基本配置”,单击“下一步”,会根据配置内容产生变更计划。 环境基本信息:作为环境的元数据无法修改、无法被更新。
服务环境配置”,在“账号列表”页面单击对应账号后的“编辑”,然后单击“确定”,自动刷新该账号下的区域信息。 容灾区域 选择使用的容灾区域。 模式 环境中资源实例的部署模式,单云指部署一个AZ,双云指部署两个AZ。 单击“确定”,完成环境配置。 配置的环境会显示在环境配置列表中。 步骤三:启用环境
字符。 type 资源类型。支持配置管理、NUWA Container及SLB。 properties 属性值,包含资源的详细参数。详细参数介绍请参见IaC资源参数介绍。 如果资源文件过大可以通过引用的方式对文件进行拆分及复用如图,我们可以把配置的定义放在config/business_config
SLB监听配置 本章介绍通过IaC进行SLB监听配置的管理,包括监听的域名、端口、协议、证书、监听级别的高级配置,对应的资源类型为WiseCloud::LoadBalancer::SLB::ListenerGroup。 表1 SLB监听配置字段说明 参数名 类型 是否必选 说明 instanceName
yaml中通过$ref的方式来引用。 │ └── configs/ 文件夹 1 微服务配置目录。 │ └── config_schema.yaml 文件 1 声明微服务的业务配置项属性,敏感业务配置项需要声明,非敏感配置项可以不声明。在resources.yaml中通过$ref的方式来引用。 │
为环境导入存量资源 由非代码手段创建的存量资源,如果需要将这些存量资源使用部署服务进行管理,即通过代码声明和流水线描述部署过程,那么这些存量资源必须要在系统中存在数据记录。 前提条件 已获取服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。 已准备环境并启用,服务环境
#引用config/values.yaml文件中的volumes配置 $ref: 'config/values.yaml#/values/volumes' resourceTag: #指定集群部署的分组,此处配置的信息要在管理台提前预置好
ModelRouter ModelRouter提供了AI原生应用引擎模型网关的接口,可以访问AI原生应用引擎上的模型,接口调用类似OpenAI。 实例化 表1 实例化参数 参数名 参数类型 是否必选 参数描述 base_url str False 模型网关开放的ip和端口,有默认值可以不填。功能类似OpenAI的base_url。
SLB SLB资源概述 SLB实例 SLB实例配置 SLB监听配置 转发策略配置 灰度服务配置 灰度升级配置demo 父主题: IaC资源参数介绍
持客户打通自己的业务能力API,将大模型的能力结合进入自己的业务链路。 提供支撑AI原生应用运行的整套模型工具链,包括数据管理、模型接入、模型调优、知识工程等能力,帮助客户选好、管好、用好大模型,从而提升大模型应用效果。 构建企业应用与大模型之间的安全隔离带,结合华为云安全控制机制,保障AI原生应用安全可信。
解决方法 在SLB实例主机,执行命令kill -9 进程id关闭watchdog进程,然后重新部署。 父主题: SLB部署失败相关问题
degradeConf 否 降级配置 blackListConf 否 黑名单配置 vipListConf 否 白名单配置 flowControlConf 否 流控配置 confLuaConf 否 其他配置,不填采用默认值 customLuaConf 否 自定义lua配置,每个lua文件大小不得超过16KB。
、测试模型服务时需要调用ChatGLM3-6B大模型服务API在线调用、大模型微调服务API在线调用-SFT局部调优,按需计费模式能大幅降低客户的业务成本。 适用计费项 AI原生应用引擎的以下计费项支持按需计费。 表1 适用计费项 计费项 说明 ChatGLM3-6B大模型服务API在线调用
erial(串行)/Parallel(并行)/Apply(声明式任务执行),其中,Serial/Parallel不涉及资源部署,我们仅通过此类任务将需要部署的资源串联起来,从而环境变更的过程。如果把pipeline比作一棵树的声明,那么所有tasks都是这棵树的子节点,Apply
/proc/version,查看环境系统,SLB分为ARM、X86两个版本,界面上部署时需要选择与环境系统一样的包。 系统参数配置不正确 部署完之后,启动时提示参数不正确。 图2 参数配置不正确 解决方法:重新配置参数,参照参数配置不正确。 父主题: SLB部署失败相关问题
步骤三:配置基础数据:定义异常检测时间、指标、维度等基础信息。 步骤四:配置训练模型:配置异常检测算法模型,并进行模型训练。 步骤五:配置告警:配置异常检测生成的告警是否推送、告警级别等内容。 (可选)步骤六:配置大盘显示:系统会默认配置告警总览页面显示样式,如需修改,可单击“大盘”进行设置。 步骤一:新增任务 进入AppStage运维中心。
标识和时间戳。 command String 否 高级配置,自定义参数设置。 不要直接填写转发到某个集群的名称,例如proxy_pass http://upstreamName,这样配置会使得动态加载配置失效。 nginx配置命令,非中文。 root String 否 默认资源根目录,长度不超过500,非中文。