检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
注册微服务实例 功能介绍 创建微服务后就可以注册该微服务的实例。 注册微服务实例时,需提供该微服务实例相关的信息。 instanceId可定制,如果定制了,再次注册就直接全内容覆盖;如果没有定制,系统自动生成id,如果endpoints内容重复,则使用原来的id。 URI POST
查看注册到CloudMap的微服务信息 查看注册到CloudMap的微服务列表 配置微服务治理 在CloudMap中删除微服务 查看微服务版本信息 查看及导出微服务接口契约 查看微服务的依赖关系 查看依赖服务(声明) 查看SLB后端集群 父主题: 管理Cloud Map中的服务资源
在ACMS中录入敏感配置 本文介绍如何在ACMS管理台录入敏感配置,支持手动逐条录入和批量导入两种方式。 前提条件 需要具备AppStage服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。 录入敏感配置 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择
可以对华为云外的站点提供服务吗? 该服务目前不支持对华为云外的站点提供服务。 父主题: 关于服务咨询
操作步骤 对接测试 配置流水线构建任务 upgrade.sh脚本说明 父主题: 使用GitLab对接Jenkins自动构建并升级部署到ServiceStage的组件
FATAL Can't get local ip 问题现象 SLB部署失败,日志详细信息提示如下: step2_install : generate confd conf & templates /opt/huawei/easyconf/sbin/confagent[27688]:
SSL_do_handshake() failed 问题现象 配置同步失败,日志详细信息提示如下: "SSL_do_handshake() failed" 解决方法 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“微服务开发 > 负载均衡”。 选择左侧导航栏的“
设置组件自定义指标监控 ServiceStage支持获取容器部署组件时自定义指标,您可使用该方式上报自定义的组件运行指标。 本章节指导您根据实际业务需要,在设置组件“高级配置”时自定义组件的指标监控。 使用限制 当前仅支持获取prometheus的Gauge指标类型。 在设置应用组件自定义监控前
容器部署组件绑定分布式缓存 传统单实例应用使用本地会话管理,用户请求产生的会话上下文都被存于进程内存中。在加入负载均衡模块后,多实例的会话需要使用分布式存储进行共享。 ServiceStage提供开箱即用的分布式会话功能,使用分布式缓存服务作为会话持久化层,无需代码更改,即可赋予Tomcat
如何将Keras的.h5格式的模型导入到ModelArts中? ModelArts不支持直接导入“.h5”格式的模型。您可以先将Keras的“.h5”格式转换为TensorFlow的格式,然后再导入ModelArts中。 从Keras转TensorFlow操作指导请参见其官网指导。
在ModelArts中使用边缘节点部署边缘服务时能否使用http接口协议? 系统默认使用https。如果您想使用http,可以采取以下两种方式: 方式一:在部署边缘服务时添加如下环境变量: MODELARTS_SSL_ENABLED = false 图1 添加环境变量 方式二:在使用自定义镜像导入模型时
在ModelArts中公共资源池和专属资源池的区别是什么? 共享池是所有ModelArts共享的一个资源池,当使用人数比较多的时候,可能造成资源紧张而产生排队。 专属池是专属于您的资源池,不会因为资源紧张而产生排队,同时专属资源池支持打通自己的VPC,能和自己的资源网络互通。 父主题
主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.909) 场景介绍 准备工作 执行训练任务 查看日志和性能 训练脚本说明 附录:训练常见问题 父主题: LLM大语言模型训练推理
主流开源大模型基于Standard+OBS+SFS适配ModelLink PyTorch NPU训练指导(6.3.910) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.911) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Server适配LlamaFactory PyTorch NPU训练指导(6.3.912) 场景介绍 准备工作 执行训练任务 查看日志和性能 训练benchmark工具 训练脚本说明 附录:训练常见问题 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.912) 场景介绍 准备工作 训练任务 查看日志和性能 训练脚本说明参考 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
查看角色桌面 查看角色桌面 进入IPDCenter基础服务登录页面,输入账号和密码,单击“登录”。 在角色桌面首页,选择想要查看角色桌面页签,查看角色桌面详情。 您可以选择“角色桌面 > 自定义”,在“自定义”区域中单击某一角色桌面名称,跳转到所选角色桌面。 也可以选择“角色桌面
删除角色桌面 操作步骤 进入IPDCenter基础服务登录页面,输入账号和密码,单击“登录”。 在角色桌面首页,选择“角色桌面 > 自定义”,选择需要删除的角色桌面,单击。 图1 删除角色桌面 默认区域的角色桌面模板不支持在桌面首页删除,如需删除,可单击“角色桌面管理”,跳转到“角色桌面管理
成员管理 CraftArts IPDCenter除了可以手动添加用户,也支持邀请拥有华为个人账号的用户加入组织,被邀请加入组织后,个人华为账号将拥有CraftArts IPDCenter的使用权限。 添加成员 在角色桌面首页,选择左上角的,单击“管理中心”。 选择“用户及授权管理