检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
各个模型深度学习训练加速框架的选择 LlamaFactory框架使用两种训练框架: DeepSpeed和Accelerate都是针对深度学习训练加速的工具,但是它们的实现方式和应用场景有所不同。 DeepSpeed是一种深度学习加速框架,主要针对大规模模型和大规模数据集的训练。D
合基于趋势(以历史支出作为输入)的预测和基于业务驱动因素(例如新业务上云或区域扩张)的预测,可以有效改进并提升企业的财务预测准确率。 相关服务和工具 使用成本中心的成本分析,可以根据客户的历史支出预测未来时间范围的成本。成本分析的成本和使用量预测,会参考不同的计费模式特征,结合机
模型包结构介绍 创建模型时,如果是从OBS中导入元模型,则需要符合一定的模型包规范。 模型包规范适用于单模型场景,如果是多模型场景(例如含有多个模型文件)推荐使用自定义镜像方式。 ModelArts推理平台不支持的AI引擎,推荐使用自定义镜像方式。 请参考创建模型的自定义镜像规范
查看ModelArts模型详情 查看模型列表 当模型创建成功后,您可在模型列表页查看所有创建的模型。模型列表页包含以下信息。 表1 模型列表 参数 说明 模型名称 模型的名称。 最新版本 模型的当前最新版本。 状态 模型当前状态。 部署类型 模型支持部署的服务类型。 版本数量 模型的版本数量。
DOMAIN_NAME 调用预测请求的账号名。 DOMAIN_ID 调用预测请求的账号ID。 PROJECT_NAME 调用预测请求的项目名。 PROJECT_ID 调用预测请求的项目ID。 USER_NAME 调用预测请求的用户名。 USER_ID 调用预测请求的用户ID。 “#”
不同输入请求的预测方式如下: JSON文本预测 登录ModelArts管理控制台,在左侧菜单栏中选择“模型部署 > 在线服务”,进入“在线服务”管理页面。 单击目标服务名称,进入服务详情页面。在“预测”页签的预测代码下,输入预测代码,然后单击“预测”即可进行服务的预测,如图3所示。
参数等额外信息,最大长度512 job_partner String 参与方信息,最大长度128 is_single_predict Boolean 单方还是双方预测 metrics String 联邦学习模型评估指标 请求示例 查询训练作业下的成功模型 get https://x.x.x.x:1234
星期 星期。 星期四 早晚天气变化 早晚天气变化。 白天:晴转多云,夜间:多云 实时天气 实时天气状况。 多云 最低温 最低温度。 30 最高温 最高温度。 39 风速 风速,km/h。 10.6 降雨概率 降雨概率。 30% 生活提示 生活提示。 记得带伞 父主题: 生活服务类
TemperaturType 温度类型。 对系统的影响 表明当前AP(单板/环境/CPU/NP/中射频)温度低于低温阈值。 如果阈值设置的不低,对业务没有影响。 如果阈值设置的较低,说明当前AP(单板/环境/CPU/NP/中射频)温度确实较低,可能导致AP器件工作异常,影响业务。 可能原因
TemperaturType 温度类型。 对系统的影响 表明当前AP(单板/环境/CPU/NP/中射频)温度超过了阈值。 如果阈值设置的不高,对业务没有影响。 如果阈值设置的较高,说明当前AP(单板/环境/CPU/NP/中射频)温度确实较高,可能导致AP器件工作异常,影响业务。 可能原因
在线服务运行中但是预测失败时,如何排查报错是不是模型原因导致的 问题现象 在线服务启动后,当在线服务进入到“运行中”状态后,进行预测,预测请求发出后,收到的响应不符合预期,无法判断是不是模型的问题导致的不符合预期。 原因分析 在线服务启动后,ModelArts提供两种方式的预测: 方式1
查看批量服务的事件 服务的(从用户可看见部署服务任务开始)整个生命周期中,每一个关键事件点在系统后台均有记录,用户可随时在对应服务的详情页面进行查看。 方便用户更清楚的了解服务部署和运行过程,遇到任务异常时,更加准确的排查定位问题。可查看的事件点包括: 表1 事件 事件类型 事件
管理在线服务生命周期 启动服务 您可以对处于“运行完成”、“异常”和“停止”状态的服务进行启动操作,“部署中”状态的服务无法启动。启动服务,当服务处于“运行中”状态后,ModelArts将开始计费。您可以通过如下方式启动服务: 登录ModelArts管理控制台,在左侧菜单栏中选择
云服务首页提示DBSS服务预测容量不足如何处理? DBSS实例磁盘不支持单独扩容,磁盘容量预测无法满足保存至少180天日志的合规要求时,需要进行备份。 此告警为提醒用户实例磁盘使用阈值较高,建议按小时备份。如果已开启了备份,则可忽略该告警 。 父主题: 数据库安全审计功能类
从AI Gallery订阅模型 在AI Gallery中,支持订阅官方发布或者他人分享的模型,订阅后的模型,可推送至ModelArts模型管理中,进行统一管理。 订阅模型与云服务订阅模型的区别: 在管理控制台,模型管理所在位置不同。订阅模型统一管理在“模型管理>订阅模型”页面中,
修改在线服务配置 对于已部署的服务,您可以修改服务的基本信息以匹配业务变化,更换模型的版本号,实现服务升级。 您可以通过如下两种方式修改服务的基本信息: 方式一:通过服务管理页面修改服务信息 方式二:通过服务详情页面修改服务信息 前提条件 服务已部署成功,“部署中”的服务不支持修改服务信息进行升级。
查看批量服务详情 当模型部署为批量服务成功后,您可以进入“批量服务”页面,来查看服务详情。 登录ModelArts管理控制台,在左侧菜单栏中选择“模型部署>批量服务”,进入“批量服务”管理页面。 单击目标服务名称,进入服务详情页面。 您可以查看服务的“名称”、“状态”等信息,详情说明请参见表1。
修改批量服务配置 对于已部署的服务,您可以修改服务的基本信息以匹配业务变化,更换模型的版本号,实现服务升级。 您可以通过如下两种方式修改服务的基本信息: 方式一:通过服务管理页面修改服务信息 方式二:通过服务详情页面修改服务信息 前提条件 服务已部署成功,“部署中”的服务不支持修改服务信息进行升级。
as K # K.get_session().run(tf.global_variables_initializer()) # 定义预测接口的inputs和outputs # inputs和outputs字典的key值会作为模型输入输出tensor的索引键 # 模型输入输出定义需要和推理自定义脚本相匹配
巡检 支持SMC对IdeaHub巡检: 支持检查IP线路状态。 支持检查系统软件版本。 支持检查系统性能,例如温度状态。 支持检查H.323和SIP注册状态。 支持检查共享材料状态,包括材料源连接和输入口配置。 支持检查线缆连接状态,包括主视频输入线缆连接和视频输入口配置。 支持重启和通话结束后继续原来的巡检任务。