检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
企业A也可以使用其他的数据集对同一个模型进行多次的评估。单击“发起评估”选择训练参与方不同的数据集即可发起模型评估。 至此使用可信联邦学习进行联邦建模的过程已经完成,企业A已经训练出了一个符合自己要求的算法模型,后续文档会介绍如何使用已有的算法模型对新的数据进行预测。 父主题: 使用TICS可信联邦学习进行联邦建模
场景描述 某企业A在进行新客户营销时的成本过高,想要通过引入外部数据的方式提高营销的效果,降低营销成本。 因此企业A希望与某大数据厂商B展开一项合作,基于双方共有的数据进行联邦建模,使用训练出的联邦模型对新数据进行联邦预测,筛选出高价值的潜在客户,再针对这些客户进行定向营销,达成提高营销效果、降低营销成本的业务诉求。
使用ModelArts Standard部署模型并推理预测 推理部署使用场景 创建模型 创建模型规范参考 将模型部署为实时推理作业 将模型部署为批量推理服务 管理ModelArts模型 管理同步在线服务 管理批量推理作业
在线服务预测报错MR.0105 问题现象 部署为在线服务,服务处于运行中状态,预测时报错:{ "erno": "MR.0105", "msg": "Recognition failed","words_result": {}}。 图1 预测报错 原因分析 请在“在线服务”详情页面
功能二:使用预算报告定期跟踪预算进展 客户可以针对预算创建报告,华为云会在指定的报告日为您发送预算情况。 场景示例 客户需要创建一个弹性云服务的按需成本预测预算,每月预算金额为1200元,当预测金额高于预算金额的80%时发送预算告警。 创建预测预算的报告时,必须先开通预测功能,具体操作请参见预测机制。
Editor,可以在里面编辑和运行cell。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
在“创建部署”页面,参考表1完成部署参数设置。 表1 预测大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“预测大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安
供一个可调用的API。 将模型部署为批量推理服务 批量服务可对批量数据进行推理,完成数据处理后自动停止。 图2 不同类型的推理作业使用场景 父主题: 使用ModelArts Standard部署模型并推理预测
发布训练后的预测大模型 预测大模型训练完成后,需要执行发布操作,操作步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型训练”,单击模型名称进入任务详情页。 单击进入“训练结果”页签,单击“发布”。
使用TICS可信联邦学习进行联邦建模 场景描述 准备数据 发布数据集 创建可信联邦学习作业 选择数据 样本对齐 筛选特征 模型训练 模型评估 父主题: 纵向联邦建模场景
预测接口 功能介绍 线上预测接口。 URI POST 服务部署成功后返回的预测地址。 请求消息 请求参数请参见表1 请求参数说明。 表1 请求参数说明 参数名称 是否必选 参数类型 说明 rec_num 否 Integer 请求返回数量,默认返回50条。 user_id 是 String
平均绝对误差 平均绝对误差是预测值与真实值之间绝对误差的均值。它同样用于衡量模型预测值与实际值之间的差异,数值越小,表明模型预测的准确性越高。 真实值和预测值 真实值和预测值在图表中的对比情况。 准确率 模型预测结果中,所有预测正确的样本占总样本的比例。数值越高,模型效果越好。
管理预测大模型训练任务 在训练任务列表中,任务创建者可以对任务进行编辑、启动、克隆(复制训练任务)、重试(重新训练任务)和删除操作。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型训练”,可进行如下操作:
预测大模型训练常见报错与解决方案 预测大模型训练常见报错及解决方案请详见表1。 表1 预测大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空。 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提前创
epochs=10) 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
实时预测 实时预测通过在计算节点部署在线预测服务的方式,允许用户利用POST请求,在毫秒级时延内获取单个样本的预测结果。 创建实时预测作业 执行实时预测作业 删除实时预测作业 父主题: 联邦预测作业
将模型推理代码中的x[0][i]修改为x[i],重新部署服务进行预测。 父主题: 服务预测
0201”:“Request entity too large”。请减少预测请求内容后重试。 当使用API调用地址预测时,请求体的大小限制是12MB,超过12MB时,请求会被拦截。 使用ModelArts console的预测页签进行的预测,由于console的网络链路的不同,要求请求体的大小不超过8MB。
删除批量预测作业 删除批量预测作业 用户登录进入计算节点页面。 在左侧导航树上依次选择“作业管理 > 联邦预测”,打开联邦预测作业页面。 在“联邦预测”页面批量预测,查找待删除的作业,单击“删除”。 删除操作无法撤销,请谨慎操作。 图1 删除作业 父主题: 批量预测
删除实时预测作业 删除实时预测作业 用户登录进入计算节点页面。 在左侧导航树上依次选择“作业管理 > 联邦预测”,打开联邦预测作业页面。 在“联邦预测”页面实时预测tab页,查找待删除的作业,单击“删除”。如果作业处于“部署完成“状态,需要单击“停止部署”后,方可删除。 删除操作无法撤销,请谨慎操作。