检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
删除批量预测作业 删除批量预测作业 用户登录进入计算节点页面。 在左侧导航树上依次选择“作业管理 > 联邦预测”,打开联邦预测作业页面。 在“联邦预测”页面批量预测,查找待删除的作业,单击“删除”。 删除操作无法撤销,请谨慎操作。 图1 删除作业 父主题: 批量预测
基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型 概要 准备工作 导入和预处理训练数据集 创建和训练模型 使用模型
服务预测失败 问题现象 在线服务部署完成且服务已经处于“运行中”的状态,向服务发起推理请求,预测失败。 原因分析及处理方法 服务预测需要经过客户端、外部网络、APIG、Dispatch、模型服务多个环节。每个环节出现都会导致服务预测失败。 图1 推理服务流程图 出现APIG.XX
型完成简单的图像分类。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
时序预测-time_series_v2算法部署在线服务预测报错 问题现象 在线服务预测报错:ERROR: data is shorter than windows。 原因分析 该报错说明预测使用的数据行数小于window超参值。 在使用订阅算法时序预测-time_series_v
实时预测 实时预测通过在计算节点部署在线预测服务的方式,允许用户利用POST请求,在毫秒级时延内获取单个样本的预测结果。 创建实时预测作业 执行实时预测作业 删除实时预测作业 父主题: 联邦预测作业
CPI预测 CPI预测基于蛋白质的一级序列和化合物的2D结构进行靶点匹配,精确的预测化合物-蛋白相互作用。 单击“CPI预测”功能卡片,进入配置页面。 配置靶点文件。 支持3种输入方式,分别是输入氨基酸序列、选择文件、输入PDB ID 输入FASTA格式氨基酸序列,输入框最多支持
中。这个预测作业可以作为后续持续预测的依据,企业A可以定期地使用模型预测自己的新业务数据。同时企业A也可以根据新积累的数据训练出新的模型,进一步优化模型预测的精确率,再创建新的联邦预测作业,产出更精准的预测结果供业务使用。 父主题: 使用TICS联邦预测进行新数据离线预测
批量预测 批量预测通过在计算节点后台发起离线预测任务的方式,在任务完成后可以获得指定数据集中所有样本的预测结果。 创建批量预测作业 编辑批量预测作业 执行批量预测作业 删除批量预测作业 父主题: 联邦预测作业
Editor,可以在里面编辑和运行cell。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
创建联邦预测作业 企业A单击“联邦预测 > 批量预测 > 创建”按钮,进入联邦预测作业的创建页面。企业A需要通过“算法类型”、“训练作业”等筛选条件可以找到用于预测的模型,点选使用的模型后单击“确定”按钮即完成联邦预测作业的创建。 父主题: 使用TICS联邦预测进行新数据离线预测
预测接口 功能介绍 线上预测接口。 URI POST 服务部署成功后返回的预测地址。 请求消息 请求参数请参见表1 请求参数说明。 表1 请求参数说明 参数名称 是否必选 参数类型 说明 rec_num 否 Integer 请求返回数量,默认返回50条。 user_id 是 String
服务预测 服务预测失败 服务预测失败,报错APIG.XXXX 在线服务预测报错ModelArts.4206 在线服务预测报错ModelArts.4302 在线服务预测报错ModelArts.4503 在线服务预测报错MR.0105 Method Not Allowed 请求超时返回Timeout
epochs=10) 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
0201”:“Request entity too large”。请减少预测请求内容后重试。 当使用API调用地址预测时,请求体的大小限制是12MB,超过12MB时,请求会被拦截。 使用ModelArts console的预测页签进行的预测,由于console的网络链路的不同,要求请求体的大小不超过8MB。
在线服务预测报错DL.0105 问题现象 在线服务预测报错DL.0105,报错日志:“TypeError:‘float’object is not subscriptable”。 原因分析 根据报错日志分析,是因为一个float数据被当做对象下标访问了。 处理方法 将模型推理代码
因APIG(API网关)限制,平台每次请求预测的时间不超过40秒。数据从平台发送到服务,服务预测推理,再将结果返回的时间不超过限制,可以成功返回预测结果。当服务预测的时间过长或者频繁预测导致服务接收不过来请求,即会出现该报错。 可以通过以下方式解决问题: 服务预测请求内容过大时,会因数据处理慢
在线服务预测报错ModelArts.4302 问题现象 在线服务部署完成且服务已经处于“运行中”的状态后,向运行的服务发起推理请求,报错ModelArts.4302。 原因分析及处理方法 服务预测报错ModelArts.4302有多种场景,以下主要介绍两种场景: "error_msg":
作业名称,最大长度128 job_type String 作业类型。作业类型:SQL.联合SQL分析,HFL.横向联邦学习,VFL.纵向联邦学习,PREDICT.预测 creatorName String 创建人名称,最大值128 create_time String 创建时间。 hfl_type
在服务详情页,选择“预测”页签。 图5 上传预测图片 单击“上传”选择上传一张需要预测的图片,单击“预测”,即可在右边的预测结果显示区查看您的预测结果。 图6 查看预测结果(1)--没戴口罩 图7 查看预测结果(2)--戴口罩 后续操作:清除相应资源 在完成预测之后,建议关闭服务,以免产生不必要的计费。