检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
精度问题诊断 逐个替换模型,检测有问题的模型 该方式主要是通过模型替换,先定位出具体哪个模型引入的误差,进一步诊断具体的模型中哪个算子或者操作导致效果问题,模型替换原理如下图所示。通过设置开关选项(是否使用onnx模型),控制模型推理时,模型使用的是onnx模型或是mindir的模型。
如何查看在哪个区域购买的套餐包? 登录ModelArts管理控制台,单击“总览”页的“我的套餐包”,进入“资源包”页面。 在“资源包”页面,您可以在“资源包列表”中查看已购买的套餐包。单击“资源包名称/ID”进入资源包详情。 在资源包详情页面,即可查看套餐包的购买区域。 图1 查看资源包区域
共享池和专属池的区别是什么? 共享池是所有ModelArts共享的一个资源池,当使用人数比较多的时候,可能造成资源紧张而产生排队。 专属池是专属于您的资源池,不会因为资源紧张而产生排队,同时专属资源池支持打通自己的VPC,能和自己的资源网络互通。 父主题: Standard资源池
ModelArts通过OBS的API访问OBS中的文件,算内网还是公网? 在同一区域,ModelArts通过OBS的API访问OBS中的文件属于内网通信,不消耗公网流量费。 如果是通过互联网从OBS下载数据到本地,这时候会产生OBS公网流量费。OBS的详细计费说明可以参见计费项。 父主题:
需要对应的数据库名、表名以及用户名和密码。所导入表的schema(列名和类型)需要跟数据集相同。DWS的详细功能说明,请参考DWS用户指南。 图1 从DWS导入数据 集群名称:系统自动将当前账号下的DWS集群展现在列表中,您可以在下拉框中选择您所需的DWS集群。 数据库名称:根据
队列名称:系统自动将当前账号下的DLI队列展现在列表中,用户可以在下拉框中选择需要的队列。 数据库名称:根据选择的队列展现所有的数据库,请在下拉框中选择您所需的数据库。 表名称:根据选择的数据库展现此数据库中的所有表。请在下拉框中选择您所需的表。 DLI的default队列只用作体验,不同
定训练任务结束?如何知道是哪个节点是worker呢? TensorFlow框架分布式训练的情况下,会启动ps与worker任务组,worker任务组为关键任务组,会以worker任务组的进程退出码,判断训练作业是否结束。 通过task name判断的哪个节点是worker。下发的训练作业是一个volcano
1434 SQL Server的TCP端口,用于返回SQLServer使用了哪个TCP/IP端口。 Oracle 1521 Oracle通信端口,弹性云服务器上部署了Oracle SQL需要放行的端口。 MySQL 3306 MySQL数据库对外提供服务的端口。 Windows Server
欠费后,ModelArts的资源是否会被删除? 部署后的AI应用是如何收费的? Notebook中的EVS存储可以使用套餐包吗? 如何查看在哪个区域购买的套餐包? 已购买的套餐包为什么不能使用? 套餐包续费后为什么没有扣减?
如何使用pandas库处理OBS桶中的数据? 参考下载OBS文件到Notebook中的指导,将OBS中的数据下载至Notebook本地处理。 参考pandas用户指南处理pandas数据。 父主题: 数据存储
可以为云服务器提供高可靠、高性能、规格丰富并且可弹性扩展的块存储服务,可满足不同场景的业务需求。云硬盘就类似PC中的硬盘。 存储数据的逻辑 存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 存放的是对象,可以直接存放文件,文件会自动产生对应的系统元数据,用户也可以自定义文件的元数据。 存放的是二进制数据
户可以根据自己的实际情况进行选择。虚拟私有云VPC是一套为实例构建的逻辑隔离的、由用户自主配置和管理的虚拟网络环境。为云服务器、云容器、云数据库等资源构建隔离的、用户自主配置和管理的虚拟网络环境,提升用户资源的安全性,简化用户的网络部署。 登录ModelArts管理控制台,在左侧导航栏中选择“AI专属资源池
时需要指定,属于PWD鉴权的一部分。 -u / --username String 否 用户名,在使用账号认证时表示账号名,IAM认证时表示IAM用户名,在云星账号场景不需要指定,属于PWD鉴权的一部分。 -p / --password String 否 密码,属于PWD鉴权的一部分。
这些可用区通过延迟低、吞吐量高且冗余性高的网络连接在一起。利用可用区,您可以设计和操作在可用区之间无中断地自动实现故障转移的应用程序和数据库。与传统的单个或多个数据中心基础设施相比,可用区具有更高的可用性、容错性和可扩展性。 ModelArts通过对DB的数据进行备份,保证在原数据被破坏或损坏的情况下可以恢复业务。
-webui)。 如果是基于其他开源,需要附带开源代码仓地址。 - 具体使用库 例如: 使用了哪个pipeline (例如lpw_stable_diffusion.py)。 使用了哪个huggingface的模型 (例如digiplay/majicMIX_realistic_v6)。
已购买的套餐包不能使用包含以下几种情况: 购买套餐包的区域与使用区域不同。例如您在“华北-北京四”区域购买的套餐包,就只能在此区域使用。查看已购买套餐包区域可参见如何查看在哪个区域购买的套餐包?。 购买的套餐包不支持在此场景中使用。例如,您购买的套餐包只支持在训练中使用,那么在部署上线时就不支持使用此套餐包。查看已购买的套餐包支持场景可参见套餐包。
使用Cloud Shell登录训练容器 使用场景 允许用户使用ModelArts控制台提供的Cloud Shell登录运行中的训练容器。 约束限制 仅专属资源池支持使用Cloud Shell,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud Shell的权限
为什么无法启动训练? 如果启动脚本选择了不属于本工程的代码,则无法启动训练,错误信息如下图所示。建议将启动脚本添加至本工程,或者是打开启动脚本所在工程后,再启动训练作业。 图1 错误信息 父主题: PyCharm Toolkit使用
将用户请求的prompt传入大模型,进行计算,中间结果写入KVCache并推出第1个token,属于计算密集型。 Decode阶段(增量推理) 将请求的前1个token传入大模型,从显存读取前文产生的KVCache再进行计算,属于访存密集型。 分离部署场景下,全量推理和增量推理在不同的容器上进行,用于提高资源利用效率。
将用户请求的prompt传入大模型,进行计算,中间结果写入KVCache并推出第1个token,属于计算密集型。 Decode阶段(增量推理) 将请求的前1个token传入大模型,从显存读取前文产生的KVCache再进行计算,属于访存密集型。 分离部署场景下,全量推理和增量推理在不同的容器上进行,用于提高资源利用效率。