检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建资产 功能介绍 该接口用于在资产库中添加上传新的媒体资产。可上传的资产类型包括:分身数字人模型、背景图片、素材图片、素材视频、PPT等。 资产类型是IMAGE时,通过system_properties来区分背景图片(BACKGROUND_IMG)、素材图片(MATERIAL_IMG)。
查询资产详情 功能介绍 该接口用于查询资产库中指定媒体资产的详情。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/digital-assets/{asset_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
Key防盗链 为保障直播资源不被非法盗用,您可以使用直播的Key防盗链功能,在原始推流或播放地址末尾加上鉴权信息。在主播请求直播推流或观众请求播放时,CDN会对其URL带的加密信息进行合法性判断,仅校验通过的请求会予以响应,其它非法的访问将予以拒绝。 若您有其它自定义防盗链规则的
分离部署推理服务 本章节介绍如何使用vLLM 0.6.0框架部署并启动推理服务。 什么是分离部署 大模型推理是自回归的过程,有以下两阶段: Prefill阶段(全量推理) 将用户请求的prompt传入大模型,进行计算,中间结果写入KVCache并推出第1个token,属于计算密集型。
创建集群 功能介绍 创建一个MRS集群。使用接口前,您需要先获取下的资源信息。 通过VPC创建或查询VPC、子网 通过ECS创建或查询密钥对 通过终端节点获取区域信息 参考MRS服务支持的组件获取MRS版本及对应版本支持的组件信息 接口约束 无 调用方法 请参见如何调用API。 URI
内存 介绍与内存相关的参数设置。 这些参数只能在数据库服务重新启动后生效,local_syscache_threshold除外。 memorypool_enable 参数说明:设置是否允许使用内存池。 参数类型:布尔型 参数单位:无 取值范围: on:表示允许使用内存池。 off:表示不允许使用内存池。
连接数据库 在创建数据库连接之后,才能使用它来执行SQL语句操作数据。 函数原型 JDBC提供了三个方法,用于创建数据库连接。 DriverManager.getConnection(String url); DriverManager.getConnection(String url
查入侵事件列表 功能介绍 查入侵事件列表 调用方法 请参见如何调用API。 URI GET /v5/{project_id}/event/events 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID 表2 Query参数 参数 是否必选
非分离部署推理服务 本章节介绍如何使用vLLM 0.6.0框架部署并启动推理服务。 什么是非分离部署 全量推理和增量推理在同一节点上进行。 前提条件 已准备好Server环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的Server和昇腾Snt9b资源。 安装过程需要连接互联网git
字段压缩 为了减少数据页面存储空间占用,节省成本,TaurusDB推出细粒度的字段压缩,提供ZLIB和ZSTD两种压缩算法,用户可以综合考虑压缩比和压缩解压性能影响,选择合适的压缩算法,对不频繁访问的大字段进行压缩。同时,字段压缩特性提供自动压缩的能力,帮助用户更方便地使用此特性。
更新开发环境实例信息 功能介绍 该接口用于更新开发环境实例的描述信息或自动停止信息。 URI PUT /v1/{project_id}/demanager/instances/{instance_id} 参数说明如表1所示。 表1 参数说明 参数 是否必选 参数类型 说明 project_id
创建数据实体 操作场景 数据实体是工业数字模型驱动引擎-数据建模引擎(xDM Foundation,简称xDM-F)原子接口的承载体之一。在应用设计态中,分为实体模型和抽象模型。实体模型是实际存在的一个对象模型,抽象模型是根据多个实体模型公共的部分抽象出来的模型。如果实体模型继承
创建智能直播间 功能介绍 该接口用于创建智能直播间。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/smart-live-rooms 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参考获取项目ID。
在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传
分离部署推理服务 本章节介绍如何使用vLLM 0.6.0框架部署并启动推理服务。 什么是分离部署 大模型推理是自回归的过程,有以下两阶段: Prefill阶段(全量推理) 将用户请求的prompt传入大模型,进行计算,中间结果写入KVCache并推出第1个token,属于计算密集型。
创建边缘非机动车检测作业 功能介绍 该API可分析边缘摄像头输出的RTSP视频流。提供了非机动车(包括自行车、电瓶车)的检测功能。根据用户配置进行非机动车检测,当有非机动车停放在违规区域,会上报违停事件信息;当有非机动车入侵禁止区域,则上报非机动车入侵事件信息。 目前支持H264、H265编码格式的RTSP视频流。
GRANT 功能描述 对角色和用户进行授权操作。 使用GRANT命令进行用户授权包括以下场景: 将系统权限授权给角色或用户 系统权限又称为用户属性,包括SYSADMIN、CREATEDB、CREATEROLE、AUDITADMIN、MONADMIN、OPRADMIN、POLADM
在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传
字段压缩 为了减少数据页面存储空间占用,节省成本,TaurusDB推出细粒度的字段压缩,提供ZLIB和ZSTD两种压缩算法,用户可以综合考虑压缩比和压缩解压性能影响,选择合适的压缩算法,对不频繁访问的大字段进行压缩。同时,字段压缩特性提供自动压缩的能力,帮助用户更方便地使用此特性。
创建生产训练作业 模型训练是一个不断迭代和优化模型权重的过程。ModelArts的训练模块支持创建训练作业、查看训练情况以及管理训练版本。通过模型训练试验模型结构、数据和超参的各种组合,便于找到最佳的模型结构和权重。 创建生产环境的训练作业有2种方式: 通过ModelArts S